linkedin高吞吐量分布式消息系统kafka使用手记

本文链接: http://www.54chen.com/java-ee/linkedin-kafka-usage.html

kafka是一种高吞吐量的分布式发布订阅消息系统,她有如下特性:

通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
高吞吐量:即使是非常普通的硬件kafka也可以支持每秒数十万的消息。
支持通过kafka服务器和消费机集群来分区消息。
支持Hadoop并行数据加载。

设计侧重高吞吐量,用于好友动态,相关性统计,排行统计,访问频率控制,批处理等系统。大部分的消息中间件能够处理实时性要求高的消息/数据,但是对于队列中大量未处理的消息/数据在持久性方面比较弱。

kakfa的consumer使用拉的方式工作。

安装kafka
下载:http://people.apache.org/~nehanarkhede/kafka-0.7.0-incubating/kafka-0.7.0-incubating-src.tar.gz

> tar xzf kafka-.tgz
> cd kafka-
> ./sbt update
> ./sbt package
启动zkserver:
bin/zookeeper-server-start.sh config/zookeeper.properties
启动server:
bin/kafka-server-start.sh config/server.properties
就是这么简单。

使用kafka

  1. importjava.util.Arrays;
  2. importjava.util.List;
  3. importjava.util.Properties;
  4. importkafka.javaapi.producer.SyncProducer;
  5. importkafka.javaapi.message.ByteBufferMessageSet;
  6. importkafka.message.Message;
  7. importkafka.producer.SyncProducerConfig;
  8. ...
  9. Propertiesprops=newProperties();
  10. props.put(“zk.connect”,“127.0.0.1:2181”);
  11. props.put("serializer.class","kafka.serializer.StringEncoder");
  12. ProducerConfigconfig=newProducerConfig(props);
  13. Producer<String,String>producer=newProducer<String,String>(config);
  14. Sendasinglemessage
  15. //ThemessageissenttoarandomlyselectedpartitionregisteredinZK
  16. ProducerData<String,String>data=newProducerData<String,String>("test-topic","test-message");
  17. producer.send(data);
  18. producer.close();

这样就是一个标准的producer。

consumer的代码

  1. //specifysomeconsumerproperties
  2. Propertiesprops=newProperties();
  3. props.put("zk.connect","localhost:2181");
  4. props.put("zk.connectiontimeout.ms","1000000");
  5. props.put("groupid","test_group");
  6. //Createtheconnectiontothecluster
  7. ConsumerConfigconsumerConfig=newConsumerConfig(props);
  8. ConsumerConnectorconsumerConnector=Consumer.createJavaConsumerConnector(consumerConfig);
  9. //create4partitionsofthestreamfortopic“test”,toallow4threadstoconsume
  10. Map<String,List<KafkaMessageStream<Message>>>topicMessageStreams=
  11. consumerConnector.createMessageStreams(ImmutableMap.of("test",4));
  12. List<KafkaMessageStream<Message>>streams=topicMessageStreams.get("test");
  13. //createlistof4threadstoconsumefromeachofthepartitions
  14. ExecutorServiceexecutor=Executors.newFixedThreadPool(4);
  15. //consumethemessagesinthethreads
  16. for(finalKafkaMessageStream<Message>stream:streams){
  17. executor.submit(newRunnable(){
  18. publicvoidrun(){
  19. for(Messagemessage:stream){
  20. //processmessage
  21. }
  22. }
  23. });
  24. }

你可能感兴趣的:(kafka)