Spark中的数据存储

2019独角兽企业重金招聘Python工程师标准>>> hot3.png

Spark中的数据存储主要由BlockManager、ShuffleManager、DiskStore、MemoryStore等组件组成,当然还涉及到具体的主从节点之间的元数据信息交换。

BlockManager在存储数据的时候主要通过putBytes、putIterator等方法实现,前者是写入字节数组,后者是写入迭代器内容(此时循环迭代器依次写入)。写入的时候根据StorageLevel先决定是否写入MemoryStore,如果不成功再决定是否写入DiskStore。读取过程相反。

DiskBlockManager处理逻辑Block和物理File之间的关系,从BlockId到物理File的映射关系等。

BlockManager通过Slave和Master的节点概念,在Master统一维护汇总Block元数据。

BlockManager也同时管理Shuffle数据的存储和Broadcast数据的存储。

Spark的存储管理主要是这三章内容组成,Shuffle、BlockManager等概念。

转载于:https://my.oschina.net/u/778683/blog/2998922

你可能感兴趣的:(Spark中的数据存储)