E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
---SparkCore
Apache 流框架 Flink,Spark Streaming,Storm对比分析(2)
2.SparkStreaming架构及特性分析2.1基本架构基于是
sparkcore
的sparkstreaming架构。SparkStreaming是将流式计算分解成一系列短小的批处理作业。
H_MZ
·
2018-10-31 05:59
java
数据库
runtime
大数据学习路线(完整详细版)
Mapreduce,yarn,hive,hbase,sqoop,zookeeper,flume)机器学习(R,mahout)Storm(Storm,kafka,redis)Spark(scala,spark,
sparkcore
haohsq
·
2018-10-27 14:21
大数据
spark streaming 排错--JVM方法栈溢出
对于堆溢出要分两种情况:1.突然堆溢出,这种情况的处理方案参照
sparkcore
对于堆溢出的处理,不做详述。
sunkl_
·
2018-10-24 02:41
SparkCore
(5):Spark on Standalone配置和测试
1.实现功能Spark应用运行在Standalone资源管理框架系统上,Standalone是spark自带的一种资源管理框架,类似yarn,分布式的。2.Standalone的框架Worker:执行节点服务,管理当前节点的资源及启动executorMaster:集群资源管理及申请3.配置信息(1)要求:spark的local本地模式可以成功运行,配置spark-env.shJAVA_HOME=/
RayBreslin
·
2018-10-23 07:27
大数据开发
SparkCore
Spark
SparkStreaming源码分析起始篇
并且是如何将SparkStreamingApi转化为
SparkCore
的呢?接下来的文章我们通过分析SparkStream
小狼星I
·
2018-10-21 11:12
《Spark快速大数据分析》总结--(2)
SparkCore
还包括了对弹性分布式数据集(RDD)的API定义。R
徐周
·
2018-10-17 21:56
机器学习
【Spark内核源码】SparkConf,Spark的配置管控
SparkConf位于
SparkCore
中的org.apac
lazy_moon
·
2018-10-15 20:55
Spark内核源码
Spark Streaming执行流程源码剖析
一、StreamingContext初始化过程在SparkStreaming中使用StreamingContext来操作DStream,这也好比
SparkCore
中SparkContext对于RDD,DStream
不清不慎
·
2018-10-06 11:22
Spark
Spark源码剖析与调优
Spark Streaming(二十八)性能调优
减少批处理的时间SparkStreaming的优化可以大大提高每个批次的处理时间,每个批次处理其实就是操作RDD,那么怎么样才能缩短操作RDD的时间呢,那我们就可以参考
SparkCore
(十九)Spark
666呀
·
2018-10-01 09:18
spark
Apache 流框架 Flink,Spark Streaming,Storm对比分析 (二)
2.SparkStreaming架构及特性分析2.1基本架构基于是
sparkcore
的sparkstreaming架构。SparkStreaming是将流式计算分解成一系列短小的批处理作业。
生活的探路者
·
2018-09-30 13:35
Spark 实现两表查询(
SparkCore
和SparkSql)
项目需求:ip.txt:包含ip起始地址,ip结束地址,ip所属省份access.txt:包含ip地址和各种访问数据需求:两表联合查询每个省份的ip数量
SparkCore
使用广播,将小表广播到executor
曼路
·
2018-09-30 11:35
hadoop
Spark系列1 - Spark生态和RDD
1Spark的生态
SparkCore
中的基本概念DAG(DirectedAcyclicGraph),有向无环图。
guoxiaojie_415
·
2018-09-28 18:34
大数据
使用Spark进行每日Top3热点搜索词统计
本案例旨在综合使用
SparkCore
和SparkSql完成业务需求,具有一定的参考价值。
固安李庆海
·
2018-09-28 09:12
Spark学习笔记:Spark Streaming与Spark SQL协同工作
SparkStreaming与SparkSQL协同工作SparkStreaming可以和
SparkCore
,SparkSQL整合在一起使用,这也是它最强大的一个地方。
SetsunaMeow
·
2018-09-19 17:48
Spark
Spark
Streaming
Spark SQL(二十)初识Spark SQL
SparkSQL优点它与
SparkCore
无缝集成,在项目中我们可以与
SparkCore
配合实现业务逻辑。
666呀
·
2018-09-09 00:00
spark
大数据专栏(一)Spark
[spark streaming] 架构和运行机制
SparkStreaming架构2.SparkStreaming运行机制3.解密SparkStreamingJob架构和运行机制4.解密SparkStreaming容错架构和运行机制Spark大数据分析框架的核心部件:
sparkCore
风一样的男人_
·
2018-08-28 11:19
spark
玩转spark
Spark Streaming运行架构和运行原理总结
一运行架构SparkStreaming相对其他流处理系统最大的优势在于流处理引擎和数据处理在同一软件栈,其中SparkStreaming功能主要包括流处理引擎的流数据接收与存储以及批处理作业的生成与管理,而
SparkCore
Anbang713
·
2018-08-26 09:50
大数据/Spark/Spark
Streaming
Spark Streaming-与Spark SQL结合
SparkStreaming最强大的地方在于可以与
SparkCore
、SparkSQL整合使用,之前已经通过transform、foreachRDD等算子看到,如何将DStream中的RDD使用
SparkCore
Anbang713
·
2018-08-25 08:47
大数据/Spark/Spark
Streaming
Spark学习笔记(一)——Spark编程
Spark的前辈:MPI、MapReduce特性:迭代式计算、交互式探索、内存缓存计算Spark软件栈
SparkCore
:任务调度、内存管理、错误恢复、与存储系统交互,弹性分布式数据集(resilientdistributeddataset
Shingle_
·
2018-08-24 20:14
数据分析
分布式
spark
RDD
Spark Streaming及实时计算介绍
它的底层,其实也是基于
SparkCore
。基本的计算模型还是基于内存的大数据实时计算模型。而且它的底层的组件或者叫做概念其实还是最核心的RDD。
Anbang713
·
2018-08-23 07:45
大数据/Spark/Spark
Streaming
Spark Streaming 初见
SparkStreaming是用来处理实时流数据的,所以必然有一个输入和一个输出:SparkStreaming的内部实现其实还是
Sparkcore
,将接收到的实时流数据分成一个一个很小的批数据进行处理:
Trigl
·
2018-08-22 18:08
Spark
Spark Streaming总结
一、本质SparkStreaming是Spark核心API的一个扩展,可以实现高吞吐量的、具备容错机制的实时流数据的处理二、SparkStreaming和
SparkCore
2.1逻辑关系:2.2物理关系
且听_风吟
·
2018-08-17 09:32
Spark
SparkCore
详解
一RDD概念1RDD为什么会产生2RDD概述21什么是RDD22RDD的属性313RDD弹性4RDD特点41分区42只读43依赖44缓存45checkpoint二RDD编程1编程模型222创建RDD一、RDD概念1.1RDD为什么会产生RDD是Spark的基石,是实现Spark数据处理的核心抽象。那么RDD为什么会产生呢?Hadoop的MapReduce是一种基于数据集的工作模式,面向数据,这种工
卢子墨
·
2018-08-16 15:34
Spark
Spark DataSet和RDD与DataFrame转换成DataSet
二、创建DataSet首先需要导入
SparkCore
、SparkSQL、HadoopClient依赖包。pox.xml文件如下:4.0.0
leboop
·
2018-08-10 23:13
DataSet
RDD
DataFrame
转换
Spark
Spark
大数据
Spark DataSet和RDD与DataFrame转换成DataSet
二、创建DataSet首先需要导入
SparkCore
、SparkSQL、HadoopClient依赖包。pox.xml文件如下:4.0.0
leboop
·
2018-08-10 23:13
DataSet
RDD
DataFrame
转换
Spark
Spark
大数据
20180807 - Spark快速大数据分析
回答业务问题、挖掘潜在规律、辅助产品推荐)数据处理:硬件(内存、集群)+软件(封装、接口、监控、优化)框架应用层:SparkStreamingSparkSqlSparkGraphxSparkMLlib中间层:
SparkCore
BigDeng_2014
·
2018-08-07 14:55
网络技术-互联网
Spark基础:(七)Spark Streaming入门
Spark基础:(七)SparkStreaming入门介绍1、是
sparkcore
的扩展,针对实时数据流处理,具有可扩展、高吞吐量、容错.数据可以是来自于kafka,flume,tcpsocket,使用高级函数
雪泪寒飞起来
·
2018-08-07 14:00
spark的四大核心组件
位于底层的是
SparkCore
,其实现了Spark的作业调度、内存管理、容错、与存储系统交互等基本功能,并针对弹性分布式数据集提供了丰富的操作。
Morgan_Mu
·
2018-07-12 18:38
Spark
Sparkcore
1.StartingPoint:SparkContextvalconf=newSparkConf().setAppName(appName).setMaster(master)newSparkContext
TenSleep_b32f
·
2018-07-12 14:19
Spark Core 和 Spark SQL 实现分组取Top N(基于scala)
每个班级分数前三名同学的名字以及分数各省指标数量前三的市的名字等等需求,主要思想就是在某一个分区(班级,省)中取出该分区TopN的数据测试数据格式:如上图,字段含义为,班级,学生姓名,分数下面我们通过一个Demo来实现各班级分数前三的学生姓名以及分数1、通过
Sparkcore
wftt
·
2018-07-05 17:02
Spark从入门到转行
Spark核心功能设计详解
SparkContext3.SparkEnv4.存储体系5.调度系统6.计算引擎前言本文是读耿嘉安先生的《Spark内核设计艺术:架构设计与实现》的读书笔记,感觉这一部分很重要,很基础,很有价值,特此记录一下正文
SparkCore
荒野雄兵
·
2018-07-05 07:57
大数据
Spark
pyspark学习与工作历程
pyspark学习与工作历程pyspark中的dataframe操作sparksql理解:属于架设在
sparkcore
之上的高级层。
Jack_kun
·
2018-06-21 13:50
spark
Spark Streaming概述
3、SparkStreaming会运行接收器来不断的接收输入的数据流,然后根据程序配置的时间,将时间范围内的所有数据打成一个RDD,发送给
SparkCore
去进行处理
liangzelei
·
2018-06-12 10:27
大数据
scala
spark
Spark core优化配置参数
Sparkcore
优化配置参数应用属性描述spark.driver.cores在集群模式下管理资源时,用于driver程序的CPU内核数量。默认为1。
张行之
·
2018-06-08 12:27
大数据
Spark中RDD与DataFrame与DataSet的区别与联系
而RDD,由于无从得知所存储数据元素的具体内部结构,
SparkCore
只能在stage层面进行简单,通用的流水线优化。2.例子说明下面创建一个RD
九师兄-梁川川
·
2018-05-28 20:32
大数据-spark
spark大数据架构初学入门基础详解
Spark是什么a)是一种通用的大数据计算框架b)
SparkCore
离线计算SparkSQL交互式查询SparkStreaming实时流式计算SparkMLlib机器学习SparkGraphX图计算c)
假的鱼
·
2018-05-28 17:44
java
大数据
数据挖掘
spark
Hadoop
reduce
spark2.2.0源码阅读---spark core包 --- rpc模块
1、本文目标以及其它说明:本文或者本次系列主要是弄清楚spark.2.2.0版本中,
sparkcore
包下rpc通信情况。
danlial
·
2018-05-18 15:28
spark源码
Spark Streaming笔记整理(一):基本工作原理介绍
它的底层,其实,也是基于我们之前讲解的
SparkCore
的。基本的计算模型,还是基于内存的大数据实时计算模型。而且,它的底层的核心组件还是我们在
SparkCore
中经常用到的RDD。
xpleaf
·
2018-05-10 11:23
大数据
Spark
Spark
Streaming
Spark
Spark的介绍:前世今生
Spark包含了大数据领域常见的各种计算框架:比如
SparkCore
用于离线计算,SparkSQL用于交互式查询,
flyfish225
·
2018-05-07 10:05
spark
hadoop
流计算
大数据技术
Apache 流框架 Flink,Spark Streaming,Storm对比分析(二)
本文由网易云发布本文内容接上一篇Apache流框架Flink,SparkStreaming,Storm对比分析(一)2.SparkStreaming架构及特性分析2.1基本架构基于是
sparkcore
的
weixin_34320159
·
2018-04-27 06:26
java
数据库
ui
Hadoop(四)—— Saprk笔记
sparkcore
-->sparkrdd,spark核心编程,MapReducesparksql-->hivesparkstreaming-->storm,流式实时计算sparkmllib-->机器学习
Yatpif
·
2018-04-16 08:34
Hadoop
spark介绍及RDD操作
SparkSpark的主要部件
Sparkcore
:包含spark的主要功能。功能跟RDD有关的API都出自sparkcoreSparkSQL:spark中用于结构化数据处理的软件包。
G_scsd
·
2018-04-04 21:08
spark
python
Spark 2.2 Java版本 jdbcDataSource
/**1.创建sparkSessinon2.通过sparkSessionread方法将MySQL的数据加载为dataframe3.将DataFrame转换为RDD,使用
SparkCore
提供的各种算子进行操作
坚持的道路注定孤独
·
2018-03-19 17:47
Spark2.0
附录A Spark2.1核心工具类Utils
Utils是Spark最常用的工具类之一,
SparkCore
大量使用了此类提供的基础功能。即使不关心其实现也不会对理解本书对Spark源码的分析有太多影响。下面将逐个介绍Utils提供的方法。
泰山不老生
·
2018-01-25 09:46
大数据
Spark
Scala
Java
深入理解Spark
大数据学习路线(完整详细版)
Mapreduce,yarn,hive,hbase,sqoop,zookeeper,flume)机器学习(R,mahout)Storm(Storm,kafka,redis)Spark(scala,spark,
sparkcore
符智生
·
2018-01-20 12:00
spark大数据架构初学入门基础详解
Spark是什么a)是一种通用的大数据计算框架b)
SparkCore
离线计算SparkSQL交互式查询SparkStreaming实时流式计算SparkMLlib机器学习SparkGraphX图计算c)
三万_chenbing
·
2018-01-16 14:05
【大数据】最新大数据学习路线(完整详细版,含整套教程)
Mapreduce,yarn,hive,hbase,sqoop,zookeeper,flume)机器学习(R,mahout)Storm(Storm,kafka,redis)Spark(scala,spark,
sparkcore
符智生
·
2018-01-05 20:06
大数据
【大数据】最新大数据学习路线(完整详细版,含整套教程)
Mapreduce,yarn,hive,hbase,sqoop,zookeeper,flume)机器学习(R,mahout)Storm(Storm,kafka,redis)Spark(scala,spark,
sparkcore
符智生
·
2018-01-05 20:06
大数据
Spark技术栈学习
快100倍,拥有Java,Scale,Python等API,且支持多种平台(Hadoop,Cloud,Mesos等),能够在一个应用中支持SparkStream(流计算),SparkSQL(自查询),
SparkCore
MrGeroge
·
2017-12-05 19:46
Spark
理解Spark的运行机制
阅读更多Spark生态系统目前已经非常成熟了,有很多类型的任务都可以使用spark完成,我们先看下spark生态系统的组成:spark的核心主要由3个模块组成:(1)
sparkcore
是spark的最底层的编程实现
qindongliang1922
·
2017-11-23 21:00
spark
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他