E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark-submit
Spark Application执行流程
application(应用)其实就是
spark-submit
提交的spark应用程序。
蓝莓果粒茶
·
2019-04-08 22:29
Spark学习
SparkSubmit到YarnClient入门
Spark-Submit
分析https://www.cnblogs.com/liangjf/p/8134645.html抛开
spark-submit
脚本提交spark程序https://blog.csdn.net
李月鹏
·
2019-03-21 21:18
分布计算
【Spark调优】提交job资源参数调优
/bin/
spark-submit
\--classcom.ww.rdd.wordcount\--masteryarn\--deploy-mode
wwcom123
·
2019-03-19 22:00
使用
spark-submit
提交第一个 spark 应用到集群中 & 使用 spark-shell 接口 运行spark 程序
/bin/
spark-submit
\--class\--master\--deploy-mode\--conf=\...
hellozhouq
·
2019-03-13 16:43
Spark
大数据
4.Spark环境搭建-spark history server配置使用
问题描述在Spark安装成功后,无论是通过
spark-submit
工具还是通过IntellijIDEA提交任务,只要在Spark应用程序运行期间,都可以通过WebUI控制台页面来查看具体的运行细节,在浏览器中通过地址
__元昊__
·
2019-03-10 15:38
spark history server配置使用
问题描述在Spark安装成功后,无论是通过
spark-submit
工具还是通过IntellijIDEA提交任务,只要在Spark应用程序运行期间,都可以通过WebUI控制台页面来查看具体的运行细节,在浏览器中通过地址
张明洋_4b13
·
2019-03-10 11:44
Spark2.4+Hive使用现有Hive仓库中的数据
hive-site.xml复制到$SPARK_HOME/conf目录下hive连接mysql的jar包(mysql-connector-java-8.0.13.jar)也要复制到$SPARK_HOME/jars目录下或者在
spark-submit
lzw2016
·
2019-03-06 10:24
#
Learning
Spark
Spark 异常总结及解决办法
1、之前的几篇
spark-submit
报错:Exceptionin
董可伦
·
2019-02-28 08:04
spark
[Spark基础]-- Spark sql使用(编程和 cli)
、使用编程方式举例:https://spark.apache.org/docs/2.2.0/sql-programming-guide.html#getting-started2、使用命令行可以理解为
spark-submit
highfei2011
·
2019-02-25 14:38
Spark
spark 第一个简单实例wordcount
1.因为是采用idea开发,直接在maven项目上新建一个文件夹SparkWordCount和文件SparkWordCount.scala,利用maven打包后,
spark-submit
提交任务后,一直报错
a627082796
·
2019-02-21 10:44
Spark学习
基于standalone Spark内核架构深度剖析
基于standaloneSpark内核架构深度剖析编写spark应用程序打包成jar使用
spark-submit
模式提交集群上,通过反射方式,创建一个Driver(进程)一个Driver(进程)--执行我们的
有一束阳光叫温暖
·
2019-02-18 17:36
spark-submit
提交python外部依赖包
需求:使用pyspark的过程中,发现集群的python并没有安装自己需要的包,比如elasticsearch包等,这样就只能靠自己把包打上,然后才能被分发到集群的各台节点机器上,然后被执行,这里举个例子,如何加载自己的外部包1.创建模块构建spark_submit.py#-*-coding:utf-8-*-defspark_submit_test(key):return'executedata:
哈士奇说喵
·
2019-02-01 12:42
Spark
Error: Could not find or load main class org.apache.spark.deploy.yarn.ApplicationMaster
今天搭建了一个sparkOnYarn的集群,我想测试一下集群是否正常,使用spark自带蒙特卡罗求圆周率的算法包,但是执行报错执行命令:bin/
spark-submit
\--classorg.apache.spark.examples.SparkPi
Alex_Sheng_Sea
·
2019-01-29 14:17
大数据
记一次HDFS Delegation Token失效问题(续)
在上篇讲到了,HDFSDelegationToken问题的解决方法是
Spark-Submit
方式可以进行解决,经过了一段时间的反思和查看Livy和
Spark-Submit
两者日志之后,有了一点新发现,并且测试认证了
迹_Jason
·
2019-01-22 00:00
kerberos
SparkConf、
spark-submit
以及spark-defaults.conf
北风网spark学习笔记SparkConf、
spark-submit
以及spark-defaults.confspark-submit脚本会自动加载conf/spark-defaults.conf文件中的配置属性
htfenght
·
2019-01-14 16:47
大数据(hadoop
spark)
Spark 资源动态释放
通过
spark-submit
会固定占用一占的资源,有什么办法,在任务不运作的时候将资源释放,让其它任务使用呢,yarn新版本默认已经支持了,我们使用的是HDP。
dounine
·
2019-01-10 10:01
java
spark
scala
sparkStreaming程序的的部署、调优
sparkstandalone集群、yarn集群、meoss集群...driver的HA:如果希望driver程序在失败之后自动重启,那么需要在程序中使用getOrcreate方法重构streamingContext对象,以及在
spark-submit
原生zzy
·
2019-01-07 22:31
spark
Streaming
程序
spark
pyspark以
spark-submit
运行Python程序
1.压缩工程文件sudozip-r项目.zip.gz./*2.配置PYTHONPATH,指向该目录3.工程下创建配置文件conf.py文件AI_PLATFORM_SOURCE=r'/usr/项目.zip'2.代码引用外部模块#从conf引用模块路径fromconfimport项目路径sys.path.append(项目路径)fromsettingsimport项目路径引用压缩包的类import_m
dymkkj
·
2019-01-07 15:47
spark
pyspark
Spark:连接MySQL
原文链接:http://www.cnblogs.com/xuejianbest/p/10285010.htmlspark-shell或
spark-submit
,载入jdbc的jar包:--jars/mysql-connector-java
weixin_34250709
·
2019-01-04 17:00
spark任务运行过程的源码分析
①编写程序和提交任务到集群中②sparkContext的初始化③触发action算子中的runJob方法,执行任务(1)编程程序并提交到集群:①编程spark程序的代码②打成jar包到集群中运行③使用
spark-submit
原生zzy
·
2019-01-03 21:28
spark
源码
分析
spark
spark-submit
提交任务的相关参数
##参数名称##含义--clusterc3prc-hadoop#--masterMASTER_URL#可以是spark://host:port,mesos://host:port,yarn,yarn-cluster,yarn-client,local,local[K],local[*]--deploy-modeDEPLOY_MODE#Driver程序运行的地方,client或者cluster--c
liuzx32
·
2018-12-28 15:09
Spark 性能调优之 repartition解决spark sql低并行度问题
http://spark.apache.org/docs/2.0.2/tuning.html#level-of-parallelism因此按照这个说明根据你的application的总cpucore数量(在
spark-submit
chixushuchu
·
2018-12-19 14:10
实战
spark
Spark性能优化:资源调优篇
Spark的资源参数,基本都可以在
spark-submit
命令中作为参数设置。很多Spark初学者,通常不知道该设置哪些必要的参数,以及如何设置这些参数,最后就只能胡乱设置,甚至压根儿不设置。
GuaKin_Huang
·
2018-12-18 18:47
scala
spark
spark第十一篇:
spark-submit
命令支持选项
/spark-submit--helpUsage:
spark-submit
[options][apparguments]Usage:spark-submit--kill[submissionID]--master
koushr
·
2018-11-26 21:00
spark遇到的一些坑
1.spark的cluster模式参数问题
spark-submit
\--masteryarn\--deploy-modecluster\--classcom.zctt.bigdata.Education
TheManOfCoding
·
2018-11-26 10:44
spark
SPARK应用的部署
Deploying部署提交应用sparkhome的bin目录下有个
spark-submit
脚本是用来在集群模式下启动应用的。
zhanghouse1
·
2018-11-25 22:41
云计算
Spark应用程序第三方jar文件依赖解决方案
第一种方式操作:将第三方jar文件打包到最终形成的spark应用程序jar文件中应用场景:第三方jar文件比较小,应用的地方比较少第二种方式操作:使用
spark-submit
提交命令的参数:--jars
山木枝
·
2018-11-25 16:09
spark
spark作业配置及
spark-submit
参数说明
spark-submit
中使用参数。这三种方式的优先级为SparkConf>
spark-submit
>配置文件。可以在
spark-submit
中使用–verbos参数查看起作用的配置来自上述哪种方式。
山木枝
·
2018-11-20 19:54
spark
Spark 通过
spark-submit
设置日志级别
我的原创地址:https://dongkelun.com/2018/11/16/sparkSubmitLogLevel/前言Spark有多种方式设置日志级别,这次主要记录一下如何在
spark-submit
董可伦
·
2018-11-16 16:33
spark
spark-submit
Spark
spark源码分析(1)
;pwd)"fi就是找到
spark-submit
命令所在的目录,然后进行上一层,并赋值给SPARK_HOME禁用Python3.3+中字符串的随机哈希,没关注,不知道为啥这样干expor
mainroot
·
2018-11-14 15:29
(十四)Spark on Yarn的基本使用及常见错误
/
spark-submit
\--classorg.apache.spark.examples.SparkPi\--masteryarn\/home/hadoop/app/spark-2.3.1-bin-
白面葫芦娃92
·
2018-11-12 16:17
spark-submit
几种情况
1.打包在idea右侧,打开maven面板。打包后,生成两个文件,一个是只包含代码的,一个是包含所有jar包的。2.提交2.1.提交scala文件#(不确定)spark-submit--executor-memory5g--driver-memory3g--masterspark://node11:7077redis.clientsjedis2.9.0jarcom.redislabsspark-r
datadev_sh
·
2018-11-07 17:22
DataScience
大数据spark的学习之提交任务与参数解释
/bin/
spark-submit
\--classspark_streaming.SparkStreaming_first\--masterspark://master:7077\--deploy-modeclient
卿卿老祖
·
2018-11-06 11:59
Hive on Spark调优
我们使用
spark-submit
提交
Ebaugh
·
2018-10-31 14:29
hive
spark
hive
初识livy
背景介绍对于Spark有这样一个应用场景:Spark应用程序都是通过
spark-submit
进行提交的;而在工作当中,肯定是要将我们的
spark-submit
封装到shell里面去的,比如:今天凌晨去处理昨天的数据
疯狂呼呼呼
·
2018-10-31 01:46
Livy
Spark2.x源码分析---
spark-submit
提交流程
本文以sparkonyarn的yarn-cluster模式进行源码解析,如有不妥之处,欢迎吐槽。步骤1.spark-submit提交任务脚本spark-submit--class主类路径\--masteryarn\--deploy-modecluster\--driver-memory申请driver内存\--executor-memory申请每个executor内存\--executor-cor
启明龍
·
2018-10-29 11:33
spark
MongoDB on SparkSql的读取和写入操作(Python版本)
MongoDBonSparkSql的读取和写入操作(Python版本)1.1读取mongodb数据python方式需要使用pyspark或者
spark-submit
的方式进行提交。
张行之
·
2018-10-26 22:31
大数据
Spark扫描kerberos hbase环境配置
下面介绍下集成kerberos后,要做什么准备才能让spark程序正常跑起来在实施方案前,假设读者已经基本熟悉以下技术(不细说)熟悉spark程序,
spark-submit
脚本cdh集成kerberos
阿甘骑士
·
2018-09-29 10:11
spark-submit
提交jar包到spark集群上
一、首先将写好的程序打包成jar包。在IDEA下使用maven导出jar包,如下:在pom.xml中添加以下插件org.apache.maven.pluginsmaven-jar-plugintruefalselib/二、然后将导出的jar包上传至集群,并运行:bin/spark-submit--masterspark://master.hadoop:7077--classnuc.sw.test.
nuc2015
·
2018-09-18 10:42
大数据学习笔记
Spark
Spark项目实战-实际项目中常见的优化点-分配更多的资源和调节并行度
/usr/local/spark/bin/
spark-submit
\--classcn.spark.sparktest.
Anbang713
·
2018-09-16 11:29
大数据/Spark/项目实战
yarn-cluster模式打包,提交问题
通常我们将spark任务编写后打包成jar包,使用
spark-submit
进行提交,因为spark是分布式任务,如果运行机器上没有对应的依赖jar文件就会报ClassNotFound的错误。
chbxw
·
2018-09-13 09:13
#
spark
Spark学习笔记:Spark基础
Spark生态圈(3)Spark的特点与MapReduce对比2.Spark体系结构与安装部署(1)Spark体系结构(2)Spark的安装与部署(3)SparkHA的实现3.执行SparkDemo(1)
Spark-submit
SetsunaMeow
·
2018-09-03 23:57
Spark
spark-源码-submit命令
基于spark1.6任务提交流程下面所说的driver(也叫ApplicationMaster)
Spark-submit
提交一个任务到集群,通过
Spark-submit
脚本启动主类,这里以WordCount
scandly
·
2018-08-28 22:46
spark-sql执行hivesql
spark提交命令有spark-shell、
spark-submit
、spark-sql,spark-sql的提交命令很少见吧,不过已经被我发掘出来了。
大灰狼学编程
·
2018-08-27 14:02
大数据
Spark提交任务参数详解
/bin/
spark-submit
\--classorg.apache.spark.examples.SparkPi\--masterspark://207.184.161.138:7077\--deploy-modecluster
SunnyRivers
·
2018-08-26 23:53
Spark
Spark提交代码的两种方式
/
spark-submit
\--masterspark://node1:7077\--classorg.apache.spark.exampl
SunnyRivers
·
2018-08-26 22:08
Spark
一个Spark maven项目打包并使用
spark-submit
运行
项目目录名countjpgspom.xml文件(位于项目目录下)countjpgs=>src=>main=>scala=>stubs=>CountJPGs.scalaweblogs文件存放在HDFS的/loudacre目录下,是一个包含各种请求的web日志文件。pom.xml文件内容:4.0.0com.cloudera.training.dev1countjpgs1.0jar"CountJPGs"
Cheengvho
·
2018-08-23 17:05
HDFS
Spark
Scala
spark调优详解
1、spark调优之分配更多资源/usr/local/spark/bin/
spark-submit
\--classcn.spark.sparktest.core.WordCountCluster\--num-executors3
hgy0403
·
2018-08-19 18:21
spark
Spark内核架构剖析
2.通过
spark-submit
方式在该机器上创建一个Driver(jvm进程)。3.Driver会执行我们自己编写的Application应用程序,并会在当前机器上初始化SparkContext。
Perkinl
·
2018-08-08 19:37
spark
yarn cluster 与yarn client区别
/bin/
spark-submit
\--classorg.apache.spark.examples.SparkPi\--masteryarn-client\--executor-memory2g--jars
dymkkj
·
2018-07-30 03:54
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他