E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
PySpark
spark python例子
#-*-coding:utf-8-*-from__future__importprint_functionimportsysfromoperatorimportaddfrom
pyspark
importSparkContext
yunshouhu
·
2015-11-05 17:30
python
PySpark
操作HBase时设置scan参数
在用
PySpark
操作HBase时默认是scan操作,通常情况下我们希望加上rowkey指定范围,即只获取一部分数据参加运算。
·
2015-11-02 18:20
hbase
保序回归
scikit-learn.org/stable/auto_examples/plot_isotonic_regression.html#example-plot-isotonic-regression-
pyspark
duncandai
·
2015-10-26 20:07
机器学习
Py4JJavaError: An error occurred while calling o18.sql. : java.lang.RuntimeException:
from
pyspark
importSparkContextfrom
pyspark
importHiveContext,SQLContextif__name__=="__main__":sc=SparkContext
BIT_SKY
·
2015-10-23 21:25
Spark
shell Syntax error: Bad fd number 错误解决
执行: sh -x bin/
pyspark
报错 + dirname bin/
pyspark
+ cd bin/.. + pwd + FWDIR=/usr/local/spark-0.9.1-
·
2015-10-21 12:27
number
SparkContext自定义扩展textFiles,支持从多个目录中输入文本文件
需求SparkContext自定义扩展textFiles,支持从多个目录中输入文本文件扩展classSparkContext(
pyspark
.SparkContext):def__init__(self
demigelemiao
·
2015-10-20 10:00
Spark SQL Table Join(Python)
示例SparkSQL注册“临时表”执行“Join”(InnerJoin、LeftOuterJoin、RightOuterJoin、FullOuterJoin)代码from
pyspark
importSparkConf
demigelemiao
·
2015-10-19 16:00
Spark RDD Union
示例Spark多个RDD(数据格式相同)“组合”为一个RDD代码from
pyspark
importSparkConf,SparkContextconf=SparkConf().setAppName("spark_app_union
demigelemiao
·
2015-10-19 16:00
Deep Learning (Spark, Caffe, GPU)
spark-caffeDeepLearning(Spark,Caffe,GPU)DescriptionTodemonstratethecapabilityofrunningadistributedjobin
PySpark
usinga
蔡东赟
·
2015-10-14 17:00
PySpark
关于HDFS文件(目录)输入、数据格式的探讨
背景 平台HDFS数据存储规则是按照“数据集/天目录/小时目录/若干文件”进行的,其中数据集是依据产品线或业务划分的。 用户分析数据时,可能需要处理以下五个场景: (一)分析指定数据集、指定日期、指定小时、指定文件的数据;(二)分析指定数据集、指定日期、指定小时的数据;(三)分析指定数据集、指定日期的数据(24个小时目录的数据);(四)分析多个数据集、多个日期或多个小时的数据;(五)多种存储格式(
yurun
·
2015-08-18 18:00
PySpark
关于HDFS文件(目录)输入、数据格式的探讨
背景平台HDFS数据存储规则是按照“数据集/天目录/小时目录/若干文件”进行的,其中数据集是依据产品线或业务划分的。用户分析数据时,可能需要处理以下五个场景:(一)分析指定数据集、指定日期、指定小时、指定文件的数据;(二)分析指定数据集、指定日期、指定小时的数据;(三)分析指定数据集、指定日期的数据(24个小时目录的数据);(四)分析多个数据集、多个日期或多个小时的数据;(五)多种存储格式(tex
demigelemiao
·
2015-08-18 18:00
在spark上运行独立程序(Self-Contained Applications)
运行独立程序(SimpleApp.py):首先编写程序(这里用Pytho的API):from
pyspark
importSparkContext logFile="README.md"#注意这里的文件是在
yijichangkong
·
2015-07-05 16:00
hadoop
spark
AAS代码运行-第11章-1
启动
PySpark
exportIPYTHON=1#
PySpark
也可使用IPythonshell
pyspark
--masteryarn--num-executors3发生如下错误:/opt/cloudera
littlesuccess
·
2015-07-04 20:00
第一个在Python 环境中开发的Spark应用示例
# -*- coding:utf-8 -*- ''' 1, 从网站上下载spark 2, py4j和
pyspark
这两个库放到Python环境中, ''' import os os.environ['SPARK_HOME
junanhonglei
·
2015-06-22 01:00
spark
python
pyspark
[
pySpark
][笔记]spark tutorial from spark official site在ipython notebook 下学习
pySpark
+SparkTutorial:LearningApacheSparkThistutorialwillteachyouhowtouseApacheSpark,aframeworkforlarge-scaledataprocessing,withinanotebook.Manytraditionalframeworksweredesignedtoberunonasinglecomputer.Howev
u013805817
·
2015-06-07 23:00
spark
python
pyspark
spark的python API的一些研究成绩记录
from
pyspark
import SparkContext sc = SparkContext(appName="Hello") #读取文件 lines = sc.textFile
zerozz
·
2015-06-03 16:00
[spark]
pyspark
的PYTHONPATH配置
参考http://www.cnblogs.com/chenfool/p/3858930.html 软件准备 spark-1.3.0-bin-hadoop1.tgz jdk-8u45-linux-x64.tar.gz scala export SPARK_HOME=~/spark-1.3.0-bin-hadoop1export PYTHONPATH=${SPARK_HOME}/pytho
·
2015-04-29 09:00
python
spark在windows下的安装
Windows下最简的开发环境搭建这里的spark开发环境,不是为apachespark开源项目贡献代码,而是指基于spark的大数据项目开发.Spark提供了2个交互式shell,一个是
pyspark
harrychinese
·
2015-03-29 15:00
提交任务到spark master -- 分布式计算系统spark学习(四)
qpzhangdeMac-mini:~/project/spark-1.3.0-bin-hadoop2.4$catexamples/SimpleApp.py """SimpleApp.py""" from
pyspark
importSparkContext
GZ.Jackey
·
2015-03-25 18:00
Spark入门到精通视频学习资料--第七章:Spark多语言编程(1讲)
Spark提供了python的编程模型
PySpark
,使得python可以作为Spark开发语言之一。
dongzhumao86
·
2015-03-04 13:00
Spark示例之数组排序
官方示例importsysfrom
pyspark
importSparkContextif__name__=="__main__":iflen(sys.argv)!=2:print>>sys.s
alburthoffman
·
2015-02-26 23:00
大数据
Spark 1.2.1 发布,开源集群计算系统
Spark1.2.1发布,此版本是个维护版本,包括69位贡献者,修复了一些Spark的bug,包括核心API,Streaming,
PySpark
,SQL,GraphX和MLlib方面的。
黑肚皮的窝
·
2015-02-25 10:06
spark
Spark 单机 Demo.
Spark根目录/examples/src/main/python/里面有些例子,例如统计字数的wordcount.pyimport sys from operator import add from
pyspark
BryanYang
·
2015-01-29 16:00
mapreduce
spark
pyspark
http://spark.apache.org/docs/0.9.0/python-programming-guide.html
wuxiaobingandbob
·
2014-12-17 16:00
Spark 学习笔记
代码如下:from
pyspark
importSparkContextlogFile="20141010.log"s
武斌_小米
·
2014-10-15 00:00
nginx
spark
pyspark
原理简介
概述这是前段时间在看spark的python支持的时候,简单过了一下
pyspark
里的python代码,整理了一个大致流程。
zbf8441372
·
2014-07-30 22:00
虚拟机
socket
spark
py4j
Spark 学习(二)
继续学习spark 认真查看了一下${SPARK_HOME}/bin/
pyspark
的脚本,原来开启spark 的python 交互挺简单的。
·
2014-07-22 14:00
spark
PySpark
内部实现
PySpark
实现了Spark对于Python的API,通过它,用户可以编写运行在Spark之上的Python程序,从而利用到Spark分布式计算的特点。
lantian0802
·
2014-07-02 09:00
spark
Spark1.0.0 多语言编程之python实现
Spark公开了pyhton的编程模型-
PySpark
,开发者通过
PySpark
可以很容易开发Sparkapplication。
book_mmicky
·
2014-05-13 15:00
编程
spark
python
自定义ComboBox 皮肤
还好flex4当中自定义皮肤非常方便,你只要co
pyspark
.skins.spark.ComboBoxSkin中的内容,稍作修改即可。
luhantu
·
2013-05-29 13:00
customize
comboBox
skin
上一页
42
43
44
45
46
47
48
49
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他