E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark(scala)
【数据开发】py
spark
入门与RDD编程
【数据开发】py
spark
入门与RDD编程文章目录1、py
spark
介绍2、RDD与基础概念3、RDD编程3.1Transformation/Action3.2数据开发流程与环节1、py
spark
介绍py
spark
小哈里
·
2024-02-03 08:58
#
后端开发
python
spark
pyspark
后端
大数据
Spark
如何用repartition来提升执行效率
Spark
如何用repartition来提升执行效率repartition是
Spark
中的一个转换操作,它可以用来增加或减少分区的数量。
HanhahnaH
·
2024-02-03 08:28
Spark
spark
ajax
大数据
scala
Business Insider日读新闻随记81
2019年5月29日HuaweiupsitslegalbattleagainsttheUSoverfederalbanHuaweie
scala
teditslegalbattleagainsttheUSonWednesday
江暮白
·
2024-02-03 07:07
flink sql 部署_Flink SQL Client + Mysql CDC 部署实践
简单的读取mysqlbinlog增量同步数据到kafkatopic中的Flink任务应用准备清单DockerDesktopwindows桌面版/DockerFlinkdocker镜像(Flink1.11.2
scala
2.12
weixin_39934257
·
2024-02-03 06:33
flink
sql
部署
2019-03-16
Spark
基本架构及运行原理
Spark
Core:包含
Spark
的基本功能,包含任务调度,内存管理,容错机制等,内部定义了RDDs(弹性分布式数据集),提供了很多APIs来创建和操作这些RDDs。为其他组件提供底层的服务。
做一只乐观的小猴子
·
2024-02-03 02:04
flinkjar开发 自定义函数
编写自定义加密函数,继承
Scala
rFunction类,实现eval方法,参数个数类型和返回值根据业务来自定义。
今朝花落悲颜色
·
2024-02-02 22:22
python
开发语言
TryHackMe-Valley
靶场介绍Boottheboxandfindawayintoe
scala
teallthewaytoroot!启动盒子,找到一种方法,一路升级到root!
0415i
·
2024-02-02 21:36
TryHackMe靶场合集
tryhackme
ssh
wireshark
linux
web
ftp
基于
scala
使用flink将kafka数据写入mysql示例
使用Flink消费Kafka中ChangeRecord主题的数据,统计每三分钟各设备状态为“预警”且未处理的数据总数。将结果存入MySQL的shtd_industry.threemin_warning_state_agg表(追加写入),表结构如下,同时备份到Hbase一份,表结构同MySQL表的。请在将任务启动命令截图,启动且数据进入后按照设备id倒序排序查询threemin_warning_st
内向仓鼠
·
2024-02-02 21:10
scala
flink
kafka
Scala
-类、对象、继承、特质
1、类1、类的定义和访问限制符/***类的定义,变量声明与访问限制*在
Scala
中,类并不用声明为public。*
Scala
源文件中可以包含多个类,所有这些类都具有公有可见性。
__元昊__
·
2024-02-02 19:38
深度学习的开源分布式框架Deeplearning4j
该框架基本上是由Hadoop和
Spark
集成的分布式深度学习库组成的。在Hadoop和
Spark
的帮助下,我们可以轻松地分发模型和大数据集,并运行
weixin_43106248
·
2024-02-02 19:13
深度学习
Hadoop
深度学习开源分布式框架
deeplearning4j
golang实现简单的流式处理
实现一个最简单的类似
spark
的流式处理流程包含map和filter数据typeStreamstruct{data[]int}map函数func(sStream)Map(ffunc(int)int)Stream
nil_ddea
·
2024-02-02 18:24
CJFS: Concurrent Journaling for Better
Scala
bility——论文泛读
FAST2023Paper分布式元数据论文汇总问题和挑战重量级的EXT4可扩展性较差,由于日志存在两个限制:日志提交是一个严格的串行活动;日志提交使用原始页缓存条目,而不是其副本,随后任何对正在进行的页缓存条目的访问都将被阻塞。现有方法局限性ScaleFS[15]为每个CPU内核[6,8]分配一个正在运行的事务,其中每个内核都分配了单独的文件系统分区。Son等人[44]对日志事务采用了无锁数据结构
妙BOOK言
·
2024-02-02 18:57
论文阅读
论文阅读
文件系统
flink-cdc 使用
接上一篇文章用上cdc基于flink-
scala
1.14当前cdc最新版本2.2.1com.ververicaflink-connector-mysql-cdc2.2.1看官方文档是和flink13.5
csncn21
·
2024-02-02 17:46
flink
flink
scala
史上最全的
spark
面试题
1.
spark
中的RDD是什么,有哪些特性?
@毛毛
·
2024-02-02 13:12
面试题
spark
livy使用样例_livy提交
spark
应用
spark
-submit的使用shell时时灵活性较低,livy作为
spark
提交的一种工具,是使用接口或者java客户端的方式提交,可以集成到web应用中1.客户端提交的方式核心代码LivyClientclient
阿里聚安全
·
2024-02-02 13:11
livy使用样例
Py
Spark
(一)
Spark
原理介绍、Py
Spark
初体验及原理
Spark
简介Apache
Spark
是用于大规模数据(large-
scala
data)处理的统一(unified)分析引擎,其特点就是对任意类型的数据进行自定义计算。
独憩
·
2024-02-02 13:11
PySpark
python
分布式
大数据
spark
生产环境_
Spark
找出两DataFrame之间的差集(技巧)
在生产作业中,经常在工作流中遇到前后两DataFrame的数据缺失,比如df1为410条,下一个节点的df2就变成409条了,用眼睛看很费劲,因此不得不做一个差集。代码:/假设df1和df2是你的两个DataFramevaldf1=xxxvaldf2=ccc//使用except操作找出df1中存在但df2中不存在的数据valonlyInDf1=df1.except(df2)//使用except操作
Matrix70
·
2024-02-02 13:10
轨迹大数据智能处理
Spark开发_工作
spark
大数据
分布式
轨迹平滑算法_参考资料
python或者
scala
都行【自动驾驶】运动规划丨轨迹规划丨基于改进Dijkstra算法的轨迹平滑方法-知乎【自动驾驶】运动规划丨轨迹规划丨贝塞尔Bezier曲线-知乎使用贝塞尔曲线完成轨迹平滑预测-
Matrix70
·
2024-02-02 13:10
轨迹大数据智能处理
数据分析
spark
大数据
浅谈
Spark
Livy
Spark
Livy什么是LivyLivy的特点Livy的运作流程阐述Livy的安装、启动、访问Livy的使用1.什么是Livylivy是cloudera开发的通过REST来连接、管理
spark
的解决方案
浅汐yt
·
2024-02-02 13:40
spark
大数据
spark
大数据
【
Spark
实践6】特征转换FeatureTransformers实践
Scala
版--补充算子
本节介绍了用于处理特征的算法,大致可以分为以下几组:提取(Extraction):从“原始”数据中提取特征。转换(Transformation):缩放、转换或修改特征。选择(Selection):从更大的特征集中选择一个子集。局部敏感哈希(LocalitySensitiveHashing,LSH):这类算法结合了特征转换的方面与其他算法。FeatureTransformersIndexToStri
周润发的弟弟
·
2024-02-02 13:39
Spark机器学习
spark
scala
大数据
spark
相关面试题总结
1.
spark
中的RDD是什么,有哪些特性?
专注于大数据技术栈
·
2024-02-02 13:39
spark
[
Scala
学习笔记]
Spark
开发小笔记
Spark
开发小笔记:从0开始的
Spark
建图生活持续更新中……0.开发平台Zeppelin支持多种语言,默认是
scala
(背后是
spark
shell),
Spark
SQL,Markdown和Shell。
Rinnki
·
2024-02-02 13:39
Scala笔记
学习笔记
Scala
Spark
图
Scala
与
spark
7.23
例如:@transientval
spark
Context:
Spark
Context,
Scala
多行字符串之stripMargin方法https://www.jianshu.com/
qq_34872215
·
2024-02-02 13:09
spark
生产环境踩坑系列::Hive on
Spark
的connection timeout 问题
起因7/16凌晨,钉钉突然收到了一条告警,一个公司所有业务部门的组织架构表的ETL过程中,数据推送到DIM层的过程中出现异常,导致任务失败。因为这个数据会影响到第二天所有大数据组对外的应用服务中组织架构基础数据,当然,我们的Pla-nB也不是吃素的,一旦出现错误,后面的权限管理模块与网关会自动配合切换前一天的最后一次成功处理到DIM中的组织架构数据,只会影响到在前一天做过组织架构变化的同事在系统上
dclar_
·
2024-02-02 13:08
Spark
Hive
spark
hive
【
Spark
ML实践5】特征转换FeatureTransformers实战
scala
版
本节介绍了用于处理特征的算法,大致可以分为以下几组:提取(Extraction):从“原始”数据中提取特征。转换(Transformation):缩放、转换或修改特征。选择(Selection):从更大的特征集中选择一个子集。局部敏感哈希(LocalitySensitiveHashing,LSH):这类算法结合了特征转换的方面与其他算法。本章节主要讲转换1FeatureTransformersTo
周润发的弟弟
·
2024-02-02 13:08
Spark机器学习
spark-ml
scala
开发语言
spark
livy hue
1.下载livylivy为
Spark
提供了REST接口,有如下特性:*提供交互式shell*批量提交*多用户使用用一个服务(用户模拟)*可以从任何地方使用REST的方式提交*无需对代码进行任何修改wgethttp
bigdataf
·
2024-02-02 13:08
livy-spark
hue
Py
Spark
(二)RDD基础、RDD常见算子
目录RDDRDD五大特性RDD创建RDD算子常见的Transformation算子mapflatMapmapValuesreduceByKeygroupByfilterdistinctunionjoinintersectionglomgroupByKeygroupByKey和reduceByKey的区别?sortBysortByKey常见的action算子countByKeycollectredu
独憩
·
2024-02-02 13:07
PySpark
python
分布式
大数据
spark
【livy】
Spark
Livy深究
什么是livyLivy的特点Livycloudera开发通过REST来连接、管理
spark
的解决方案从任何地方提交job使用交互式的
Scala
、Python语言与远程的
spark
集群进行通信无需更改代码
小赵要加油
·
2024-02-02 13:07
livy
大数据
分布式
Python之Py
Spark
简单应用
文章目录一、介绍1.准备工作2.创建
Spark
Session对象:3.读取数据:4.数据处理与分析:5.停止
Spark
Session:二、示例1.读取解析csv数据2.解析计算序列数据map\flatmap
陈年小趴菜
·
2024-02-02 13:37
python
python
开发语言
大数据
【
Spark
ML实践4】Pipeline实战
scala
版
DataFrame:这个机器学习API使用来自
Spark
SQL的DataFrame作为机器学习数据集,它可以包含多种数据类型。例如,一个DataFrame可以有不同的列存
周润发的弟弟
·
2024-02-02 13:36
Spark机器学习
spark-ml
scala
开发语言
生产环境_
Spark
接收传入的sql并替换sql中的表名与解析_非常NB
背景开发时遇到一个较为复杂的周期需求,为了适配读取各种数据库中的数据并将数据库数据转换为DataFrame并进行后续的开发分析工作,做了如下代码。在爷们开发这段生产中的代码,可适配mysql,hive,hbase,gbase等等等等,基本涉及到数据库的情况基本可以进行。可以说是非常之NB!!!!!了数据流程:由于该代码片段主要关注数据处理流程,而非实际数据内容,,当然,我也不能把特殊数据给大家展示
Matrix70
·
2024-02-02 13:06
Spark开发_工作
轨迹大数据智能处理
spark
sql
ajax
Iceberg从入门到精通系列之二十四:
Spark
Structured Streaming
Iceberg从入门到精通系列之二十四:
Spark
StructuredStreaming一、StreamingReads二、StreamingWrites三、Partitionedtable四、流表的维护
最笨的羊羊
·
2024-02-02 12:52
日常分享专栏
Iceberg
从入门到精通系列之二十四
Spark
Structured
Streaming
Iceberg从入门到精通系列之二十三:
Spark
查询
Iceberg从入门到精通系列之二十三:
Spark
查询一、使用SQL查询二、使用DataFrame进行查询三、Timetravel四.Incrementalread五、检查表六、History七、元数据日志条目八
最笨的羊羊
·
2024-02-02 12:51
日常分享专栏
Iceberg
从入门到精通系列之二十三
Spark查询
Iceberg从入门到精通系列之二十一:
Spark
集成Iceberg
Iceberg从入门到精通系列之二十一:
Spark
集成Iceberg一、在
Spark
3中使用Iceberg二、添加目录三、创建表四、写五、读六、Catalogs七、目录配置八、使用目录九、替换会话目录十
最笨的羊羊
·
2024-02-02 12:20
日常分享专栏
Iceberg
从入门到精通系列之二十一
Spark集成Iceberg
实时数据湖:Flink CDC流式写入Hudi
点击上方蓝色字体,选择“设为星标”回复"面试"获取更多惊喜1.环境准备•Flink1.12.2_2.11•Hudi0.9.0-SNAPSHOT(master分支)•
Spark
2.4.5、Hadoop3.1.3
王知无(import_bigdata)
·
2024-02-02 12:01
spark
hadoop
hive
大数据
mysql
使用 Flink Hudi 构建流式数据湖
通过MR/
Spark
的
浪尖聊大数据-浪尖
·
2024-02-02 12:30
大数据
spark
hadoop
java
数据库
Iceberg从入门到精通系列之二十二:
Spark
DDL
Iceberg从入门到精通系列之二十二:
Spark
DDL一、
Spark
DDL二、
Spark
DDL-创建表三、
Spark
DDL-PARTITIONEDBY四、
Spark
DDL-CREATETABLE...
最笨的羊羊
·
2024-02-02 12:47
日常分享专栏
Iceberg
从入门到精通系列之二十二
Spark
DDL
py
spark
的安装及使用
jdk安装必须要求为jdk1.8版本JDK下载后环境变量配置新增系统变量JAVA_HOMEPath新增测试是否安装成功:javac-version
spark
安装官网下载,遇到加载不了选项框的情况可以尝试用手机打开网址获取下载链接后下载直接解压
a013067506e4
·
2024-02-02 11:56
【IC设计】Windows下基于IDEA的Chisel环境安装教程(图文并茂)
Chisel环境安装教程第一步安装jdk,配置环境变量第二步安装sbt,不用配置环境变量第三步安装idea社区版第四步离线安装
scala
的idea插件第五步配置sbt换源1.切换目录2.创建repositories
农民真快落
·
2024-02-02 10:02
ic设计
ic设计
scala
chisel
一生一芯
risc-v
spark
题06
4
scala
中trait特征和用法?5.redis和memcache的区别?6.列举
Spark
中常见的端口,分别有什么功能?8.
Spark
官网中,你常用哪几个模块?11.yarn的原理?
博弈史密斯
·
2024-02-02 09:59
Flink实现高斯朴素贝叶斯
Flink实现高斯朴素贝叶斯在之前的文章中提到了多项式的朴素贝叶斯,在
spark
的ML里也实现了多项式的朴素贝叶斯和伯努利朴素贝叶斯,在实际情况当中我们处理的变量除了离散型,还有连续型。
k_wzzc
·
2024-02-02 08:49
11.
scala
函数进阶
目录概述函数
scala
函数和方法的区别第一种第二种方法转函数函数柯里化结束概述函数vs方法1.定义方法:def函数:=>2.方法本质上是一个特殊的函数3.函数是一等公民,函数可以当做值来传递,方法的参数
流月up
·
2024-02-02 02:22
scala
scala
函数
方法
柯里化
12.
scala
下划线使用总结
目录概述实践变量初始化导包引入方法转变为函数用户访问Tuple元素简化函数参数传递定义偏函数变长参数结束概述实践变量初始化在
Scala
中,变量在声明时需要显式指定初始值。
流月up
·
2024-02-02 02:22
scala
scala
下划线
使用
总结
Spark
GraphX原理介绍
背景现实应用中,数据内部可能存在较高的关联度,如图模型应用。在对这样的数据进行处理时,并行计算框架就会面临较大的挑战,会引入大量的数据连接(join)和聚合(aggregation)操作,带来大量的计算和数据迁移,严重消耗集群资源,因此对此类算法的优化就显得极为重要。互联网上网页权值计算的PageRank算法是一个典型的图模型问题,它依据网页之间的链接指向关系来判断网页的重要性,指向一个网页的链接
tanglizhe1105
·
2024-02-02 01:38
Spark
spark
GraphX
图计算
Java
Spark
Config
我们可以自己实现一个
Spark
Config默认配置工具以便统一管理packagecom.yzy.
spark
;importorg.apache.
spark
.
Spark
Conf;publicclass
Spark
Config
憨人Zoe
·
2024-02-02 00:43
介绍 Apache
Spark
的基本概念和在大数据分析中的应用
Apache
Spark
是一个开源的大数据处理框架,旨在提供高速、易用和通用的大数据分析平台。它所提供的一系列工具和库可以帮助用户处理大规模数据集,并支持复杂的数据分析任务。
做一个AC梦
·
2024-02-01 21:07
apache
spark
开发语言
程序员/设计师能用上的 75 份速查表
,包括:jQuery、HTML、HTML5、CSS、CSS3、JavaScript、Photoshop、git、Linux、Java、Perl、PHP、Python、Ruby、RubyonRails、
Scala
foveni
·
2024-02-01 20:13
性能超
Spark
100倍,算立方补上邦盛科技实时智能技术体系的关键拼图丨爱分析访谈
随着互联网和物联网的逐渐普及,各行业都开始源源不断产生单源或多源数据,这些高并发的数据具有高度的实时性和明显的时间序列,数据越热的时候处理,获得的业务价值越高。随着数字化转型的深入,企业都在积极建设数据能力,开发数据应用,以实现数据驱动业务。邦盛科技是一家专注于大数据实时智能领域的人工智能厂商,提出“时序中间态”技术体系,针对高并发的热数据可毫秒间完成计算。其核心技术之一是能够实时快速、高并发处理
ifenxi爱分析
·
2024-02-01 20:10
spark
科技
大数据
Spark
基础
Spark
基础几个重要的概念:RDD:是弹性分布式数据集(ResilientDistributedDataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型;DAG:是DirectedAcyclicGraph
cjyang
·
2024-02-01 19:23
【yarn】 kill 一个
spark
任务
要关闭一个正在运行的
Spark
任务,你可以使用以下命令来终止执行:yarnapplication-kill将替换为你要关闭的
Spark
应用程序的ID。
言之。
·
2024-02-01 17:54
spark
大数据
分布式
上一页
37
38
39
40
41
42
43
44
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他