E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark(scala)
Flink学习笔记(2)——Flink快速上手
Flink底层是以Java编写的,并为开发人员同时提供了完整的Java和
Scala
API。在本书中,代码示例将全部用Java实现;而在具体项目应用中,可以根据需要选择合适语言的API进行开发
默萧756
·
2023-12-01 17:54
flink
学习
scala
textfilestream_
Spark
从本地文件流式传输到hdfs。textFileStream-问答-阿里云开发者社区-阿里云...
我的
spark
程序将流式传输本地目录内容并将其保存到HDFS。但是,当我开始流式传输时,没有任何事情发生。我检查了日志,但我没有得到提示。让我解释一下这个场景。
十吾十吾
·
2023-12-01 16:20
textfilestream
跟着chatgpt学习|1.
spark
入门
首先先让chatgpt帮我规划学习路径,使用Markdown格式返回,并转成思维导图的形式目录目录1.了解
spark
1.1
Spark
的概念1.2
Spark
的架构1.3
Spark
的基本功能2.
spark
中的数据抽象和操作方式
薇酱
·
2023-12-01 16:19
跟着chatgpt一起学
学习
spark
大数据
chatgpt
Spark
on hdp yarn cluster踩坑记
集群环境ambari:HDP-2.6.5.0
spark
-2.1.0-bin-hadoop2.7踩坑一:NoClassDefFoundError:org/glassfish/jersey/server/spi
spark大数据玩家
·
2023-12-01 16:19
spark
spark
hadoop
跟着chatgpt学习|1.
spark
入门(2)
跟着chatgpt学习|1.
spark
入门-CSDN博客3.
Spark
的执行和数据分区3.1
spark
执行流程1.应用程序启动
Spark
应用程序从驱动器程序开始执行,创建
Spark
Context对象。
薇酱
·
2023-12-01 16:14
跟着chatgpt一起学
学习
ClassNotFoundException: org.apache.hive.
spark
.client.Job
hive使用的是3.13版本,
spark
是3.3.3支持hadoop3.xhive将engine从mr改成
spark
,通过beeline执行insert、delete时一直报错,
spark
Taskrpc
青春不流名
·
2023-12-01 16:43
hadoop
【
Spark
基础】-- 宽窄依赖
在
Spark
中,核心的数据结构是不可变的ÿ
high2011
·
2023-12-01 16:43
Spark
spark
大数据
分布式
最全ChatGPT角色预设词教程,Prompt分享
使用指南1、可直复制使用2、可以前往已经添加好Prompt预设的AI系统测试使用(可自定义添加使用)https://ai.
spark
aigf.com雅思写作考官我希望你假定自己是雅思写作考官,根据雅思评判标准
白云如幻
·
2023-12-01 16:15
ChatGPT
人工智能
教程
chatgpt
prompt
人工智能
最新Midjourney绘画提示词Prompt
最新Midjourney绘画提示词Prompt一、AI绘画工具
Spark
Ai【无需魔法使用】:
Spark
Ai是目前国内一款的ChatGPT对接OpenAI软件系统。
白云如幻
·
2023-12-01 16:41
人工智能
软件源码
midjourney
prompt
人工智能
跟着chatgpt一起学|1.
spark
入门之MLLib
chatgpt在这一章表现的不好,所以我主要用它来帮我翻译文章+提炼信息1.前言首先找到
spark
官网里关于MLLib的链接
spark
内一共有2种支持机器学习的包,一种是
spark
.ml,基于DataFrame
薇酱
·
2023-12-01 15:30
跟着chatgpt一起学
spark
spark
mllib
大数据
chatgpt
高效率:使用DBeaver连接
spark
-sql
提高运行效率一般采取底层使用
spark
引擎替换成hive引擎的方式提高效率,但替换引擎配置较为复杂考虑到兼容版本且容易出错,所以本篇将介绍使用DBeaver直接连接
spark
-sql快速操作hive数据库
open_test01
·
2023-12-01 14:48
SparkSQL-巩固篇
spark
sql
大数据
IntelliJ IDEA安装使用教程
它是一款全功能的IDE,支持多种编程语言,如Java、Kotlin、Groovy、
Scala
、Python、JavaScript、HTML、CSS等等。
小筱在线
·
2023-12-01 14:11
idea
intellij
idea
java
【对象存储OSS的介绍及其多特性的讨论】
3.块存储二、对象存储(ObjectStorage)1.对象2.元数据3.唯一标识符4.扁平命名空间5.数据存储和检索6.适用场景7.RESTfulAPI支持三、对象存储的无限扩展性(Infinite
Scala
bilityofObjectStorage
奥耶可乐冰
·
2023-12-01 13:31
服务器
缓存
服务器
安全
spark
中的foreach算子
RDD的方法称为算子valrdd:RDD[Int]=sc.makeRDD(List(1,2,3,4))//foreach方法rdd.collect().foreach(println)println("====================")//foreach算子rdd.foreach(println)sc.stop()结果1234====================3412同样使用for
haiya2001
·
2023-12-01 12:29
大数据
spark
scala
系列之 17
scala
隐式转换
21隐式转换作用:能够丰富现有类库的功能,对类的方法进行增强,常用作类型转换也就是把一个类型转赋予另一个类的功能;隐式转换应用场景隐式转换函数、隐式值、隐式参数、隐式对象(只能在静态对象中使用);21.1隐式转换函数隐式转换函数是指以implicit关键字声明并带有单个参数的函数,这样的函数被自动应用。//声明隐式函数,用于将int类型转成String类型implicitvalint2String
海牛大数据_青牛老师
·
2023-12-01 12:44
数据库时间类型之间的转换魔法
我们将探讨在数据库中时间戳(timestamp)、日期(date)、日期时间(datetime)和字符串之间的转换技巧,覆盖主流数据库如MySQL、Oracle、SQLServer、PostgreSQL以及
Spark
SQL
theskylife
·
2023-12-01 11:49
数据分析
数据库
sql
mysql
后端
数据库
spark
Spark
写入es:EsHadoopRemoteException: version_conflict_engine_exception
背景介绍业务场景:
spark
批量写入es,基于es-hadoop组件实现批处理任务定时调度cdh5.5.3集群,
spark
2.3,elasticsearch6.4.3es中对应索引的_id由程序控制,保证全局唯一仅测试环境出现
weixin_34117522
·
2023-12-01 09:59
大数据
java
scala
Scala
安装与运行
安装
Scala
Download
Scala
(http://www.
scala
-lang.org/download/)JavaRuntime(1.6orAbove)设置好
SCALA
_HOME和PATHIDE
示说网
·
2023-12-01 08:57
py
spark
案例系列9-好友推荐实战
一.需求今天接单了一个学生的课程左右辅导,辅导内容是通过
Spark
实现好友推荐。文件格式:image.png二.解决方案我之前的博客例子里面有好友推荐相关的帖子2.1代码实现python脚本#!
只是甲
·
2023-12-01 07:36
2019-02-01
大数据技术的产生以及发展谷歌的三篇论文分布式文件系统GFS大数据分布式计算框架mapreduceNoSQL数据库系统BigTable大数据计算离线计算——批处理计算(MapReduce、
Spark
)实时计算
奔跑的风2019
·
2023-12-01 04:34
Spark
- 升级版数据源JDBC2
在
spark
的数据源中,只支持Append,Overwrite,ErrorIfExists,Ignore,这几种模式,但是我们在线上的业务几乎全是需要upsert功能的,就是已存在的数据肯定不能覆盖,在
kikiki2
·
2023-12-01 04:58
Spark
History Server
在运行
Spark
应用程序的时候,Driver会提供一个WebUI用于展现应用程序的运行信息,但是这个服务是伴随
Spark
应用程序的运行周期的,当应用程序运行完成后,将无法查看应用程序的历史记录。
Alex90
·
2023-12-01 03:58
EEE201Digital Integrated Circuits
EEE201DigitalIntegratedCircuitswWeChat:yj4399_SinaVisitorSystem1.1SCMOSDesignRulesThisdocumentdefinestheofficialMOSIS
scala
bleCMOS
lliujiabin001
·
2023-12-01 01:46
安全
STM32 CUBEIDE Outline is disabled due to
scala
bility mode
项目场景:问题描述Outlineisdisableddueto
scala
bilitymode看不到函数解决方案:
xddwg521125
·
2023-12-01 01:29
实验报错
stm32
bug
米哈游大数据云原生实践
以
Spark
为例,在云上运行
Spark
可以充分享有公共云的弹性资源、运维管控和存储服务等,并且业界也涌现了不少
Spark
onKubernetes的优秀实践。
阿里云云栖号
·
2023-12-01 00:13
云栖号技术分享
大数据
云原生
云计算
阿里云
pycharm编辑、运行abaqus python程序详解,kernel问题处理等
这就有点类似在pycharm中使用py
spark
一样。我们知道,集成开发环境(IDE,IntegratedDevelopmentEnvironment)只是一个方便写代码的壳子,其运行核心仍然是该语
weixin_34233421
·
2023-11-30 23:38
开发工具
python
java
flink 解决udf重复调用的问题(亲测有效)
更改底层源码大神的博客继续往下看,有测试过程测试UDF1.写两个udfpublicclassUdf1extends
Scala
rFunction{publiclongeval(longordernumber
重生之我在异世界打工
·
2023-11-30 22:04
flink
flink
【早安心语】
【2021-4-6】早安春夏秋冬Everyonehastimeswhentheyfeelthattheyarenotgoodenoughandwhentheyadmirethe
spark
lesofothers
壹典心理咨询
·
2023-11-30 18:01
Rust 数据类型
Rust是静态类型语言,它的数据类型分为两类:标量(
scala
r)类型和复合(compound)类型。标量类型标量(
scala
r)类型代表一个单独的值。
花落花开99
·
2023-11-30 15:43
Rust
rust
Spark
SQL多次检索大表
业务需要检索一个大表的几个字段。方法一:一次性检索出需要的字段,然后cache。方法二:多次检索,每次只检索一个字段。(推荐)先过滤再计算并且在处理中,应该用最小数据量计算,不要携带多余数据。数据处理完再和需要join的表进行join。不要在计算之前就join。join也分为三种方式。详情百度
坐在你的树下
·
2023-11-30 14:41
spark
sql udf ,计算数学表式
前几天有个
spark
任务特别的慢,原因是我写了一个udf,把一个对象作为构造函数的对象穿进去了这个udf的功能是为了实现,把传入的数学表达式(如:20*x/(20-x)),和传入的列的值做计算,把传入的列的值替换成
南修子
·
2023-11-30 14:29
Spark
---
Spark
Core(五)
五、
Spark
Shuffle文件寻址1、Shuffle文件寻址1)、MapOutputTrackerMapOutputTracker是
Spark
架构中的一个模块,是一个主从架构。管理磁盘小文件的地址。
30岁老阿姨
·
2023-11-30 13:52
Spark
spark
大数据
分布式
Spark
---
Spark
SQL介绍
一、
Spark
SQL介绍1、SharkShark是基于
Spark
计算框架之上且兼容Hive语法的SQL执行引擎,由于底层的计算采用了
Spark
,性能比MapReduce的Hive普遍快2倍以上,当数据全部
30岁老阿姨
·
2023-11-30 13:52
Spark
spark
大数据
分布式
Spark
---创建DataFrame的方式
1、读取json格式的文件创建DataFrame注意:1、可以两种方式读取json格式的文件。2、df.show()默认显示前20行数据。3、DataFrame原生API可以操作DataFrame。4、注册成临时表时,表中的列默认按ascii顺序显示列。df.createTempView("mytable")df.createOrReplaceTempView("mytable")df.creat
30岁老阿姨
·
2023-11-30 13:22
Spark
spark
大数据
分布式
智能AI问答系统ChatGPT网站系统源码+Midjourney绘画+支持GPT-4-Turbo模型+支持GPT-4图片理解能力
一、AI创作系统
Spark
Ai创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI全模型。
白云如幻
·
2023-11-30 13:49
人工智能
AIGC
ChatGPT
chatgpt
人工智能
midjourney
Spark
_
spark
hints 详细介绍
spark
中hints的优先级高于,代码中的config,高于
spark
_submit中的commitHints-
Spark
3.5.0Documentation
高达一号
·
2023-11-30 12:45
Spark
spark
大数据
分布式
Spark
---
Spark
Core(四)
三、
Spark
MasterHA1、Master的高可用原理Standalone集群只有一个Master,如果Master挂了就无法提交应用程序,需要给Master进行高可用配置,Master的高可用可以使用
30岁老阿姨
·
2023-11-30 12:32
Spark
spark
大数据
分布式
Flink - CEP监控下单付款超时通知
执行流程Flink-CEP监控Usage导入依赖compilegroup:'org.apache.flink',name:'flink-streaming-
scala
_2.11',version:"1.6.2
kikiki4
·
2023-11-30 12:43
[PyTorch][chapter 2][李宏毅深度学习-Regression]
前言:Regression模型主要用于股票预测,自动驾驶,推荐系统等领域.这个模型的输出是一个
scala
r。
明朝百晓生
·
2023-11-30 11:32
深度学习
人工智能
pytorch
面试篇Flink
相比较
spark
,flink对于实时这块,使用过流的方式进行实现。
spark
是通过批流的方式实现,通过减少批的时间间隔来实现流的功能。二:什么是flink?flink是一个针对于实时进行处理的框架。
宇智波云
·
2023-11-30 11:10
flink
flink
大数据
SeaTunnel下载安装与使用
安装与使用2.1SeaTunnel安装2.2SeaTunnel使用1SeaTunnel简介1.1SeaTunnel概述SeaTunnel是一个简单易用的数据集成框架,可运行于自身引擎或架构于Apache
Spark
你是光芒丶
·
2023-11-30 09:42
学习
spark
大数据
【
Scala
】-
Scala
可变参数用法用法 ❤️❤️
用法类似于Java中的可变参数deftoDF(colNames:String*):DataFrame={用的时候直接在类型后面加*即可注意如果要讲数组作为参数直接传入toDF中是无法直接传入的,需要使用下面这种方式vargradesCols=Array("id","name","sex","birthday","className","phone","address")valds_t1=t1.to
兀坐晴窗独饮茶
·
2023-11-30 09:10
scala
可变参数
_的用法
Scala
可变参数列表
2019独角兽企业重金招聘Python工程师标准>>>
Scala
可变参数列表
Scala
函数支持的可变参数列表,命名参数和参数缺省值定义。
weixin_33697898
·
2023-11-30 09:09
scala
python
scala
定义可变函数参数
scala
可变参数,类似于java中的可变参数,即参数数量不固定。
民工七号
·
2023-11-30 09:09
java 可变长度参数列表,
Scala
:将元组列表展开为元组的可变长度参数列表
我很困惑如何将List/Seq/Array扩展为可变长度参数列表.鉴于我有test_func函数接受元组:
scala
>deftest_func(t:Tuple2[String,String]*)=println
滴水吞舟
·
2023-11-30 09:39
java
可变长度参数列表
Scala
可变参数方法或者函数传参问题
scala
中可变参数传入数组需要在数组后面追加:_*,否则
scala
会将在数组整体视为一个参数。
weixin_30877493
·
2023-11-30 09:39
scala
scala
的可变列表
要使用可变列表,先要导入import
scala
.collection.mutable.ListBuffer可变集合都在mutable包中不可变集合都在immutable包中(默认导入)定义使用ListBuffer
a大数据yyds
·
2023-11-30 09:06
scala
scala
scala
可变参数
代码:objectmanyParam{defsum(ints:Int*):Int={varsum=0for(v<-ints){sum+=v}sum}/***不仅是可变参*而且参数的类型不一致*@paramparams*@return*/defsetName(params:Any*):Any={returnparams}defmain(args:Array[String]):Unit={printl
⑨笙清栀
·
2023-11-30 09:03
scala
scala
Scala
函数 - 可变参数的函数
Scala
允许指定函数的最后一个参数可重复。这允许客户端将可变长度参数列表传递给函数。这里,打印字符串函数里面的args类型,被声明为类型String*,实际上是Array[String]。
Simple_Zz
·
2023-11-30 09:02
Scala
Scala
入门
Scala
Scala
可变长度参数和:_*使用
scala
>defecho(args:String*)=for(argecho()
scala
>echo("one")one
scala
>echo("hello","world!")helloworld!
L.ZZ
·
2023-11-30 09:01
Scala
scala
开发语言
后端
上一页
75
76
77
78
79
80
81
82
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他