E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark(scala)
【大数据】Docker部署HMS(Hive Metastore Service)并使用Trino访问Minio
HiveStandaloneMetastore管理MinIO(S3)_hiveminio_BigDataToAI的博客-CSDN博客一.背景团队要升级大数据架构,需要摒弃hadoop,底层使用Minio做存储,应用层用trino火
spark
秦拿希
·
2023-11-24 11:35
docker
容器
hive
trino
minio
spark
中write算子和format算子详解
在
spark
中,想要往数据库或者某sink路径里面写数据,存到外部存储系统,如文件系统、数据库或数据仓库,经常会用到write算子。
后季暖
·
2023-11-24 11:02
spark
大数据
分布式
spark
写入关系型数据库的duplicateIncs参数使用
在看一段
spark
写数据到关系型数据库代码时,发现一个参数没有见过:df.write.format("org.apache.
spark
.sql.execution.datasources.jdbc2")
后季暖
·
2023-11-24 11:25
spark
数据库
大数据
Scala
正则表达式语法以及应用大全
众所周知,在程序开发中,难免会遇到需要匹配、查找、替换、判断字符串的情况发生,而这些情况有时又比较复杂,如果用纯编码方式解决,往往会浪费程序员的时间及精力。因此,学习及使用正则表达式,便成了解决这一矛盾的主要手段。正则表达式是一种可以用于模式匹配和替换的规范,一个正则表达式就是由普通的字符(例如字符a到z)以及特殊字符(元字符)组成的文字模式,它用以描述在查找文字主体时待匹配的一个或多个字符串。正
天ヾ道℡酬勤
·
2023-11-24 11:53
scala
思考: 为什么 Flink 要弃用
Scala
API呢?
1.问题描述最近在学习FlinkAPI的时候,发现官网声明要废弃
Scala
API,但是为什么呢?
广阔天地大有可为
·
2023-11-24 11:22
#
Flink
API
使用技巧
scala
flink
spark
spark
sql本地测试Demo
spark
本地测试Demoimportorg.apache.
spark
.sql.
Spark
Sessionimportorg.apache.
spark
.sql.functions.
jiayeliDoCn
·
2023-11-24 11:52
bigData
spark
spark
sql
ajax
scala
IO流和正则表达式练习
练习需求:现有如下日志信息,请使用
Scala
正则表达式解析如下信息-日志级别-日期-请求URI分析需求:1、需要将文件中的日志信息使用
scala
I/O流导入2、使用正则表达式进行解析,然后输出成三个部分代码实现
白修修
·
2023-11-24 11:51
Scala
正则表达式
scala
scala
正则表达式获取匹配到的字符串
正则表达式获取匹配到的字符串//需要匹配出来的地方用括号括起来valpattern="""(.*)\[(.*)\]""".r//新建一个正则表达式valpattern(ele,str)="fff[ascdrewr]"println(s"$ele,$str")这样有个问题,当匹配不到会抛异常image.png使用模式匹配valpattern="""(.*)\[(.*)\]""".r"fff"matc
weixin_33897722
·
2023-11-24 11:50
scala
大数据之使用Flink消费Kafka中topic为ods_mall_data的数据,根据数据中不同的表将数据分别分发至kafka的DWD层
重难点分析总结前言本题来源于全国职业技能大赛之大数据技术赛项赛题-电商数据处理-实时数据处理注:由于设备问题,代码执行结果以及数据的展示无法给出,可参照我以往的博客其中有相同数据源展示题目:提示:以下是本篇文章正文内容,下面案例可供参考(使用
Scala
约定Da于配置
·
2023-11-24 11:49
大数据技术
kafka
大数据
flink
scala
spark
Day77_Flink(三)Flink时间语义和水印
课程大纲课程内容学习效果掌握目标时间语义EventTime掌握IngestionTime掌握ProcessingTime掌握水印水印掌握一、时间语义
scala
的集合分为了两类,一类是可变的集合(集合可以执行增删改查操作
dogedong
·
2023-11-24 11:49
#
flink
scala
大数据
Flink部署安装及其WorldCount执行
Flink是一个针对流数据和批数据的分布式处理引擎,代码主要是由Java实现,部分代码是
Scala
。它可以处理有界的批量数据集、也可以处理无界的实时数据集。对Flink而言,其所要处理的主要场景就是流
IT瓜哥-杨得朝
·
2023-11-24 11:18
大数据
flink
scala
大数据
Flink State and Checkpoint、
Scala
中获取类对象、通过checkpoint来恢复之前的状态、process...
目录FlinkStateandCheckpointStateValueStateCheckpoint通过checkpoint来恢复之前的状态1、从Flinkweb页面2、通过flink命令StateListStateReducingStateFlinkStateandCheckpointFlink通过State和Checkpoint来实现容错和数据处理的唯一一次State丰富的StateAPI。V
赤兔胭脂小吕布
·
2023-11-24 11:18
scala
flink
spark
java
大数据
Scala
——正则表达式
1.当字符串中有特殊符号时方法一、通过转义符\转义valstr="{\“id”:\“12”,\“friends\”:{\“name\”:\“zs\”,\“age\”:\“40\”}}"println(str)//{“id”:“12”,“friends”:{“name”:“zs”,“age”:“40”}}方法二、"""…“”“来转义字符串valstr2=”""{“id”:“12”,“friends”
数据孤岛
·
2023-11-24 11:17
Scala
正则表达式
scala
scala
正则表达式
一、
scala
支持多种正则表达式解析方式String.matches()方法正则表达式模式匹配
scala
.util.matching.RegexAPIString.matches()方法案例演示:println
Smile to everyday
·
2023-11-24 11:17
scala
scala
正则表达式
scala
正则表达式匹配_
Scala
教程–正则表达式,匹配
scala
正则表达式匹配前言这是面向初学者的
Scala
教程的第5部分。该博客上还有其他文章,您可以在我正在为其创建的计算语言学课程的链接页面上找到这些链接和其他资源。
danpie3295
·
2023-11-24 11:16
字符串
python
java
大数据
编程语言
Scala
教程–正则表达式,匹配
前言这是面向初学者的
Scala
教程的第5部分。该博客上还有其他文章,您可以在我正在为其创建的计算语言学课程的链接页面上找到这些链接和其他资源。
danpie3295
·
2023-11-24 11:15
字符串
python
java
编程语言
大数据
scala
正则表达式_
Scala
正则表达式示例
scala
正则表达式Regularexpressionsarepatternmatchingutilitiesfoundinmostoftheprogramminglanguages.Theydefineagenericpatterntomatchasequenceofinputcharacters.Regexarewidelyusedintextparsingandsearch
cunchi4221
·
2023-11-24 11:45
字符串
正则表达式
java
python
regex
Scala
学习笔记(四) ——模式匹配、偏函数、运算符、异常、隐式类、
scala
高级类型、
scala
正则表达式
Scala
拓展
Scala
拓展一、
Scala
模式匹配1、match表达式2、样例类的模式匹配3、非样例类的模式匹配4、偏函数5、
scala
注解方法6、运算符二、
scala
正则表达式1、matches方法2
throws-Exception
·
2023-11-24 11:14
Scala
#
Scala学习
scala
正则表达式
大数据
scala
IO 正则 日志解析
日志INFO2016-07-25requestURI:/c?app=0&p=1&did=18005472&industry=469&adid=31INFO2016-07-25requestURI:/c?app=0&p=2&did=18005472&industry=469&adid=31INFO2016-07-25requestURI:/c?app=0&p=1&did=18005472&indus
KingWeiGG
·
2023-11-24 11:43
scala
正则表达式
scala
使用Gson解析数组
完整代码在最后哦,可以通过目录跳转文章目录一、背景二、解决方案1.高版本的解法(2.8.7)2.低版本的解法(2.8.2)3.直接解析为实体类三、总结1.在
scala
中获取类类型2.解决json字段名和实体类字段名不匹配的问题四
zhangbaqing
·
2023-11-24 11:12
spark
Java
gson
scala
Scala
语言基础
1.
Scala
基础知识1.1基本数据类型和变量 基本数据类型包括Byte、Short、Int、Long、Char、Float、Double、String、Boolean。
黄连福
·
2023-11-24 10:42
Flink
#
Flink学习笔记
scala
开发语言
后端
scala
正则表达式使用
正则表达式是一种针对于字符串的操作,主要功能有匹配、切割、替换和获取的作用,在
Scala
中正则也是被频繁使用的方法(regex.r表示为正则表达式)1、匹配
Scala
支持多种正则表达式解析,主要包括下面三种
Code_LT
·
2023-11-24 10:42
Scala
scala
正则表达式
开发语言
scala
实现表达式解析
表达式解析importorg.junit.Testimport
scala
.collection.mutableclassExprTestCase{privatevalorderSource="source
jiayeliDoCn
·
2023-11-24 10:11
spark
web
bigData
scala
java
算法
为什么 Flink 抛弃了
Scala
曾经红遍一时的
Scala
想当初
Spark
横空出世之后,
Scala
简直就是语言界的一颗璀璨新星,惹得大家纷纷侧目,连Kafka这类技术框架也选择用
Scala
语言进行开发重构。
shengjk1
·
2023-11-24 10:40
Apache
Flink
flink
scala
大数据
【大数据实训】基于赶集网租房信息的数据分析与可视化(七)
CSDN平台官方提供的博主的联系方式,有偿帮忙部署基于赶集网租房信息的数据分析与可视化一、实验环境(1)Linux:Ubuntu16.04(2)Python:3.6(3)Hadoop:3.1.3(4)
Spark
AI_Maynor
·
2023-11-24 10:54
#
课设&毕设
大数据
数据分析
数据挖掘
Spark
数据倾斜解决方案
数据倾斜的解决,跟之前讲解的性能调优,有一点异曲同工之妙。性能调优,跟大家讲过一个道理,“重剑无锋”。性能调优,调了半天,最有效,最直接,最简单的方式,就是加资源,加并行度,注意RDD架构(复用同一个RDD,加上cache缓存);shuffle、jvm等,都是次要的。数据倾斜的解决方案,第一个方案和第二个方案,是最朴素、最简谱、最直接、最有效、最简单的,解决数据倾斜问题的方案。重剑无锋。后面的五个
000X000
·
2023-11-24 09:52
数据分析
HIVE
Spark
spark
big
data
hive
Spark
数据倾斜解决办法
Spark
数据倾斜解决办法一个
Spark
程序会根据其内部的Action操作划分成多个job,每个作业内部又会根据shuffle操作划分成多个Stage,每个Stage由多个Task任务并行进行计算,每个
不会打球的摄影师不是好程序员
·
2023-11-24 09:50
Spark
spark
Spark
优化——数据倾斜解决方案
目录一、什么是数据倾斜数据倾斜的表现:定位数据倾斜问题:二、解决方案解决方案一:聚合原数据1)避免shuffle过程2)缩小key粒度(增大数据倾斜可能性,降低每个task的数据量)3)增大key粒度(减小数据倾斜可能性,增大每个task的数据量)解决方案二:过滤导致倾斜的key解决方案三:提高shuffle操作中的reduce并行度reduce端并行度的设置reduce端并行度设置存在的缺陷解决
TRX1024
·
2023-11-24 09:49
Spark
spark
big
data
Spark
数据倾斜及其解决方案
一、什么是数据倾斜对
Spark
/Hadoop这样的分布式大数据系统来讲,数据量大并不可怕,可怕的是数据倾斜。对于分布式系统而言,理想情况下,随着系统规模(节点数量)的增加,应用整体耗时线性下降。
沐白的微笑
·
2023-11-24 09:17
spark
spark
数据倾斜
Spark
数据倾斜解决方案
文章目录
Spark
数据倾斜解决方案1聚合原数据1.1避免shuffle过程1.2缩小key粒度(增大数据倾斜可能性,降低每个task的数据量)1.3增大key粒度(减小数据倾斜可能性,增大每个task的数据量
陈舟的舟
·
2023-11-24 09:46
#
Spark
spark
大数据
spark
数据倾斜 解决思路
比如,总共有1000个task,997个task都在1分钟之内执行完了,但是剩余两三个task却要一两个小时,这种情况很常见-原本能够正常执行的
Spark
作业,某天突然报出OOM(内存溢出)异常,观察异常栈
maketubu7
·
2023-11-24 09:44
spark
Spark
数据倾斜解决思路
1.优化数据结构2.修改并行度1.改变并行度可以改善数据倾斜的原因是因为如果某个task有100个key并且数据巨大,那么有可能导致OOM或者任务运行缓慢;2.此时如果把并行度变大,那么可以分解每个task的数据量,比如把该task分解给10个task,那么每个task的数据量将变小,从而可以解决OOM或者任务执行慢.对应reduceByKey而言可以传入并行度参数也可以自定义partition.
仰望星空的我
·
2023-11-24 09:44
大数据数据倾斜
34-
spark
数据倾斜解决
1.聚合源数据(1)避免shuffle过程绝大多数情况下,
spark
作业的数据来源都是Hive表,这些Hive表基本都是经过ETL之后的昨天的数据。
大数据捌圆
·
2023-11-24 09:13
spark面经复习
spark
big
data
hive
【云计算大数据】
Spark
数据倾斜解决方案,java程序设计简明教程答案
spark
代码,是怎么划分成一个一个的stage的。哪一个stage生成的task特别慢,就能够自己用肉眼去对你的
spark
《一线大厂Java面试
m0_64867435
·
2023-11-24 09:13
程序员
面试
java
后端
spark
数据倾斜的解决思路
数据倾斜是:多个分区中,某个分区的数据比其他分区的数据多的多数据倾斜导致的问题:导致某个
spark
任务耗时较长,导致整个任务耗时增加,甚至出现OOM运行速度慢:主要发生在shuffle阶段,同样的key
阿君聊风控
·
2023-11-24 09:09
hive/sparksql
spark
大数据
分布式
jdk11新特性,是否有必要从JDK8切换到JDK11
1.完全支持Linux容器(包括docker)许多运行在Java虚拟机中的应用程序(包括Apache
Spark
和Kafk
程小明的coding
·
2023-11-24 09:30
docker
java
容器
的导入 & SVG
Script标签的导入(1)直接通过互联网链接,使用外部链接:(2)通过本地服务器链接(推荐),即本地引入://src属性里写d3.js本地路径2.SVG的简介:(1)概念:SVG,即可缩放矢量图形(
Scala
bleVectorGraphics
S_h_a_
·
2023-11-24 09:14
数据可视化编程
javascript
前端
开发语言
MacOS开发 简单的应用更新升级
的更新升级要怎么做,网上查了一下基本没有什么文章可以参考,仅有的思路是这篇文章https://blog.csdn.net/lovechris00/article/details/80247987使用的是三方
spark
le
包砸豆沙馅
·
2023-11-24 07:13
Spark
算子
目录什么是算子1.Transformation转换算子1.1转换算子1.2转换算子是干什么的1.3转换算子分类1.4转换算子详解1.4.1map1.4.2flatMap1.4.3distinct1.4.5glom1.4.6union1.4.7cartesian1.4.8groupBy1.4.9subtract1.4.10sample1.4.11mapValues1.4.12reduceByKey1
光数葱丁
·
2023-11-24 07:28
spark
spark
scala
大数据
spark
算子总结
spark
算子总结RDD介绍rdd是(resilientdistributedataset)弹性分布式数据集代表一个不可变,可分区,里面的元素可并行计算的集合对rdd的改动,只能通过转换算子,转换成一个新的形态的
Cciccd
·
2023-11-24 07:28
学习
Java
spark
spark
算子大全glom_
spark
算子总结
本文主要介绍
spark
中常用的算子的作用记忆部分示例总结。
higf12586
·
2023-11-24 07:27
spark算子大全glom
一文学完
Spark
常用算子(
Spark
算子大全)
目录前言转换算子一、Value类型1.map2.mapPartitions3.mapPartitionsWithIndex4.flatMap5.glom6.groupBy7.filter8.sample9.distinct10.coalesce11.sortBy二、双Value类型1.intersection2.union3.subtract4.zip三、K-V类型1.partitionBy2.r
笑看风云路
·
2023-11-24 07:56
Spark
spark
大数据
Java版本的一些常见
Spark
算子
这里我列举了几个常见的Java类型的
spark
算子,主要包括Join、GroupByKey、mapPartition、mapPartitionWithIndex、sortBy算子Join案例:packagecom.liuze
liuSir的一亩三分地
·
2023-11-24 07:55
java大数据
spark
算子
什么是
spark
算子?可以理解成
spark
RDD的方法,这些方法作用于RDD的每一个partition。
正经黑天鹅
·
2023-11-24 07:54
spark
spark
Spark
算子综合应用案例
一.WordCount数据hadoopmapreduceyarnhdfshadoopmapreducemapreduceyarnlagoulagoulagou案例:
Scala
版defmain(args:
谷应泰
·
2023-11-24 07:24
大数据
spark
Spark
算子--
Scala
版本(头歌)
第1关转换算子之map和distinct算子代码如下:importorg.apache.
spark
.rdd.RDDimportorg.apache.
spark
.
小kamil
·
2023-11-24 07:24
scala
spark
大数据
spark
算子java实例
在我看来,
Spark
编程中的action算子的作用就像一个触发器,用来触发之前的transformation算子。
Ebaugh
·
2023-11-24 07:50
spark
算子
java
spark
Java操作MongoDB报错 java.lang.IllegalStateException: state should be: open
问题描述我在使用
Spark
整合MongoDB,涉及到了MongoDBColletion中的文档删除与新建(也就是更新文档)时,出现了报错java.lang.IllegalStateException:stateshouldbe
书香恋仁心
·
2023-11-24 07:20
问题
spark
mongodb
java
spark
的算子
spark
的算子1.
spark
的单Value算子
Spark
中的单Value算子是指对一个RDD中的每个元素进行操作,并返回一个新的RDD。
地球魔
·
2023-11-24 07:49
spark
数据库
大数据
py
spark
使用hbase详解
py
spark
使用hbase详解一、测试代码:defwrite2hbase():frompy
spark
.sqlimport
Spark
Sessionfrompy
spark
import
Spark
Context
小码良
·
2023-11-24 06:06
python
python
pyspark
hbase
上一页
82
83
84
85
86
87
88
89
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他