E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
#HDFS
本教程旨在为正在构建,部署和使用CarbonData的最终用户和开发人员提供故障排除。
加载数据时,出现tablestatus.lock问题症状:17/11/1116:48:13ERRORLocalFileLock:main
hdfs
:/localhost:9000/carbon/store
不吃饭的猪
·
2023-11-08 16:20
大数据
rancher或者其他容器平台使用非root用户启动jar
场景:java程序打成镜像,在rancher上运行,默认是root账户,发现
hdfs
或者hive不允许root账户操作;所以打算用费root账户启动jar,使其具有hive和
hdfs
的操作权限。
早退的程序员
·
2023-11-08 13:24
rancher
jar
java
hadoop 安装到配置-2021-11-4
的配置更改主机名配置本地域名解析(host)设置linux防火墙关闭防火墙:防火墙配置文件:配置ssh(免密连接)安装java安装hadoop安装配置文件描述:独立安装hadoop-env.shcore-site.xml
hdfs
-site.xmlmapred-site.xmlyarn-site.xmlarn
JiaJunRun
·
2023-11-08 09:32
工具安装
测试分栏
hadoop
linux
大数据
Spark提交代码到集群中运行
一、将Spark代码提交到集群:1、将setMaster注释:2、注意输入和输出的路径,必须是
HDFS
存在的某个路径3、使用maven将代码打成jar包并上传4、构建提交命令(使用的是cluster):
新手小农
·
2023-11-08 09:23
Spark
spark
大数据
分布式
Kafka(消息队列)--简介
1、kafka:是一个高吞吐的分布式消息系统,与
Hdfs
比较相似,但是与
hdfs
的区别是在于
hdfs
是存储的是历史的、海量的数据,然而kafka存储的是实时的、最新的数据。
新手小农
·
2023-11-08 09:14
Kafka
2.11-1.0.0
kafka
分布式
airflow mysql_Airflow 使用及原理分析
这个平台拥有和Hive、Presto、MySQL、
HDFS
、Postgres等数据源
weixin_39549110
·
2023-11-08 06:40
airflow
mysql
Hadoop中Yarn资源调度器、Yarn工作机制、作业提交全过程、Yarn调度器和调度算法、先进先出调度器(FIFO)、容量调度器(Capacity Scheduler)、公平调度器(Fair Sc
文章目录16.Yarn资源调度器16.1Yarn基础架构16.2Yarn工作机制16.3作业提交全过程16.3.1
HDFS
、YARN、MapReduce三者关系16.3.2作业提交过程值YARN16.3.3
Redamancy_06
·
2023-11-08 05:03
#
Hadoop
hadoop
大数据
分布式
Hadoop不主动退出安全模式
hdfs
dfsadmin-safemodeget查看安全模式的状态
hdfs
dfsadmin-safemodeleave主动关闭安全模式或者
hdfs
fsck/查看损坏的数据块
hdfs
fsck/-delete
南城守护
·
2023-11-07 22:26
hadoop
大数据
分布式
Hadoop从入门到入土(第五天)
cd/opt/module/hadoop文件名>ll>cdetc/hadoop/>复制(fs.defaultFS
hdfs
://hadoop102:8020hadoo
南城守护
·
2023-11-07 22:56
hadoop
hdfs
big
data
云服务器搭建flink集群
2.修改集群配置3.访问WebUI4.提交作业方式5.Yarn部署模式配置5.1会话模式部署(SessionMode)5.2单作业模式(Per-jobMode)5.3应用模式部署(推荐)5.3.1上传
HDFS
几窗花鸢
·
2023-11-07 22:47
大数据应用
hadoop
服务器
flink
大数据
DataX数据同步工具
DataX实现了包括MySQL、Oracle、OceanBase、SqlServer、Postgre、
HDFS
、Hive、ADS、HBase、TableStore(OTS)、MaxCompute(ODPS
躺着听Jay
·
2023-11-07 17:23
大数据
数据仓库
Hadoop知识点全面总结
文章目录什么是HadoopHadoop发行版介绍Hadoop版本演变历史Hadoop3.x的细节优化Hadoop三大核心组件介绍
HDFS
体系结构NameNode介绍总结SecondaryNameNode
小崔的技术博客
·
2023-11-07 08:40
大数据学习
hadoop
大数据
分布式
Haddop,
HDFS
和MapDeduce简单理论
HadoopHadoop1Hadoop2
HDFS
3.MapDeduceHadoop1Hadoop开源的分布式存储+分布式计算平台核心组件:
HDFS
:分布式文件系统,存储海量数据。
杰KaMi
·
2023-11-07 06:25
linux
hadoop
大数据
面试最新整理常问Spark知识点
RDD的五个特性:1.AlistofpartitionsRDD是一个由多个partition(某个节点里的某一片连续的数据)组成的的list;将数据加载为RDD时,一般会遵循数据的本地性(一般一个
hdfs
000X000
·
2023-11-07 05:13
Spark
Spark知识点
面试
Spark Streaming知识点总结
而结果也能保存在很多地方,如
HDFS
,数
「miraitowa」
·
2023-11-07 05:41
Spark
大数据
spark
Spark基础知识点
分布式文件系统(HadoopDistributedFileSystem)当数据集达到一定规模,单机无法处理把数据分布到各个独立的机器上(多机器共同协作)网络
HDFS
优缺点优点:构建在廉价的机器上使用大数据处理高容错硬件错误流式数据访问大规模数据集简单的一致性模型
蛋炒双黄蛋
·
2023-11-07 05:04
Spark
数据库
Java-Hbase介绍
HDFS
为Hbase提供可靠的底层数据存储服务,MapReduce为Hbase提供高性能的计算能力,Zookeeper为Hbase提供稳定服务和Failover机制,因此我们说Hbase是一个通过大量廉价的机器解决海量数据的高速存储和读取的分布式数据库解决方案
狠情
·
2023-11-06 23:05
hbase
数据库
大数据
Hadoop分布式系统架构详解
分组:比如有一个大型数据,那么他就会将这个数据按照算法分成多份,每份存储在从属主机上,并且在从属主机上进行计算,主节点主要负责Hadoop两个关键功能模块
HDFS
、MapReduce的监督。
25577033_malong
·
2023-11-06 19:30
大数据
hadoop
架构
big
data
HDFS
速通之一文详解
HDFS
全部知识点
文章目录
HDFS
介绍
HDFS
体系
HDFS
的Shell介绍
HDFS
的常见Shell操作
HDFS
案例实操Java操作
HDFS
配置环境
HDFS
的回收站
HDFS
的安全模式实战:定时上传数据至
HDFS
HDFS
的高可用和高扩展
小崔的技术博客
·
2023-11-06 18:49
大数据学习
hdfs
hadoop
大数据
Flume从入门到精通一站式学习笔记
文章目录什么是FlumeFlume的特性Flume高级应用场景Flume的三大核心组件Source:数据源channelsinkFlume安装部署Flume的使用案例:采集文件内容上传至
HDFS
案例:采集网站日志上传至
小崔的技术博客
·
2023-11-06 18:49
大数据学习
flume
学习
笔记
基于
HDFS
实现的简易云盘系统
文章目录前言一、实验简介二、分析与设计1.功能需求分析:2.系统设计三、效果展示四、环境配置五、功能实现1.基础部分2.用户管理3.文件管理六、项目资源七、其他八、参考文件前言基于
HDFS
的云盘系统实现了云盘的基本数据存储和访问功能
putaojuzi
·
2023-11-06 16:02
学习总结
Hadoop
hdfs
hadoop
大数据
java
【大数据处理框架】Hadoop大数据处理框架,包括其底层原理、架构、编程模型、生态圈
首先,我们来了解一下
HDFS
。
HDFS
是Hadoop的核心组件之一,它是一个分布式文件系统,将文件分成多个数据块,并存储在集群中的不同节点上,每个数据块的默认
我是廖志伟
·
2023-11-06 15:41
#
大数据开发
hadoop
架构
大数据
阿里终面:10亿数据如何快速插入MySQL
假设和面试官明确后,有如下约束10亿条数据,每条数据1Kb数据内容是非结构化的用户访问日志,需要解析后写入到数据库数据存放在
Hdfs
或S3分布式文件存储里10亿条数据并不是1个大文件,而是被近似切分为100
TNT报社
·
2023-11-06 13:49
mysql
数据库
大数据量
批量插入
Zookeeper监控机制
Zookeeper是有⼀个⼼跳监控机制存在的,⼀般都是每隔2秒就⼼跳⼀下来确认Controller是否还存活,如果不存在的话就会把资源节点让给其他的Controller,这个⼼跳检测机制是⽐较常⻅的,⽐如
HDFS
冷艳无情的小妈
·
2023-11-06 11:23
java
大数据
开发语言
zookeeper
kafka
mapreduce详细工作流程
mapreduce工作流程map任务处理1.1框架使用InputFormat类的子类把输入文件(夹)划分为很多InputSplit,默认,每个
HDFS
的block对应一个InputSplit。
瞌死在大数据
·
2023-11-06 09:57
hadoop
mapreduce
hadoop
hdfs
【Hadoop】MapReduce工作流程
MapReducer工作流程读数据1.客户端提交作业任务;2.Job根据作业任务获取文件信息;3.InputFormat将文件按照设定的切片大小(一般切片大小等于
HDFS
中的Block块大小)进行切片操作
温wen而雅
·
2023-11-06 09:57
大数据
hadoop
mapreduce
MapReduce详细工作流程
源码链接1.文本job提交------Job源码链接2.FileInputFormat按照块大小(128m)进行切片------切片源码链接3.切片信息,jar包(Job提交到集群运行时),配置信息上传到
HDFS
水花一直飞
·
2023-11-06 09:56
mapreduce
大数据
hadoop
mapreduce
hadoop
大数据
2021-02-21
13面试问题(2)是否存在i+1{(line.split(",")(3),1)}).reduceByKey(_+_).foreach(println)B、
HDFS
中有两个文件a.text与b.text,
saluch
·
2023-11-06 05:43
Hadoopo-MapReduce(数据处理)
以Hadoop分布式文件系统(HadoopDistrributedFileSystem,
HDFS
)和MapReduce(GoogleMapReduce的开源实现)为核心的Hadoop,为用户提供了系统底层细节透明的分布式基
qq_42601983
·
2023-11-06 05:53
WARNING: HADOOP_SECURE_DN_USER has been replaced by
HDFS
_DATANODE_SECURE_USER. Using value of HADOOP
hadoop启动时报错:WARNING:HADOOP_SECURE_DN_USERhasbeenreplacedby
HDFS
_DATANODE_SECURE_USER.UsingvalueofHADOOP_SECURE_DN_USER
D老歪
·
2023-11-06 05:23
微服务专题
hadoop
hdfs
大数据
【基础篇】大数据学习笔记(4)相关名词解释
GFS:GoogleFileSystemGoogle文件系统
HDFS
:HadoopDsitributedFileSystemHadoop分布式文件系统Zookeeper:分布式应用程序协调服务,是Hadoop
风也醉
·
2023-11-06 02:54
Apache Doris整体架构、FE元数据管理及数据组织
目录1.Doris整体架构2.FE元数据管理3.Doris数据组织1.Doris整体架构Doris主要分为FE和BE两个组件,FE主要负责查询的编译,分发和元数据管理(基于内存,类似
HDFS
NN);BE
国林哥
·
2023-11-06 02:47
Doris
架构
database
大数据
数据仓库
etl
2020-04-21
通过命令-setrep设置
HDFS
中文件的副本数量[
[email protected]
]$hadoopfs-setrep10/sanguo/shuguo/kongming.txt这里设置的副本数只是记录在
Map_Reduce
·
2023-11-06 02:57
windows 平台上使用 pyarrow 连接
hdfs
详细教程
Indexwindows平台上使用pyarrow连接
hdfs
详细教程连接教程踩坑记录进入支线:编译
hdfs
.dll进入支线的支线:编译OpenSSL多个OpenSSL的设置问题意想不到的大坑回到支线,编译
Loasn
·
2023-11-06 00:24
hadoop
大数据
hdfs
python
pyarrow读写
hdfs
官方API文档:https://arrow.apache.org/docs/python/index.html1、测试服务器能够正确连接
hdfs
:>hadoopfs-ls/Found5itemsdrwxrwxrwx-hbasesupergroup02021
影子飞扬
·
2023-11-06 00:19
python基础教程
hdfs
hadoop
big
data
python
pyarrow 实现
hdfs
和本地文件传输
目录pyarrow实现
hdfs
和本地文件传输1.安装pyarrow2.相关代码2.1.
hdfs
->本地2.2.本地->
hdfs
2.3.一个简单的例子参考文章pyarrow实现
hdfs
和本地文件传输python
Solarzhou
·
2023-11-06 00:17
大数据
程序人生
hdfs
hadoop
大数据
python
Spark系列—spark简介
具有如下特性:1、高效性体现在内存存储中间计算结果,基于DAG图执行引擎的优化,减少多次中间结果写
HDFS
开销。
数据小白的进阶之路
·
2023-11-05 23:19
Spark
spark
大数据
Centos8中Hadoop3.3.1安装详细过程(含图文)
版本五、安装Hadoop3六、配置hadoop环境变量七、Hadoop伪分布式配置1、Hadoop环境变量设置2、Hadoop配置文件的修改(1)修改配置文件core-site.xml(2)修改配置文件
hdfs
-site.xml
wat-999
·
2023-11-05 23:17
开发语言
hadoop
分布式
关于出现hadoop102拒绝连接
自己通过使用jps查看到hadoop102上没有namenode服务启动然后自己通过使用myhadoop.shstop停止
hdfs
和yarn(myhadoop.sh是自己编写启动和关闭
hdfs
和yarn
总会有天明
·
2023-11-05 22:28
问题报错
hadoop
big
data
MapReduce开发笔记(使用Eclipse编写执行Hadoop)
这里我们直接在浏览器打开:http://192.168.2.144:50070,如果能访问到
HDFS
的Web端界面,就可以了。
眼君
·
2023-11-05 20:08
hbase 数据迁移
在源集群所有机器的hosts中配置目标集群的hostname与ip快照方式hbasesnapshot数据迁移问题不需要提前建表,分区也会自动同步HBase自身也提供了ExportSnapshot的方法可以从
HDFS
邵红晓
·
2023-11-05 20:08
FlinkSQL源码解析(二)Java SPI机制
现在想更深入的了解,我们书写的sql语句是如何通过connecter属性连接kafka、
hdfs
等,为修改源码新增connector做铺垫。在这里我们先了解下JavaSPI机制。
Yuan_CSDF
·
2023-11-05 19:19
#
Flink源码解析
大数据
flink
大数据入门:Hadoop
HDFS
存储原理
在Hadoop生态当中,解决大数据存储,主要依靠就是
HDFS
,再配合数据库去完成。今天的大数据入门分享,我们就来讲讲Hadoop
HDFS
存储原理。1、什么是
HDFS
?
成都加米谷大数据
·
2023-11-05 16:35
大数据-Hive相关知识点介绍
基于一个统一的查询分析层,通过SQL语句的方式对
HDFS
上的数据进行查询、统计和分析。Hive本质是将HQL转化成MapReduce程序Hive的表本质就是Hadoop的目录/文件Hive默认表存放
ziania_cumt
·
2023-11-05 16:12
hive
大数据
【
HDFS
】Client写三副本数据pipeline恢复的一些总结
通过本文可以了解:
HDFS
Client写三副本的pipeline模型pipeline里有节点错误,如何进行恢复?
叹了口丶气
·
2023-11-05 16:42
HDFS全方位实战
hdfs
hadoop
【
HDFS
】客户端写数据时,dataQueue的几处wait方法的调用场景
dataQueue.wait的几处调用点如下:1、DataStreamer#run方法一开始,判断dataQueue如果为空,或者doSleep==true,那么就dataQueue.wait(timeout);2、waitForAllAcks方法里,会dataQueue.wait(sendHeartbeat());waitForAllAcks的作用是等待所有的datapackets都成功地收到a
叹了口丶气
·
2023-11-05 16:12
HDFS全方位实战
hdfs
hadoop
hive3.1.2 笔记 知识点详解(三)导出数据方式 分区表
1导出数据方式1.1exporttb_nameto
HDFS
_PATH1.2如果数据是普通的文本数据在shell客户端使用get下载数据
hdfs
dfs-get/tb_name/filehive端:hive
z小丑八怪r
·
2023-11-05 16:41
hive
大数据
分区表
hive
数据库
大数据
大数据开发笔记(四):Hive分区详解
✨大数据开发笔记推荐:大数据开发面试知识点总结_GoAI的博客-CSDN博客_大数据开发面试本文详细介绍大数据hadoop生态圈各部分知识,包括不限于
hdfs
、yarn、mapreduce、hive、sqoop
GoAI
·
2023-11-05 16:08
#
Hive
大数据笔记
分区表
大数据
hive
Hive知识点(五) --内/外/分区表
内部表和外部表1.内外部表区别2.分区表2.1一级分区表2.2二级分区表3.手动在
HDFS
中创建分区目录的修复2.产看分区表1.内外部表区别Hive里面有两种数据:1.data(表数据):存储在
HDFS
2
小维_
·
2023-11-05 16:08
Hive
Hive知识点:索引、分区表、分桶表、抽样查询
索引在指定列上建立索引,会产生一张索引表(Hive的一张物理表),里面的字段包括,索引列的值、该值对应的
HDFS
文件路径、该值在文件中的偏移量;分区表PARTITIONEBY将表中的数据,分散到表目录下的多个子目录
得过且过1223
·
2023-11-05 16:04
#
Hive
上一页
35
36
37
38
39
40
41
42
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他