hIve的hql的u数据类型和java中的基本数据类型差不多,但是data类型的格式必须为YYYY-MM-DD
建立hive表时,如果不知道数据类型,用string,便于向其他形式的转化
Date 类型的格式需为YYYY-MM-DD。
MySQL的执行顺序:
from=》where=》group by =》having=》select=》order by=》limit
hive的执行语句
from=》where=》select=》group by=》having =》orderby=》limit
查询每个员工的上司
select p1.name,p3.boss from emp_b_p2 p1 join (select p2.name boss,p2.id from emp_b_p2 p2) as p3 on p1.mgr=p3.id;
从事每个工作的人数
select count(job) from emp_b_p group by job;
单个reduce输出有序,当有多个reduce输出时,会将单个reduce的结果有序输出,不能保证全部的reduce输出是有序的
语法: split(string str, string pat)
返回值: array
pat 为分割符
语法: concat_ws(string SEP, string A, string B…)
返回值: string
说明:返回输入字符串连接后的结果,SEP表示各个字符串间的分隔符
语法: datediff(string enddate, string startdate)
返回值: int
说明: 返回结束日期减去开始日期的天数。
语法: concat(string A, string B…)
返回值: string
说明:返回输入字符串连接后的结果,支持任意个输入字符串
语法: floor(double a)
返回值: BIGINT
说明: 返回等于或者小于该double变量的最大的整数
语法: date_add(string startdate, int days)
返回值: string
说明: 返回开始日期startdate增加days天后的日期。
类型转换函数: cast
语法: cast(expr as )
使用于wordcount的场景
select explode(split(line,",")) from line;
注意:创建表时以什么符分割,这里的连接符就用什么
select concat_ws(’,’,collect_set(name)) from emp;
row_number、rank、dense_rank
select emp.sal,emp.id row_number() over(order by sal) as rn from emp;
加个分区便于查看,这里不能用group 要用partition,尽管不是分区表也可以使用
组内依次排名,不会产生并列,不会有空位
select emp.sal,emp.job ,row_number() over(partition by job order by sal) as rn from emp;
java
java入门基础学习(一)
java入门基础学习(二)
java入门基础学习(三)
java入门基础学习(四)
java入门基础学习(五)
java入门基础学习(六)
java入门基础学习(七)
java入门基础学习(八)
java入门基础学习(九)
java入门基础学习(十)
java入门基础学习(十一)
java入门基础学习(十二)
java入门基础学习(十三)
java入门基础学习(十四)Maven Git
java总结,题目+笔记
java进阶之常见对象(一)
java进阶之常见对象(二)
java进阶之冒泡排序
java进阶之选择排序
java进阶之面向对象(封装)
java进阶之面向对象(代码块、继承)
java进阶之面向对象(多态、抽象、接口)
java进阶之匿名内部类、访问修饰符、包
java进阶之io流(字节流,字符流)
java应用一(反射的应用)
java应用二(配置文件、工具类)
java应用三(数据库索引、spring)
java应用四(连接池)
Linux
Linux基础一
Linux基础二
Mysql
mysql一
mysql二
mysql三
mysql四
java连接数据库
redis
redis一(缓存,redis简介)
redis二(单节点安装,桌面插件)
redis三(指令的使用)
redis四(java与redis的连接,基本指令在java中的操作)
redis五(练习)
redis七(持久化)
redis九(集群安装)
Hadoop
hadoop学习一
hadoop学习二
hadoop学习三
hadoop学习四
hadoop学习五
hadoop学习六
hadoop学习七
hadoop学习八
hadoop异常处理
hadoop基础学习九
hadoop基础学习十