- spark 执行 hive sql数据丢失
qq_40841339
sparkhivehadoopsparkhivesql
spark-sql丢失数据1.通过spark执行hivesql的时候,发现hive四条数据,spark执行结果只有两条数据目标对应的两条数据丢失selectdate,user_id,payfromdim.isr_pay_failedwhereuser_id=‘*******’hive-sql结果:|date|user_id|pay||20250425|d34342343*|7||20250425|
- Spark-SQL核心编程
凉白开338
sparksql大数据
数据的加载与保存加载数据的方法选项参数:可以通过选项参数传入URL地址、用户名、密码和数据表名称等。路径参数:可以传入加载数据的路径。MySQL语句:可以直接导入MySQL语句来加载数据。保存数据的方法通用方法:使用df.write方法保存数据。格式和选项:可以指定保存的数据格式和选项参数。保存模式:可以选择不同的保存模式(如追加、覆盖、忽略、报错)。数据源格式默认数据源格式:SparkSQL默认
- Spark-SQL
海金沙33
spark大数据分布式
Spark-SQLSparkSQL是Spark用于结构化数据(structureddata)处理的Spark模块。HiveandSparkSQL,SparkSQL可以简化RDD的开发,提高开发效率,且执行效率非常快,所以实际工作中,基本上采用的就是SparkSQL。SparkSQL为了简化RDD的开发,提高开发效率,提供了2个编程抽象,类似SparkCore中的RDD➢DataFrame➢Data
- Spark SQL开发实战:从IDEA环境搭建到UDF/UDAF自定义函数实现
哈哈~156
spark
利用IDEA开发Spark-SQL1、创建子模块Spark-SQL,并添加依赖org.apache.sparkspark-sql_2.123.0.03、创建Spark-SQL的测试代码:importorg.apache.spark.SparkConfimportorg.apache.spark.rdd.RDDimportorg.apache.spark.sql.{DataFrame,Dataset
- Spark-SQL核心编程
桑榆0806
spark
1.Spark-SQL数据加载与保存-通用方式:加载使用spark.read.load,可通过format("…")指定数据类型,load("…")传入数据路径,option("…")设置JDBC参数。保存用df.write.save,同样可指定类型、路径和JDBC参数,还能通过mode()设置SaveMode处理已存在文件。-Parquet格式:SparkSQL默认数据源,加载和保存操作简单,无
- Spark-SQL简介与编程
凉白开338
sparksql大数据
1.Spark-SQL是什么SparkSQL是Spark用于结构化数据(structureddata)处理的Spark模块。Hadoop与Spark的对比Hadoop的局限性Hadoop无法处理结构化数据,导致一些项目无法推进。例如,MySQL中的数据是结构化的,Hadoop无法直接处理。Spark的出现Spark解决了Hadoop无法处理结构化数据的问题。Spark推出了SparkSQL模块,专
- Spark-SQL编程
桑榆0806
spark
1.Spark-SQL连接Hive连接方式概述:SparkSQL编译时可选择包含Hive支持,包含后能支持Hive表访问、UDF、HQL等功能,且无需事先安装Hive。连接方式有内嵌Hive、外部Hive、Spark-SQLCLI、Sparkbeeline及代码操作。具体连接方式内嵌Hive:使用时无需额外操作,但实际生产中很少使用。外部Hive:在spark-shell中连接外部Hive,需拷贝
- Spark-SQL核心编程
露卡_
sparksqlajax
Spark-SQL核心编程(四)实验内容:利用IDEA开发Spark-SQL。实验步骤:利用IDEA开发Spark-SQL创建子模块Spark-SQL,并添加依赖org.apache.sparkspark-sql_2.123.0.0创建Spark-SQL的测试代码:caseclassUser(id:Int,name:String,age:Int)objectSparkSQLDemo{defmain
- spark-SQL核心编程课后总结
一元钱面包
spark
通用加载与保存方式加载数据:Spark-SQL的spark.read.load是通用加载方法,借助format指定数据格式,如csv、jdbc、json等;load用于指定数据路径;option在jdbc格式时传入数据库连接参数。此外,还能直接在文件上利用spark.sql进行查询,简化了数据读取流程。保存数据:df.write.save是通用保存方法,同样用format指定格式,save确定保存
- Spark-SQL与Hive的连接及数据处理全解析
不要天天开心
scalaspark
Spark-SQL与Hive的连接及数据处理全解析在大数据处理领域,Spark-SQL和Hive都是重要的工具。今天就来聊聊Spark-SQL如何连接Hive以及相关的数据处理操作。Spark-SQL连接Hive有多种方式。内嵌Hive虽然使用简单,直接就能用,但在实际生产中很少有人用。更多人选择外部Hive,要在spark-shell中连接外部已部署好的Hive,需要把hive-site.xml
- Spark-SQL核心编程
zzh-
笔记
利用IDEA开发Spark-SQL。1.创建子模块Spark-SQL,并添加依赖org.apache.sparkspark-sql_2.123.0.02.创建Spark-SQL的测试代码:caseclassUser(id:Int,name:String,age:Int)objectSparkSQLDemo{defmain(args:Array[String]):Unit={//创建上下文环境配置对
- Spark-SQL核心编程:DataFrame、DataSet与RDD深度解析
不要天天开心
spark
在大数据处理领域,Spark-SQL是极为重要的工具。今天就来深入探讨Spark-SQL中DataFrame、DataSet和RDD这三个关键数据结构。Spark-SQL的前身是Shark,它摆脱了对Hive的过度依赖,在数据兼容、性能优化和组件扩展上有显著提升。DataFrame是基于RDD的分布式数据集,类似二维表格且带有schema元信息,这让SparkSQL能优化执行,性能优于RDD,其A
- spark-SQL核心编程
桑榆0806
spark
1.Spark-SQL简介起源与发展:Spark-SQL前身为Shark,因对Hive依赖制约Spark发展而被弃用。它汲取Shark优点重新开发,在数据兼容、性能优化和组件扩展方面表现出色。特点:易整合,统一数据访问,兼容Hive,支持标准数据连接。编程抽象:提供DataFrame和DataSet两个编程抽象,DataFrame带schema元信息,DataSet是其扩展,具有强类型等特性。2.
- Spark-SQL2
戈云 1106
spark
Spark-SQL一.Spark-SQL核心编程(二)利用IDEA开发Spark-SQL创建子模块Spark-SQL,并添加依赖org.apache.sparkspark-sql_2.123.0.0创建Spark-SQL的测试代码:caseclassUser(id:Int,name:String,age:Int)objectSparkSQLDemo{defmain(args:Array[Strin
- Spark-SQL3
戈云 1106
spark人工智能
Spark-SQL一.Spark-SQL核心编程(四)1.数据加载与保存:1)通用方式:SparkSQL提供了通用的保存数据和数据加载的方式。这里的通用指的是使用相同的API,根据不同的参数读取和保存不同格式的数据,SparkSQL默认读取和保存的文件格式为parquet。2)加载数据:spark.read.load是加载数据的通用方法。如果读取不同格式的数据,可以对不同的数据格式进行设定。spa
- Spark-SQL核心编程实战:自定义函数与聚合函数详解
不要天天开心
spark
在大数据处理领域,Spark-SQL是极为重要的工具。今天和大家分享一下在Spark-SQL开发中的自定义函数和聚合函数的使用,这些都是基于实际项目开发经验的总结。在Spark-SQL开发时,第一步是搭建开发环境。在IDEA中创建Spark-SQL子模块,并添加spark-sql_2.12:3.0.0依赖,这样就为后续开发打下基础。自定义函数是Spark-SQL开发的一大亮点。UDF(用户定义函数
- spark spark-sql提交方式及参数优化建议
爱折腾的小土豆
sparksql大数据
Spark作为分布式的SQL查询引擎,官方测试结果比Hivesql快100倍。目前spark提交命令有spark-shell、spark-submit、spark-sql三种方式,下面我就来看看spark-sql的提交方式。与hive执行命令对比:下面我们用hive提交的方式与spark-sql做一下比较,发现基本是一致的。但是hive底层使用mr执行速度实在不忍直视,当然如果条件允许,可以考虑安
- Spark-Sql编程(三)
煤烦恼
sparksql大数据
一、数据加载与保存通用方式:使用spark.read.load和df.write.save,通过format指定数据格式(如csv、jdbc、json等),option设置特定参数(jdbc格式下的url、user等),load和save指定路径。保存时可通过mode设置SaveMode,如ErrorIfExists(默认,文件存在则抛异常)、Append(追加)、Overwrite(覆盖)、Ig
- spark-sql cli 参数及使用
千淘万漉
云计算/大数据spark-sql客户端
原文地址https://www.cnblogs.com/mobiwangyue/p/9049928.html很难找到spark-sqlcli使用的教程,总结下一、启动方法/data/spark-1.4.0-bin-cdh4/bin/spark-sql--masterspark://master:7077--total-executor-cores10--executor-memory1g--exe
- spark-sql日志屏蔽
jinruoqq
sparkspark
aliasmyspark-sql='spark-sql--driver-java-options"-Dlog4j.configuration=file:/spark/conf/log4j-warn.properties"'
- Spark-sql编程
神奇的黄豆
sparksql大数据
创建子模块并添加依赖在IDEA中创建一个名为Spark-SQL的子模块。在该子模块的pom.xml文件中添加Spark-SQL的依赖,具体依赖为org.apache.spark:spark-sql_2.12:3.0.0。编写Spark-SQL测试代码定义一个Usercaseclass,用于表示用户信息(id、name、age)。创建一个名为SparkSQLDemo的object,并在其中编写m
- spark-sql
什么芮.
sparksql
实验内容:利用IDEA开发Spark-SQL。实验步骤:利用IDEA开发Spark-SQL创建子模块并且添加依赖org.apache.sparkspark-sql_2.123.0.0在项目中创建了名为Spark-SQL的子模块,并添加了org.apache.spark:spark-sql_2.12:3.0.0依赖。创建Spark-SQL的测试代码:导入必要的包和定义数据结构:caseclassUs
- spark-sql提交参数详解整理
海阔天空_81
大数据sparksql
#1.spark任务提交当SPARK-SQL开发完成后需要将其提交到大数据平台上去跑,提交的时候需要对要使用的资源参数进行设置,目的:a.让任务在正确的环境下运行b.根据任务自身情况,设置合理参数,提高运行效率#2.设置参数说明##2.1class参数参数说明:spark程序的主类,仅针对java或scala应用,注意用全包名+类名##2.2name参数参数说明:应用程序的名称,可以在yarn上面
- 避免Hive和Spark生成HDFS小文件
穷目楼
数据库大数据大数据sparkhivehadoop
HDFS是为大数据设计的分布式文件系统,对大数据做了存储做了针对性的优化,但却不适合存储海量小文件。Hive和spark-sql是两个在常用的大数据计算分析引擎,用户直接以SQL进行大数据操作,底层的数据存储则多由HDFS提供。对小数据表的操作如果没做合适的处理则很容易导致大量的小文件在HDFS上生成,常见的一个情景是数据处理流程只有map过程,而流入map的原始数据数量较多,导致整个数据处理结束
- HIVE- SPARK
流川枫_
20210706hdfshivespark
日常记录备忘Hive修改字段类型之后(varchar->string)Hive可以查到数据,Presto查询报错;分区字段数据类型和表结构字段类型不一样;spark-sql分区表和非分区表兼容问题,不能关联可以建临时表把分区数据导入,用完数据将表删除;count有数据,select没数据可能是压缩格式所导致;优化合全量任务,之前是row_number()函数先插入当天增量,取出最新的数据插入全量表
- 编程常用命令总结
Yellow0523
LinuxBigData大数据
编程命令大全1.软件环境变量的配置JavaScalaSparkHadoopHive2.大数据软件常用命令Spark基本命令Spark-SQL命令Hive命令HDFS命令YARN命令Zookeeper命令kafka命令Hibench命令MySQL命令3.Linux常用命令Git命令conda命令pip命令查看Linux系统的详细信息查看Linux系统架构(X86还是ARM,两种方法都可)端口号命令L
- spark任务优化参数整理
尘世壹俗人
大数据Spark技术spark大数据分布式
以下参数中有sql字眼的一般只有spark-sql模块生效,例外的时候会另行说明,此外由于总结这些参数是在不同时间段,当时使用的spark版本也不一样,因此要注意是否有效,如果本博主已经试过的会直接说明。1、任务使用资源限制,基本参数,注意,这些资源配置有spark前缀是因为他们是标准的conf配置,也就是submit脚本,你调用–conf参数写的,和–driver.memory这种属于不同的优先
- Spark - SQL查询文件数据
kikiki5
有时候有没有这么一种情况,我拿到了一个sql,csv,parquet文件,一起来就想写sql,不想写那些乱七八糟的的东西,只是想快速实现我要的聚合查询数据。那么我们可以利用spark-sql直接操作文件的特性处理这类的需求,姐姐再也不用担心我不会spark了,因为我就只会sql。使用方法csvspark.sql("select*fromcsv.`/tmp/demo.csv`").show(fals
- Spark-sql Adaptive Execution动态调整分区数量,调整输出文件数
不想起的昵称
hivesparkhive数据仓库
背景:在数仓任务中,经常要解决小文件的问题。有时间为了解决小文件问题,我们把spark.sql.shuffle.partitions这个参数调整的很小,但是随着时间的推移,数据量越来越大,当初设置的参数就不合适了,那有没有一个可以自我伸缩的参数呢?看看这个参数如何运用:我们的spark-sql版本:[hadoop@666~]$spark-sql--versionWelcometo______/__
- hive join中出现的数据暴增(数据重复)
不想起的昵称
hive大数据hadoophive
什么是join过程中导致的数据暴增?例如:给左表的每个用户打上是否是新用户的标签,左表的用户数为100,但是关联右表之后,得到的用户数为200甚至更多什么原因导致的数据暴增呢?我们来看一下案例:spark-sql>withtest1as>(select'10001'asuid,'xiaomi'asqid>unionall>select'10002'asuid,'huawei'asqid>union
- mondb入手
木zi_鸣
mongodb
windows 启动mongodb 编写bat文件,
mongod --dbpath D:\software\MongoDBDATA
mongod --help 查询各种配置
配置在mongob
打开批处理,即可启动,27017原生端口,shell操作监控端口 扩展28017,web端操作端口
启动配置文件配置,
数据更灵活 
- 大型高并发高负载网站的系统架构
bijian1013
高并发负载均衡
扩展Web应用程序
一.概念
简单的来说,如果一个系统可扩展,那么你可以通过扩展来提供系统的性能。这代表着系统能够容纳更高的负载、更大的数据集,并且系统是可维护的。扩展和语言、某项具体的技术都是无关的。扩展可以分为两种:
1.
- DISPLAY变量和xhost(原创)
czmmiao
display
DISPLAY
在Linux/Unix类操作系统上, DISPLAY用来设置将图形显示到何处. 直接登陆图形界面或者登陆命令行界面后使用startx启动图形, DISPLAY环境变量将自动设置为:0:0, 此时可以打开终端, 输出图形程序的名称(比如xclock)来启动程序, 图形将显示在本地窗口上, 在终端上输入printenv查看当前环境变量, 输出结果中有如下内容:DISPLAY=:0.0
- 获取B/S客户端IP
周凡杨
java编程jspWeb浏览器
最近想写个B/S架构的聊天系统,因为以前做过C/S架构的QQ聊天系统,所以对于Socket通信编程只是一个巩固。对于C/S架构的聊天系统,由于存在客户端Java应用,所以直接在代码中获取客户端的IP,应用的方法为:
String ip = InetAddress.getLocalHost().getHostAddress();
然而对于WEB
- 浅谈类和对象
朱辉辉33
编程
类是对一类事物的总称,对象是描述一个物体的特征,类是对象的抽象。简单来说,类是抽象的,不占用内存,对象是具体的,
占用存储空间。
类是由属性和方法构成的,基本格式是public class 类名{
//定义属性
private/public 数据类型 属性名;
//定义方法
publ
- android activity与viewpager+fragment的生命周期问题
肆无忌惮_
viewpager
有一个Activity里面是ViewPager,ViewPager里面放了两个Fragment。
第一次进入这个Activity。开启了服务,并在onResume方法中绑定服务后,对Service进行了一定的初始化,其中调用了Fragment中的一个属性。
super.onResume();
bindService(intent, conn, BIND_AUTO_CREATE);
- base64Encode对图片进行编码
843977358
base64图片encoder
/**
* 对图片进行base64encoder编码
*
* @author mrZhang
* @param path
* @return
*/
public static String encodeImage(String path) {
BASE64Encoder encoder = null;
byte[] b = null;
I
- Request Header简介
aigo
servlet
当一个客户端(通常是浏览器)向Web服务器发送一个请求是,它要发送一个请求的命令行,一般是GET或POST命令,当发送POST命令时,它还必须向服务器发送一个叫“Content-Length”的请求头(Request Header) 用以指明请求数据的长度,除了Content-Length之外,它还可以向服务器发送其它一些Headers,如:
- HttpClient4.3 创建SSL协议的HttpClient对象
alleni123
httpclient爬虫ssl
public class HttpClientUtils
{
public static CloseableHttpClient createSSLClientDefault(CookieStore cookies){
SSLContext sslContext=null;
try
{
sslContext=new SSLContextBuilder().l
- java取反 -右移-左移-无符号右移的探讨
百合不是茶
位运算符 位移
取反:
在二进制中第一位,1表示符数,0表示正数
byte a = -1;
原码:10000001
反码:11111110
补码:11111111
//异或: 00000000
byte b = -2;
原码:10000010
反码:11111101
补码:11111110
//异或: 00000001
- java多线程join的作用与用法
bijian1013
java多线程
对于JAVA的join,JDK 是这样说的:join public final void join (long millis )throws InterruptedException Waits at most millis milliseconds for this thread to die. A timeout of 0 means t
- Java发送http请求(get 与post方法请求)
bijian1013
javaspring
PostRequest.java
package com.bijian.study;
import java.io.BufferedReader;
import java.io.DataOutputStream;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.HttpURL
- 【Struts2二】struts.xml中package下的action配置项默认值
bit1129
struts.xml
在第一部份,定义了struts.xml文件,如下所示:
<!DOCTYPE struts PUBLIC
"-//Apache Software Foundation//DTD Struts Configuration 2.3//EN"
"http://struts.apache.org/dtds/struts
- 【Kafka十三】Kafka Simple Consumer
bit1129
simple
代码中关于Host和Port是割裂开的,这会导致单机环境下的伪分布式Kafka集群环境下,这个例子没法运行。
实际情况是需要将host和port绑定到一起,
package kafka.examples.lowlevel;
import kafka.api.FetchRequest;
import kafka.api.FetchRequestBuilder;
impo
- nodejs学习api
ronin47
nodejs api
NodeJS基础 什么是NodeJS
JS是脚本语言,脚本语言都需要一个解析器才能运行。对于写在HTML页面里的JS,浏览器充当了解析器的角色。而对于需要独立运行的JS,NodeJS就是一个解析器。
每一种解析器都是一个运行环境,不但允许JS定义各种数据结构,进行各种计算,还允许JS使用运行环境提供的内置对象和方法做一些事情。例如运行在浏览器中的JS的用途是操作DOM,浏览器就提供了docum
- java-64.寻找第N个丑数
bylijinnan
java
public class UglyNumber {
/**
* 64.查找第N个丑数
具体思路可参考 [url] http://zhedahht.blog.163.com/blog/static/2541117420094245366965/[/url]
*
题目:我们把只包含因子
2、3和5的数称作丑数(Ugly Number)。例如6、8都是丑数,但14
- 二维数组(矩阵)对角线输出
bylijinnan
二维数组
/**
二维数组 对角线输出 两个方向
例如对于数组:
{ 1, 2, 3, 4 },
{ 5, 6, 7, 8 },
{ 9, 10, 11, 12 },
{ 13, 14, 15, 16 },
slash方向输出:
1
5 2
9 6 3
13 10 7 4
14 11 8
15 12
16
backslash输出:
4
3
- [JWFD开源工作流设计]工作流跳跃模式开发关键点(今日更新)
comsci
工作流
既然是做开源软件的,我们的宗旨就是给大家分享设计和代码,那么现在我就用很简单扼要的语言来透露这个跳跃模式的设计原理
大家如果用过JWFD的ARC-自动运行控制器,或者看过代码,应该知道在ARC算法模块中有一个函数叫做SAN(),这个函数就是ARC的核心控制器,要实现跳跃模式,在SAN函数中一定要对LN链表数据结构进行操作,首先写一段代码,把
- redis常见使用
cuityang
redis常见使用
redis 通常被认为是一个数据结构服务器,主要是因为其有着丰富的数据结构 strings、map、 list、sets、 sorted sets
引入jar包 jedis-2.1.0.jar (本文下方提供下载)
package redistest;
import redis.clients.jedis.Jedis;
public class Listtest
- 配置多个redis
dalan_123
redis
配置多个redis客户端
<?xml version="1.0" encoding="UTF-8"?><beans xmlns="http://www.springframework.org/schema/beans" xmlns:xsi=&quo
- attrib命令
dcj3sjt126com
attr
attrib指令用于修改文件的属性.文件的常见属性有:只读.存档.隐藏和系统.
只读属性是指文件只可以做读的操作.不能对文件进行写的操作.就是文件的写保护.
存档属性是用来标记文件改动的.即在上一次备份后文件有所改动.一些备份软件在备份的时候会只去备份带有存档属性的文件.
- Yii使用公共函数
dcj3sjt126com
yii
在网站项目中,没必要把公用的函数写成一个工具类,有时候面向过程其实更方便。 在入口文件index.php里添加 require_once('protected/function.php'); 即可对其引用,成为公用的函数集合。 function.php如下:
<?php /** * This is the shortcut to D
- linux 系统资源的查看(free、uname、uptime、netstat)
eksliang
netstatlinux unamelinux uptimelinux free
linux 系统资源的查看
转载请出自出处:http://eksliang.iteye.com/blog/2167081
http://eksliang.iteye.com 一、free查看内存的使用情况
语法如下:
free [-b][-k][-m][-g] [-t]
参数含义
-b:直接输入free时,显示的单位是kb我们可以使用b(bytes),m
- JAVA的位操作符
greemranqq
位运算JAVA位移<<>>>
最近几种进制,加上各种位操作符,发现都比较模糊,不能完全掌握,这里就再熟悉熟悉。
1.按位操作符 :
按位操作符是用来操作基本数据类型中的单个bit,即二进制位,会对两个参数执行布尔代数运算,获得结果。
与(&)运算:
1&1 = 1, 1&0 = 0, 0&0 &
- Web前段学习网站
ihuning
Web
Web前段学习网站
菜鸟学习:http://www.w3cschool.cc/
JQuery中文网:http://www.jquerycn.cn/
内存溢出:http://outofmemory.cn/#csdn.blog
http://www.icoolxue.com/
http://www.jikexue
- 强强联合:FluxBB 作者加盟 Flarum
justjavac
r
原文:FluxBB Joins Forces With Flarum作者:Toby Zerner译文:强强联合:FluxBB 作者加盟 Flarum译者:justjavac
FluxBB 是一个快速、轻量级论坛软件,它的开发者是一名德国的 PHP 天才 Franz Liedke。FluxBB 的下一个版本(2.0)将被完全重写,并已经开发了一段时间。FluxBB 看起来非常有前途的,
- java统计在线人数(session存储信息的)
macroli
javaWeb
这篇日志是我写的第三次了 前两次都发布失败!郁闷极了!
由于在web开发中常常用到这一部分所以在此记录一下,呵呵,就到备忘录了!
我对于登录信息时使用session存储的,所以我这里是通过实现HttpSessionAttributeListener这个接口完成的。
1、实现接口类,在web.xml文件中配置监听类,从而可以使该类完成其工作。
public class Ses
- bootstrp carousel初体验 快速构建图片播放
qiaolevip
每天进步一点点学习永无止境bootstrap纵观千象
img{
border: 1px solid white;
box-shadow: 2px 2px 12px #333;
_width: expression(this.width > 600 ? "600px" : this.width + "px");
_height: expression(this.width &
- SparkSQL读取HBase数据,通过自定义外部数据源
superlxw1234
sparksparksqlsparksql读取hbasesparksql外部数据源
关键字:SparkSQL读取HBase、SparkSQL自定义外部数据源
前面文章介绍了SparSQL通过Hive操作HBase表。
SparkSQL从1.2开始支持自定义外部数据源(External DataSource),这样就可以通过API接口来实现自己的外部数据源。这里基于Spark1.4.0,简单介绍SparkSQL自定义外部数据源,访
- Spring Boot 1.3.0.M1发布
wiselyman
spring boot
Spring Boot 1.3.0.M1于6.12日发布,现在可以从Spring milestone repository下载。这个版本是基于Spring Framework 4.2.0.RC1,并在Spring Boot 1.2之上提供了大量的新特性improvements and new features。主要包含以下:
1.提供一个新的sprin