- 输入hadoop version时,解决Cannot execute /home/hadoop/libexec/hadoop-config.sh.的方法
有奇妙能力吗
ubuntuhadoophdfslinux大数据分布式
在ubuntu用hadoopversion遇到了一个错误:Cannotexecute/home/hadoop/hadoop2.8/libexec/hadoop-config.sh.解决方法:在/etc/profile中找到了这个HADOOP_HOME全局变量,将其删除运行source/etc/profile输入vim.bashrc命令,在最后一行输入unsetHADOOP_HOMEsource.b
- 什么是Hadoop Yarn
ThisIsClark
大数据hadoop大数据分布式
HadoopYARN:分布式集群资源管理系统详解1.什么是YARN?YARN(YetAnotherResourceNegotiator)是ApacheHadoop生态系统中的资源管理和作业调度系统,最初在Hadoop2.0中引入,取代了Hadoop1.0的MapReduce1(MRv1)架构。它的核心目标是提高集群资源利用率,并支持多种计算框架(如MapReduce、Spark、Flink等)在同
- 虚拟机hadoop集群启动时DataNode进程缺失
Magicalapologize
hadooplinux大数据
虚拟机hadoop集群启动时DataNode进程缺失1.出现问题:在Linux命令窗口中输入Jps查询hadoop启动项目时缺少DataNode进程;2.问题原因:使用格式化命令之后又再次进行格式化,导致namenodeDatas文件序列号不一致使之启动失败3.解决方案:删除三台虚拟机hadoop2.7.5安装目录下/export/install/hadoop-2.7.5/hadoopDatas中
- Hadoop 端口号及常用配置文件
m0_63648117
hadoophadoop大数据分布式
一、常用端口号hadoop3.x:HDFSNameNode内部通常端口:8020/9000/9820HDFSNameNode对用户的查询端口:9870Yarn查看任务运行情况的端口:8088历史服务器:19888hadoop2.x:HDFSNameNode内部通常端口:8020/9000HDFSNameNode对用户的查询端口:50070Yarn查看任务运行情况的端口:8088历史服务器:1988
- Hadoop常用端口及配置文件
耐码
hadoop大数据
Hadoop常用端口号Hadoop常用端口号Hadoop2.XHadoop3.XHDFSNameNode内部通信端口8020/90008020/9000/9820HDFSNameNodeweb端口500709870HDFSDataNodeweb端口500759864Yarn查看任务端口80888088历史服务器通信端口1988819888Hadoop常用配置文件Hadoop3.Xcore-site
- Hadoop常用端口号和配置文件
jiedaodezhuti
hadoop大数据分布式
常用端口号有:hadoop2.xHadoop3.x访问HDFS端口500709870访问MR执行情况端口80888088历史服务器1988819888客户端访问集群端口90008020常用配置文件hadoop2.xcore-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xmlslaveshadoop3.xcore-site.xml、hdfs-si
- Hadoop的组成,HDFS架构,YARN架构概述
计算机人哪有不疯的
hadoop数据库大数据spark
Hadoop的组成Hadoop1.X时代,Hadoop中的MapReduce同时处理业务逻辑运算和资源的调度,耦合性较大。Hadoop2.X时代,增加了Yarn,Yarn只负责资源的调度,MapReduce只负责运算。Hadoop3.X时代,在组成上并没有变化。一共有四个组成部分:MapReduce计算,Yarn资源调度,HDFS数据存储,Common辅助工具。HDFS架构HadoopDistri
- sqoop到数据到mysql报错_hadoop sqoop 同步hive数据到mysql报错 classnotfound
Sinaean Dean
今天在CDH5.4.4环境下,用sqoop导出mysql数据,然后再导入hive,成功用sqoop同步hive数据到mysql失败,求大神答疑:1.hive下有一个表testamysql下有一个表testa结构一样2.版本hadoop2.6CDH5.4.4sqoop1.4.5-CDH5.4.4JDK1.7MySQL5.53.导数命令为sqoopexport-Dmapred.job.queue.na
- ssh免密 linux 极简教程
青瓜先生
大数据hadoopssh大数据linux
解决hadoop集群ssh免密登录通信问题1、家目录/home/xxx/.ssh文件夹下[xxx@hadoop201~]$cd/home/xxx/.ssh2、生成公钥和私钥:[
[email protected]]$ssh-keygen-trsa#然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)3、将公钥拷贝到要免密登录的目标机器上[xxx@hadoop201.
- hadoop+hive+spark+zookeeper+hbase大数据环境搭建
fengwuxichen
大数据hadoopsparkhbase
1.硬件环境主机名IP地址操作系统master172.16.34.101CentOSLinuxrelease7.3.1611slave01172.16.34.102CentOSLinuxrelease7.3.1611slave03172.16.34.103CentOSLinuxrelease7.3.16112.软件版本软件名称版本hadoop2.7.7hive1.2.2spark2.3.4zook
- 《云计算》第三版总结
冰菓Neko
书籍云计算
《云计算》第三版总结云计算体系结构云计算成本优势开源云计算架构Hadoop2.0Hadoop体系架构Hadoop访问接口Hadoop编程接口Hadoop大家族分布式组件概述ZooKeeperHbasePigHiveOozieFlumeMahout虚拟化技术服务器虚拟化存储虚拟化网络虚拟化桌面虚拟化OpenStack开源虚拟化平台NovaSwiftGlance云计算核心算法PaxosDHTGossi
- 《大数据: Spark Standalone 模式配置历史服务器》
HarkerYX
一、配置历史服务器1.上一篇说到Standalone集群模式时候客户端看不到信息,driver:8081虽然能看到日志和结果,但是体验非常差2.spark-shell本身就是客户端模式,这个是改不了为cluster模式,并且运行时候日志打印是有,但是一旦退出了再也没地方看到日志了yexiang@hadoop2:$bin/spark-shell\>--masterspark://hadoop2:70
- spark配置历史服务
都教授2000
大数据spark
1:配置spark-default.conf文件,开启Logcpspark-defaults.conf.templatespark-defaults.conf在spark-defaults.conf文件中,添加如下内容:spark.eventLog.enabledtruespark.eventLog.dirhdfs://hadoop213:9000/spark-job-log2:修改spark-e
- Hive安装与配置教程
爱编程的王小美
hivehadoop数据仓库
Hive安装与配置教程1.环境准备1.1系统要求Java8或更高版本Hadoop2.x或更高版本MySQL或其他关系型数据库(用于存储元数据)1.2安装依赖#安装Javasudoaptupdatesudoaptinstallopenjdk-8-jdk#安装MySQLsudoaptinstallmysql-server2.下载并安装Hive2.1下载Hive#创建安装目录sudomkdir-p/us
- [大数据技术与应用省赛学习记录一]——软件准备
Ench77
大数据技术与应用比赛筹备大数据
@JIAQI第一章大数据平台环境搭建在指定主机上完成Hadoop完全分布式、Spark、Flink、kafka、flume的安装配置赛前准备主办方要求使用以下相关版本软件环境,仅供参考:设备类型软件类别软件名称、版本号竞赛服务器竞赛环境大数据集群操作系统Centos7大数据平台组件unbuntu18.04Hadoop2.7.7Hive2.3.4Spark2.1.1Kafka2.0.0Redis4.
- Spark总结
等雨季
spark大数据分布式
一、Spark概念:Spark是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。1、SparkandHadoop的关系(1)首先从时间节点上来看:➢Hadoop2006年1月,DougCutting加入Yahoo,领导Hadoop的开发2008年1月,Hadoop成为Apache顶级项目2011年1.0正式发布2012年3月稳定版发布2013年10月发布2.X(Yarn)版本➢Spark20
- Ubuntu下安装Hive3.1.2教程(附MySQL安装方法及安装包)
hjseo_seg
面试阿里巴巴mysqlubuntuhadoop开发语言人工智能
文章目录前言一、安装Hive1.下载压缩包并解压2.安装Hive3.配置环境变量4.修改配置文件二、MySQL安装与配置1.安装MySQL2.安装MySQLjdbc包3.为Hive创建MySQL账号三、验证Hive安装及错误处理1.启动Hadoop2.启动hive3.运行Hive实例总结前言Hive的安装需要建立在Hadoop的之上(类似于Hbase),关于Hadoop的单机安装以及伪分布式安装可
- 架构中 MapReduce 的资源管理和计算框架耦合 的问题
Yarn(全称为YetAnotherResourceNegotiator,译为"另一个资源协调者")在Hadoop2.0版本中引入,其诞生是为了解决Hadoop1.x架构中MapReduce的资源管理和计算框架耦合的问题。简而言之,就是之前MapReduce的资源管理和计算框架是耦合在一起的,为了解耦而设计出了Yarn。Yarn是一种新的Hadoop资源管理器,它是一个通用资源管理系统,提供统一的
- yarn的定义
yyywoaini~
java开发语言
###YARN的定义及其在Hadoop生态系统中的角色####1.**YARN的定义**YARN(YetAnotherResourceNegotiator)是Hadoop2.x版本引入的一个全新资源管理和作业调度框架。它的主要目标是分离资源管理和任务调度的功能,从而提高系统的灵活性和扩展性。YARN的设计允许不同的计算框架(如MapReduce、Spark、Flink等)在同一Hadoop集群中共
- 【HDFS入门】Hadoop 2.0+ HDFS核心架构深度解析:高可用设计揭秘
IT成长日记
大数据成长笔记hadoophdfs架构高可用
目录1HDFS核心架构概述2高可用设计背景3HDFS核心组件3.1Active与StandbyNameNode3.2JournalNode3.3ZKFailoverController(ZKFC)3.4DataNode4高可用设计的工作流程写入阶段:元数据同步:健康监测:故障转移:5高可用设计的优势6总结1HDFS核心架构概述Hadoop2.0及以后版本的HDFS(HadoopDistribute
- spark配置——local模式-yarn模式-spark集群
邪王真眼是最强的哦耶
sparkscalabigdata大数据
准备三台配置hadoop集群的虚拟机(分别是hadoop0、hadoop1和hadoop2)下载spark,scala,anacondaspark下载地址scala下载地址Anaconda下载地址将下载的软件上传到虚拟机上local模式解压spark和scala,并重命名到program文件夹下tar-zxvfscala-2.12.15.tgztar-zxvfspark-3.0.3-bin-had
- 【Hadoop】Yarn资源管理调度
大数据hadoopyarn
一、Yarn产生背景Yarn(全称为YetAnotherResourceNegotiator,译为"另一个资源协调者")在Hadoop2.0版本中引入,其诞生是为了解决Hadoop1.x架构中MapReduce的资源管理和计算框架耦合的问题。简而言之,就是之前MapReduce的资源管理和计算框架是耦合在一起的,为了解耦而设计出了Yarn。Yarn是一种新的Hadoop资源管理器,它是一个通用资源
- kafka connect,将数据批量写到hdfs完整过程
weixin_34162401
大数据数据库json
为什么80%的码农都做不了架构师?>>>本文是基于hadoop2.7.1,以及kafka0.11.0.0。kafka-connect是以单节点模式运行,即standalone。一.kafka和kafkaconnect简介kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。比较直观的解释就是其有一个生产者(producer)和一个消费者(con
- hadoop集群配置-scp拓展使用
杜清卿
hadoop服务器大数据
任务1:在hadoop102上,将hadoop101中/opt/module/hadoop-3.1.3目录拷贝到hadoop102上。分析:使用scp进行拉取操作:先登录到hadoop2使用命令:scp-rroot@hadoop101:/opt/module/hadoop-3.1.3/opt/module/任务2:在hadoop101上操作,将hadoop100中/opt/module目录下所有目
- CentOS 7系统中hadoop的安装和环境配置
代码小张z
centoshadooplinux
1.创建Hadoop安装解压路径:mkdir-p/usr/hadoop2.进入路径:cd/usr/hadoop3.下载安装包(我这里用的是阿里云镜像压缩包):wgethttps://mirrors.aliyun.com/apache/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz4.解压安装包到hadoop文件路径:tar-zxvf/usr/hadoo
- hadoop运行java程序命令_使用命令行编译打包运行自己的MapReduce程序 Hadoop2.6.0
emi0wb
网上的MapReduceWordCount教程对于如何编译WordCount.java几乎是一笔带过…而有写到的,大多又是0.20等旧版本版本的做法,即javac-classpath/usr/local/hadoop/hadoop-1.0.1/hadoop-core-1.0.1.jarWordCount.java,但较新的2.X版本中,已经没有hadoop-core*.jar这个文件,因此编辑和打
- docker-compose -volumes 两种不同定义方式
胖胖胖胖胖虎
Dockerdockerhadoopbigdata
学习docker-compose部署hadoop集群、看到docker-compose一种不同volumes定义方式version:"3"services:namenode:image:bde2020/hadoop-namenode:2.0.0-hadoop2.7.4-java8volumes:-namenode:/hadoop/dfs/nameenvironment:-CLUSTER_NAME=
- spark程序提交到集群上_Spark集群模式&Spark程序提交
毫无特色
spark程序提交到集群上
Spark集群模式&Spark程序提交1.集群管理器Spark当前支持三种集群管理方式Standalone—Spark自带的一种集群管理方式,易于构建集群。ApacheMesos—通用的集群管理,可以在其上运行HadoopMapReduce和一些服务应用。HadoopYARN—Hadoop2中的资源管理器。Tip1:在集群不是特别大,并且没有mapReduce和Spark同时运行的需求的情况下,用
- Hadoop常用端口号
海洋 之心
Hadoop问题解决hadoophbase大数据
Hadoop是一个由多个组件构成的分布式系统,每个组件都会使用一些特定的端口号来进行通信和交互。以下是Hadoop2.x常用的端口号列表:HDFS端口号:NameNode:50070SecondaryNameNode:50090DataNode:50010DataNode(数据传输):50020YARN端口号:ResourceManager:8088NodeManager:8042MapReduc
- Ubuntu下配置安装Hadoop 2.2
weixin_30501857
大数据java运维
---恢复内容开始---这两天玩Hadoop,之前在我的Mac上配置了好长时间都没成功的Hadoop环境,今天想在win7虚拟机下的Ubuntu12.0464位机下配置,然后再建一个组群看一看。参考资料:1.InstallingsinglenodeHadoop2.2.0onUbuntu:http://bigdatahandler.com/hadoop-hdfs/installing-single-
- 多线程编程之理财
周凡杨
java多线程生产者消费者理财
现实生活中,我们一边工作,一边消费,正常情况下会把多余的钱存起来,比如存到余额宝,还可以多挣点钱,现在就有这个情况:我每月可以发工资20000万元 (暂定每月的1号),每月消费5000(租房+生活费)元(暂定每月的1号),其中租金是大头占90%,交房租的方式可以选择(一月一交,两月一交、三月一交),理财:1万元存余额宝一天可以赚1元钱,
- [Zookeeper学习笔记之三]Zookeeper会话超时机制
bit1129
zookeeper
首先,会话超时是由Zookeeper服务端通知客户端会话已经超时,客户端不能自行决定会话已经超时,不过客户端可以通过调用Zookeeper.close()主动的发起会话结束请求,如下的代码输出内容
Created /zoo-739160015
CONNECTEDCONNECTED
.............CONNECTEDCONNECTED
CONNECTEDCLOSEDCLOSED
- SecureCRT快捷键
daizj
secureCRT快捷键
ctrl + a : 移动光标到行首ctrl + e :移动光标到行尾crtl + b: 光标前移1个字符crtl + f: 光标后移1个字符crtl + h : 删除光标之前的一个字符ctrl + d :删除光标之后的一个字符crtl + k :删除光标到行尾所有字符crtl + u : 删除光标至行首所有字符crtl + w: 删除光标至行首
- Java 子类与父类这间的转换
周凡杨
java 父类与子类的转换
最近同事调的一个服务报错,查看后是日期之间转换出的问题。代码里是把 java.sql.Date 类型的对象 强制转换为 java.sql.Timestamp 类型的对象。报java.lang.ClassCastException。
代码:
- 可视化swing界面编辑
朱辉辉33
eclipseswing
今天发现了一个WindowBuilder插件,功能好强大,啊哈哈,从此告别手动编辑swing界面代码,直接像VB那样编辑界面,代码会自动生成。
首先在Eclipse中点击help,选择Install New Software,然后在Work with中输入WindowBui
- web报表工具FineReport常用函数的用法总结(文本函数)
老A不折腾
finereportweb报表工具报表软件java报表
文本函数
CHAR
CHAR(number):根据指定数字返回对应的字符。CHAR函数可将计算机其他类型的数字代码转换为字符。
Number:用于指定字符的数字,介于1Number:用于指定字符的数字,介于165535之间(包括1和65535)。
示例:
CHAR(88)等于“X”。
CHAR(45)等于“-”。
CODE
CODE(text):计算文本串中第一个字
- mysql安装出错
林鹤霄
mysql安装
[root@localhost ~]# rpm -ivh MySQL-server-5.5.24-1.linux2.6.x86_64.rpm Preparing... #####################
- linux下编译libuv
aigo
libuv
下载最新版本的libuv源码,解压后执行:
./autogen.sh
这时会提醒找不到automake命令,通过一下命令执行安装(redhat系用yum,Debian系用apt-get):
# yum -y install automake
# yum -y install libtool
如果提示错误:make: *** No targe
- 中国行政区数据及三级联动菜单
alxw4616
近期做项目需要三级联动菜单,上网查了半天竟然没有发现一个能直接用的!
呵呵,都要自己填数据....我了个去这东西麻烦就麻烦的数据上.
哎,自己没办法动手写吧.
现将这些数据共享出了,以方便大家.嗯,代码也可以直接使用
文件说明
lib\area.sql -- 县及县以上行政区划分代码(截止2013年8月31日)来源:国家统计局 发布时间:2014-01-17 15:0
- 哈夫曼加密文件
百合不是茶
哈夫曼压缩哈夫曼加密二叉树
在上一篇介绍过哈夫曼编码的基础知识,下面就直接介绍使用哈夫曼编码怎么来做文件加密或者压缩与解压的软件,对于新手来是有点难度的,主要还是要理清楚步骤;
加密步骤:
1,统计文件中字节出现的次数,作为权值
2,创建节点和哈夫曼树
3,得到每个子节点01串
4,使用哈夫曼编码表示每个字节
- JDK1.5 Cyclicbarrier实例
bijian1013
javathreadjava多线程Cyclicbarrier
CyclicBarrier类
一个同步辅助类,它允许一组线程互相等待,直到到达某个公共屏障点 (common barrier point)。在涉及一组固定大小的线程的程序中,这些线程必须不时地互相等待,此时 CyclicBarrier 很有用。因为该 barrier 在释放等待线程后可以重用,所以称它为循环的 barrier。
CyclicBarrier支持一个可选的 Runnable 命令,
- 九项重要的职业规划
bijian1013
工作学习
一. 学习的步伐不停止 古人说,活到老,学到老。终身学习应该是您的座右铭。 世界在不断变化,每个人都在寻找各自的事业途径。 您只有保证了足够的技能储
- 【Java范型四】范型方法
bit1129
java
范型参数不仅仅可以用于类型的声明上,例如
package com.tom.lang.generics;
import java.util.List;
public class Generics<T> {
private T value;
public Generics(T value) {
this.value =
- 【Hadoop十三】HDFS Java API基本操作
bit1129
hadoop
package com.examples.hadoop;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoo
- ua实现split字符串分隔
ronin47
lua split
LUA并不象其它许多"大而全"的语言那样,包括很多功能,比如网络通讯、图形界面等。但是LUA可以很容易地被扩展:由宿主语言(通常是C或 C++)提供这些功能,LUA可以使用它们,就像是本来就内置的功能一样。LUA只包括一个精简的核心和最基本的库。这使得LUA体积小、启动速度快,从 而适合嵌入在别的程序里。因此在lua中并没有其他语言那样多的系统函数。习惯了其他语言的字符串分割函
- java-从先序遍历和中序遍历重建二叉树
bylijinnan
java
public class BuildTreePreOrderInOrder {
/**
* Build Binary Tree from PreOrder and InOrder
* _______7______
/ \
__10__ ___2
/ \ /
4
- openfire开发指南《连接和登陆》
开窍的石头
openfire开发指南smack
第一步
官网下载smack.jar包
下载地址:http://www.igniterealtime.org/downloads/index.jsp#smack
第二步
把smack里边的jar导入你新建的java项目中
开始编写smack连接openfire代码
p
- [移动通讯]手机后盖应该按需要能够随时开启
comsci
移动
看到新的手机,很多由金属材质做的外壳,内存和闪存容量越来越大,CPU速度越来越快,对于这些改进,我们非常高兴,也非常欢迎
但是,对于手机的新设计,有几点我们也要注意
第一:手机的后盖应该能够被用户自行取下来,手机的电池的可更换性应该是必须保留的设计,
- 20款国外知名的php开源cms系统
cuiyadll
cms
内容管理系统,简称CMS,是一种简易的发布和管理新闻的程序。用户可以在后端管理系统中发布,编辑和删除文章,即使您不需要懂得HTML和其他脚本语言,这就是CMS的优点。
在这里我决定介绍20款目前国外市面上最流行的开源的PHP内容管理系统,以便没有PHP知识的读者也可以通过国外内容管理系统建立自己的网站。
1. Wordpress
WordPress的是一个功能强大且易于使用的内容管
- Java生成全局唯一标识符
darrenzhu
javauuiduniqueidentifierid
How to generate a globally unique identifier in Java
http://stackoverflow.com/questions/21536572/generate-unique-id-in-java-to-label-groups-of-related-entries-in-a-log
http://stackoverflow
- php安装模块检测是否已安装过, 使用的SQL语句
dcj3sjt126com
sql
SHOW [FULL] TABLES [FROM db_name] [LIKE 'pattern']
SHOW TABLES列举了给定数据库中的非TEMPORARY表。您也可以使用mysqlshow db_name命令得到此清单。
本命令也列举数据库中的其它视图。支持FULL修改符,这样SHOW FULL TABLES就可以显示第二个输出列。对于一个表,第二列的值为BASE T
- 5天学会一种 web 开发框架
dcj3sjt126com
Web框架framework
web framework层出不穷,特别是ruby/python,各有10+个,php/java也是一大堆 根据我自己的经验写了一个to do list,按照这个清单,一条一条的学习,事半功倍,很快就能掌握 一共25条,即便很磨蹭,2小时也能搞定一条,25*2=50。只需要50小时就能掌握任意一种web框架
各类web框架大同小异:现代web开发框架的6大元素,把握主线,就不会迷路
建议把本文
- Gson使用三(Map集合的处理,一对多处理)
eksliang
jsongsonGson mapGson 集合处理
转载请出自出处:http://eksliang.iteye.com/blog/2175532 一、概述
Map保存的是键值对的形式,Json的格式也是键值对的,所以正常情况下,map跟json之间的转换应当是理所当然的事情。 二、Map参考实例
package com.ickes.json;
import java.lang.refl
- cordova实现“再点击一次退出”效果
gundumw100
android
基本的写法如下:
document.addEventListener("deviceready", onDeviceReady, false);
function onDeviceReady() {
//navigator.splashscreen.hide();
document.addEventListener("b
- openldap configuration leaning note
iwindyforest
configuration
hostname // to display the computer name
hostname <changed name> // to change
go to: /etc/sysconfig/network, add/modify HOSTNAME=NEWNAME to change permenately
dont forget to change /etc/hosts
- Nullability and Objective-C
啸笑天
Objective-C
https://developer.apple.com/swift/blog/?id=25
http://www.cocoachina.com/ios/20150601/11989.html
http://blog.csdn.net/zhangao0086/article/details/44409913
http://blog.sunnyxx
- jsp中实现参数隐藏的两种方法
macroli
JavaScriptjsp
在一个JSP页面有一个链接,//确定是一个链接?点击弹出一个页面,需要传给这个页面一些参数。//正常的方法是设置弹出页面的src="***.do?p1=aaa&p2=bbb&p3=ccc"//确定目标URL是Action来处理?但是这样会在页面上看到传过来的参数,可能会不安全。要求实现src="***.do",参数通过其他方法传!//////
- Bootstrap A标签关闭modal并打开新的链接解决方案
qiaolevip
每天进步一点点学习永无止境bootstrap纵观千象
Bootstrap里面的js modal控件使用起来很方便,关闭也很简单。只需添加标签 data-dismiss="modal" 即可。
可是偏偏有时候需要a标签既要关闭modal,有要打开新的链接,尝试多种方法未果。只好使用原始js来控制。
<a href="#/group-buy" class="btn bt
- 二维数组在Java和C中的区别
流淚的芥末
javac二维数组数组
Java代码:
public class test03 {
public static void main(String[] args) {
int[][] a = {{1},{2,3},{4,5,6}};
System.out.println(a[0][1]);
}
}
运行结果:
Exception in thread "mai
- systemctl命令用法
wmlJava
linuxsystemctl
对比表,以 apache / httpd 为例 任务 旧指令 新指令 使某服务自动启动 chkconfig --level 3 httpd on systemctl enable httpd.service 使某服务不自动启动 chkconfig --level 3 httpd off systemctl disable httpd.service 检查服务状态 service h