- 输入hadoop version时,解决Cannot execute /home/hadoop/libexec/hadoop-config.sh.的方法
有奇妙能力吗
ubuntuhadoophdfslinux大数据分布式
在ubuntu用hadoopversion遇到了一个错误:Cannotexecute/home/hadoop/hadoop2.8/libexec/hadoop-config.sh.解决方法:在/etc/profile中找到了这个HADOOP_HOME全局变量,将其删除运行source/etc/profile输入vim.bashrc命令,在最后一行输入unsetHADOOP_HOMEsource.b
- 什么是Hadoop Yarn
ThisIsClark
大数据hadoop大数据分布式
HadoopYARN:分布式集群资源管理系统详解1.什么是YARN?YARN(YetAnotherResourceNegotiator)是ApacheHadoop生态系统中的资源管理和作业调度系统,最初在Hadoop2.0中引入,取代了Hadoop1.0的MapReduce1(MRv1)架构。它的核心目标是提高集群资源利用率,并支持多种计算框架(如MapReduce、Spark、Flink等)在同
- 虚拟机hadoop集群启动时DataNode进程缺失
Magicalapologize
hadooplinux大数据
虚拟机hadoop集群启动时DataNode进程缺失1.出现问题:在Linux命令窗口中输入Jps查询hadoop启动项目时缺少DataNode进程;2.问题原因:使用格式化命令之后又再次进行格式化,导致namenodeDatas文件序列号不一致使之启动失败3.解决方案:删除三台虚拟机hadoop2.7.5安装目录下/export/install/hadoop-2.7.5/hadoopDatas中
- Hadoop 端口号及常用配置文件
m0_63648117
hadoophadoop大数据分布式
一、常用端口号hadoop3.x:HDFSNameNode内部通常端口:8020/9000/9820HDFSNameNode对用户的查询端口:9870Yarn查看任务运行情况的端口:8088历史服务器:19888hadoop2.x:HDFSNameNode内部通常端口:8020/9000HDFSNameNode对用户的查询端口:50070Yarn查看任务运行情况的端口:8088历史服务器:1988
- Hadoop常用端口及配置文件
耐码
hadoop大数据
Hadoop常用端口号Hadoop常用端口号Hadoop2.XHadoop3.XHDFSNameNode内部通信端口8020/90008020/9000/9820HDFSNameNodeweb端口500709870HDFSDataNodeweb端口500759864Yarn查看任务端口80888088历史服务器通信端口1988819888Hadoop常用配置文件Hadoop3.Xcore-site
- Hadoop常用端口号和配置文件
jiedaodezhuti
hadoop大数据分布式
常用端口号有:hadoop2.xHadoop3.x访问HDFS端口500709870访问MR执行情况端口80888088历史服务器1988819888客户端访问集群端口90008020常用配置文件hadoop2.xcore-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xmlslaveshadoop3.xcore-site.xml、hdfs-si
- Hadoop的组成,HDFS架构,YARN架构概述
计算机人哪有不疯的
hadoop数据库大数据spark
Hadoop的组成Hadoop1.X时代,Hadoop中的MapReduce同时处理业务逻辑运算和资源的调度,耦合性较大。Hadoop2.X时代,增加了Yarn,Yarn只负责资源的调度,MapReduce只负责运算。Hadoop3.X时代,在组成上并没有变化。一共有四个组成部分:MapReduce计算,Yarn资源调度,HDFS数据存储,Common辅助工具。HDFS架构HadoopDistri
- sqoop到数据到mysql报错_hadoop sqoop 同步hive数据到mysql报错 classnotfound
Sinaean Dean
今天在CDH5.4.4环境下,用sqoop导出mysql数据,然后再导入hive,成功用sqoop同步hive数据到mysql失败,求大神答疑:1.hive下有一个表testamysql下有一个表testa结构一样2.版本hadoop2.6CDH5.4.4sqoop1.4.5-CDH5.4.4JDK1.7MySQL5.53.导数命令为sqoopexport-Dmapred.job.queue.na
- ssh免密 linux 极简教程
青瓜先生
大数据hadoopssh大数据linux
解决hadoop集群ssh免密登录通信问题1、家目录/home/xxx/.ssh文件夹下[xxx@hadoop201~]$cd/home/xxx/.ssh2、生成公钥和私钥:[
[email protected]]$ssh-keygen-trsa#然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)3、将公钥拷贝到要免密登录的目标机器上[xxx@hadoop201.
- hadoop+hive+spark+zookeeper+hbase大数据环境搭建
fengwuxichen
大数据hadoopsparkhbase
1.硬件环境主机名IP地址操作系统master172.16.34.101CentOSLinuxrelease7.3.1611slave01172.16.34.102CentOSLinuxrelease7.3.1611slave03172.16.34.103CentOSLinuxrelease7.3.16112.软件版本软件名称版本hadoop2.7.7hive1.2.2spark2.3.4zook
- 《云计算》第三版总结
冰菓Neko
书籍云计算
《云计算》第三版总结云计算体系结构云计算成本优势开源云计算架构Hadoop2.0Hadoop体系架构Hadoop访问接口Hadoop编程接口Hadoop大家族分布式组件概述ZooKeeperHbasePigHiveOozieFlumeMahout虚拟化技术服务器虚拟化存储虚拟化网络虚拟化桌面虚拟化OpenStack开源虚拟化平台NovaSwiftGlance云计算核心算法PaxosDHTGossi
- 《大数据: Spark Standalone 模式配置历史服务器》
HarkerYX
一、配置历史服务器1.上一篇说到Standalone集群模式时候客户端看不到信息,driver:8081虽然能看到日志和结果,但是体验非常差2.spark-shell本身就是客户端模式,这个是改不了为cluster模式,并且运行时候日志打印是有,但是一旦退出了再也没地方看到日志了yexiang@hadoop2:$bin/spark-shell\>--masterspark://hadoop2:70
- spark配置历史服务
都教授2000
大数据spark
1:配置spark-default.conf文件,开启Logcpspark-defaults.conf.templatespark-defaults.conf在spark-defaults.conf文件中,添加如下内容:spark.eventLog.enabledtruespark.eventLog.dirhdfs://hadoop213:9000/spark-job-log2:修改spark-e
- Hive安装与配置教程
爱编程的王小美
hivehadoop数据仓库
Hive安装与配置教程1.环境准备1.1系统要求Java8或更高版本Hadoop2.x或更高版本MySQL或其他关系型数据库(用于存储元数据)1.2安装依赖#安装Javasudoaptupdatesudoaptinstallopenjdk-8-jdk#安装MySQLsudoaptinstallmysql-server2.下载并安装Hive2.1下载Hive#创建安装目录sudomkdir-p/us
- [大数据技术与应用省赛学习记录一]——软件准备
Ench77
大数据技术与应用比赛筹备大数据
@JIAQI第一章大数据平台环境搭建在指定主机上完成Hadoop完全分布式、Spark、Flink、kafka、flume的安装配置赛前准备主办方要求使用以下相关版本软件环境,仅供参考:设备类型软件类别软件名称、版本号竞赛服务器竞赛环境大数据集群操作系统Centos7大数据平台组件unbuntu18.04Hadoop2.7.7Hive2.3.4Spark2.1.1Kafka2.0.0Redis4.
- Spark总结
等雨季
spark大数据分布式
一、Spark概念:Spark是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。1、SparkandHadoop的关系(1)首先从时间节点上来看:➢Hadoop2006年1月,DougCutting加入Yahoo,领导Hadoop的开发2008年1月,Hadoop成为Apache顶级项目2011年1.0正式发布2012年3月稳定版发布2013年10月发布2.X(Yarn)版本➢Spark20
- Ubuntu下安装Hive3.1.2教程(附MySQL安装方法及安装包)
hjseo_seg
面试阿里巴巴mysqlubuntuhadoop开发语言人工智能
文章目录前言一、安装Hive1.下载压缩包并解压2.安装Hive3.配置环境变量4.修改配置文件二、MySQL安装与配置1.安装MySQL2.安装MySQLjdbc包3.为Hive创建MySQL账号三、验证Hive安装及错误处理1.启动Hadoop2.启动hive3.运行Hive实例总结前言Hive的安装需要建立在Hadoop的之上(类似于Hbase),关于Hadoop的单机安装以及伪分布式安装可
- 架构中 MapReduce 的资源管理和计算框架耦合 的问题
Yarn(全称为YetAnotherResourceNegotiator,译为"另一个资源协调者")在Hadoop2.0版本中引入,其诞生是为了解决Hadoop1.x架构中MapReduce的资源管理和计算框架耦合的问题。简而言之,就是之前MapReduce的资源管理和计算框架是耦合在一起的,为了解耦而设计出了Yarn。Yarn是一种新的Hadoop资源管理器,它是一个通用资源管理系统,提供统一的
- yarn的定义
yyywoaini~
java开发语言
###YARN的定义及其在Hadoop生态系统中的角色####1.**YARN的定义**YARN(YetAnotherResourceNegotiator)是Hadoop2.x版本引入的一个全新资源管理和作业调度框架。它的主要目标是分离资源管理和任务调度的功能,从而提高系统的灵活性和扩展性。YARN的设计允许不同的计算框架(如MapReduce、Spark、Flink等)在同一Hadoop集群中共
- 【HDFS入门】Hadoop 2.0+ HDFS核心架构深度解析:高可用设计揭秘
IT成长日记
大数据成长笔记hadoophdfs架构高可用
目录1HDFS核心架构概述2高可用设计背景3HDFS核心组件3.1Active与StandbyNameNode3.2JournalNode3.3ZKFailoverController(ZKFC)3.4DataNode4高可用设计的工作流程写入阶段:元数据同步:健康监测:故障转移:5高可用设计的优势6总结1HDFS核心架构概述Hadoop2.0及以后版本的HDFS(HadoopDistribute
- spark配置——local模式-yarn模式-spark集群
邪王真眼是最强的哦耶
sparkscalabigdata大数据
准备三台配置hadoop集群的虚拟机(分别是hadoop0、hadoop1和hadoop2)下载spark,scala,anacondaspark下载地址scala下载地址Anaconda下载地址将下载的软件上传到虚拟机上local模式解压spark和scala,并重命名到program文件夹下tar-zxvfscala-2.12.15.tgztar-zxvfspark-3.0.3-bin-had
- 【Hadoop】Yarn资源管理调度
大数据hadoopyarn
一、Yarn产生背景Yarn(全称为YetAnotherResourceNegotiator,译为"另一个资源协调者")在Hadoop2.0版本中引入,其诞生是为了解决Hadoop1.x架构中MapReduce的资源管理和计算框架耦合的问题。简而言之,就是之前MapReduce的资源管理和计算框架是耦合在一起的,为了解耦而设计出了Yarn。Yarn是一种新的Hadoop资源管理器,它是一个通用资源
- kafka connect,将数据批量写到hdfs完整过程
weixin_34162401
大数据数据库json
为什么80%的码农都做不了架构师?>>>本文是基于hadoop2.7.1,以及kafka0.11.0.0。kafka-connect是以单节点模式运行,即standalone。一.kafka和kafkaconnect简介kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。比较直观的解释就是其有一个生产者(producer)和一个消费者(con
- hadoop集群配置-scp拓展使用
杜清卿
hadoop服务器大数据
任务1:在hadoop102上,将hadoop101中/opt/module/hadoop-3.1.3目录拷贝到hadoop102上。分析:使用scp进行拉取操作:先登录到hadoop2使用命令:scp-rroot@hadoop101:/opt/module/hadoop-3.1.3/opt/module/任务2:在hadoop101上操作,将hadoop100中/opt/module目录下所有目
- CentOS 7系统中hadoop的安装和环境配置
代码小张z
centoshadooplinux
1.创建Hadoop安装解压路径:mkdir-p/usr/hadoop2.进入路径:cd/usr/hadoop3.下载安装包(我这里用的是阿里云镜像压缩包):wgethttps://mirrors.aliyun.com/apache/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz4.解压安装包到hadoop文件路径:tar-zxvf/usr/hadoo
- hadoop运行java程序命令_使用命令行编译打包运行自己的MapReduce程序 Hadoop2.6.0
emi0wb
网上的MapReduceWordCount教程对于如何编译WordCount.java几乎是一笔带过…而有写到的,大多又是0.20等旧版本版本的做法,即javac-classpath/usr/local/hadoop/hadoop-1.0.1/hadoop-core-1.0.1.jarWordCount.java,但较新的2.X版本中,已经没有hadoop-core*.jar这个文件,因此编辑和打
- docker-compose -volumes 两种不同定义方式
胖胖胖胖胖虎
Dockerdockerhadoopbigdata
学习docker-compose部署hadoop集群、看到docker-compose一种不同volumes定义方式version:"3"services:namenode:image:bde2020/hadoop-namenode:2.0.0-hadoop2.7.4-java8volumes:-namenode:/hadoop/dfs/nameenvironment:-CLUSTER_NAME=
- spark程序提交到集群上_Spark集群模式&Spark程序提交
毫无特色
spark程序提交到集群上
Spark集群模式&Spark程序提交1.集群管理器Spark当前支持三种集群管理方式Standalone—Spark自带的一种集群管理方式,易于构建集群。ApacheMesos—通用的集群管理,可以在其上运行HadoopMapReduce和一些服务应用。HadoopYARN—Hadoop2中的资源管理器。Tip1:在集群不是特别大,并且没有mapReduce和Spark同时运行的需求的情况下,用
- Hadoop常用端口号
海洋 之心
Hadoop问题解决hadoophbase大数据
Hadoop是一个由多个组件构成的分布式系统,每个组件都会使用一些特定的端口号来进行通信和交互。以下是Hadoop2.x常用的端口号列表:HDFS端口号:NameNode:50070SecondaryNameNode:50090DataNode:50010DataNode(数据传输):50020YARN端口号:ResourceManager:8088NodeManager:8042MapReduc
- Ubuntu下配置安装Hadoop 2.2
weixin_30501857
大数据java运维
---恢复内容开始---这两天玩Hadoop,之前在我的Mac上配置了好长时间都没成功的Hadoop环境,今天想在win7虚拟机下的Ubuntu12.0464位机下配置,然后再建一个组群看一看。参考资料:1.InstallingsinglenodeHadoop2.2.0onUbuntu:http://bigdatahandler.com/hadoop-hdfs/installing-single-
- Js函数返回值
_wy_
jsreturn
一、返回控制与函数结果,语法为:return 表达式;作用: 结束函数执行,返回调用函数,而且把表达式的值作为函数的结果 二、返回控制语法为:return;作用: 结束函数执行,返回调用函数,而且把undefined作为函数的结果 在大多数情况下,为事件处理函数返回false,可以防止默认的事件行为.例如,默认情况下点击一个<a>元素,页面会跳转到该元素href属性
- MySQL 的 char 与 varchar
bylijinnan
mysql
今天发现,create table 时,MySQL 4.1有时会把 char 自动转换成 varchar
测试举例:
CREATE TABLE `varcharLessThan4` (
`lastName` varchar(3)
) ;
mysql> desc varcharLessThan4;
+----------+---------+------+-
- Quartz——TriggerListener和JobListener
eksliang
TriggerListenerJobListenerquartz
转载请出自出处:http://eksliang.iteye.com/blog/2208624 一.概述
listener是一个监听器对象,用于监听scheduler中发生的事件,然后执行相应的操作;你可能已经猜到了,TriggerListeners接受与trigger相关的事件,JobListeners接受与jobs相关的事件。
二.JobListener监听器
j
- oracle层次查询
18289753290
oracle;层次查询;树查询
.oracle层次查询(connect by)
oracle的emp表中包含了一列mgr指出谁是雇员的经理,由于经理也是雇员,所以经理的信息也存储在emp表中。这样emp表就是一个自引用表,表中的mgr列是一个自引用列,它指向emp表中的empno列,mgr表示一个员工的管理者,
select empno,mgr,ename,sal from e
- 通过反射把map中的属性赋值到实体类bean对象中
酷的飞上天空
javaee泛型类型转换
使用过struts2后感觉最方便的就是这个框架能自动把表单的参数赋值到action里面的对象中
但现在主要使用Spring框架的MVC,虽然也有@ModelAttribute可以使用但是明显感觉不方便。
好吧,那就自己再造一个轮子吧。
原理都知道,就是利用反射进行字段的赋值,下面贴代码
主要类如下:
import java.lang.reflect.Field;
imp
- SAP HANA数据存储:传统硬盘的瓶颈问题
蓝儿唯美
HANA
SAPHANA平台有各种各样的应用场景,这也意味着客户的实施方法有许多种选择,关键是如何挑选最适合他们需求的实施方案。
在 《Implementing SAP HANA》这本书中,介绍了SAP平台在现实场景中的运作原理,并给出了实施建议和成功案例供参考。本系列文章节选自《Implementing SAP HANA》,介绍了行存储和列存储的各自特点,以及SAP HANA的数据存储方式如何提升空间压
- Java Socket 多线程实现文件传输
随便小屋
javasocket
高级操作系统作业,让用Socket实现文件传输,有些代码也是在网上找的,写的不好,如果大家能用就用上。
客户端类:
package edu.logic.client;
import java.io.BufferedInputStream;
import java.io.Buffered
- java初学者路径
aijuans
java
学习Java有没有什么捷径?要想学好Java,首先要知道Java的大致分类。自从Sun推出Java以来,就力图使之无所不包,所以Java发展到现在,按应用来分主要分为三大块:J2SE,J2ME和J2EE,这也就是Sun ONE(Open Net Environment)体系。J2SE就是Java2的标准版,主要用于桌面应用软件的编程;J2ME主要应用于嵌入是系统开发,如手机和PDA的编程;J2EE
- APP推广
aoyouzi
APP推广
一,免费篇
1,APP推荐类网站自主推荐
最美应用、酷安网、DEMO8、木蚂蚁发现频道等,如果产品独特新颖,还能获取最美应用的评测推荐。PS:推荐简单。只要产品有趣好玩,用户会自主分享传播。例如足迹APP在最美应用推荐一次,几天用户暴增将服务器击垮。
2,各大应用商店首发合作
老实盯着排期,多给应用市场官方负责人献殷勤。
3,论坛贴吧推广
百度知道,百度贴吧,猫扑论坛,天涯社区,豆瓣(
- JSP转发与重定向
百合不是茶
jspservletJava Webjsp转发
在servlet和jsp中我们经常需要请求,这时就需要用到转发和重定向;
转发包括;forward和include
例子;forwrad转发; 将请求装法给reg.html页面
关键代码;
req.getRequestDispatcher("reg.html
- web.xml之jsp-config
bijian1013
javaweb.xmlservletjsp-config
1.作用:主要用于设定JSP页面的相关配置。
2.常见定义:
<jsp-config>
<taglib>
<taglib-uri>URI(定义TLD文件的URI,JSP页面的tablib命令可以经由此URI获取到TLD文件)</tablib-uri>
<taglib-location>
TLD文件所在的位置
- JSF2.2 ViewScoped Using CDI
sunjing
CDIJSF 2.2ViewScoped
JSF 2.0 introduced annotation @ViewScoped; A bean annotated with this scope maintained its state as long as the user stays on the same view(reloads or navigation - no intervening views). One problem w
- 【分布式数据一致性二】Zookeeper数据读写一致性
bit1129
zookeeper
很多文档说Zookeeper是强一致性保证,事实不然。关于一致性模型请参考http://bit1129.iteye.com/blog/2155336
Zookeeper的数据同步协议
Zookeeper采用称为Quorum Based Protocol的数据同步协议。假如Zookeeper集群有N台Zookeeper服务器(N通常取奇数,3台能够满足数据可靠性同时
- Java开发笔记
白糖_
java开发
1、Map<key,value>的remove方法只能识别相同类型的key值
Map<Integer,String> map = new HashMap<Integer,String>();
map.put(1,"a");
map.put(2,"b");
map.put(3,"c"
- 图片黑色阴影
bozch
图片
.event{ padding:0; width:460px; min-width: 460px; border:0px solid #e4e4e4; height: 350px; min-heig
- 编程之美-饮料供货-动态规划
bylijinnan
动态规划
import java.util.Arrays;
import java.util.Random;
public class BeverageSupply {
/**
* 编程之美 饮料供货
* 设Opt(V’,i)表示从i到n-1种饮料中,总容量为V’的方案中,满意度之和的最大值。
* 那么递归式就应该是:Opt(V’,i)=max{ k * Hi+Op
- ajax大参数(大数据)提交性能分析
chenbowen00
WebAjax框架浏览器prototype
近期在项目中发现如下一个问题
项目中有个提交现场事件的功能,该功能主要是在web客户端保存现场数据(主要有截屏,终端日志等信息)然后提交到服务器上方便我们分析定位问题。客户在使用该功能的过程中反应点击提交后反应很慢,大概要等10到20秒的时间浏览器才能操作,期间页面不响应事件。
根据客户描述分析了下的代码流程,很简单,主要通过OCX控件截屏,在将前端的日志等文件使用OCX控件打包,在将之转换为
- [宇宙与天文]在太空采矿,在太空建造
comsci
我们在太空进行工业活动...但是不太可能把太空工业产品又运回到地面上进行加工,而一般是在哪里开采,就在哪里加工,太空的微重力环境,可能会使我们的工业产品的制造尺度非常巨大....
地球上制造的最大工业机器是超级油轮和航空母舰,再大些就会遇到困难了,但是在空间船坞中,制造的最大工业机器,可能就没
- ORACLE中CONSTRAINT的四对属性
daizj
oracleCONSTRAINT
ORACLE中CONSTRAINT的四对属性
summary:在data migrate时,某些表的约束总是困扰着我们,让我们的migratet举步维艰,如何利用约束本身的属性来处理这些问题呢?本文详细介绍了约束的四对属性: Deferrable/not deferrable, Deferred/immediate, enalbe/disable, validate/novalidate,以及如
- Gradle入门教程
dengkane
gradle
一、寻找gradle的历程
一开始的时候,我们只有一个工程,所有要用到的jar包都放到工程目录下面,时间长了,工程越来越大,使用到的jar包也越来越多,难以理解jar之间的依赖关系。再后来我们把旧的工程拆分到不同的工程里,靠ide来管理工程之间的依赖关系,各工程下的jar包依赖是杂乱的。一段时间后,我们发现用ide来管理项程很不方便,比如不方便脱离ide自动构建,于是我们写自己的ant脚本。再后
- C语言简单循环示例
dcj3sjt126com
c
# include <stdio.h>
int main(void)
{
int i;
int count = 0;
int sum = 0;
float avg;
for (i=1; i<=100; i++)
{
if (i%2==0)
{
count++;
sum += i;
}
}
avg
- presentModalViewController 的动画效果
dcj3sjt126com
controller
系统自带(四种效果):
presentModalViewController模态的动画效果设置:
[cpp]
view plain
copy
UIViewController *detailViewController = [[UIViewController al
- java 二分查找
shuizhaosi888
二分查找java二分查找
需求:在排好顺序的一串数字中,找到数字T
一般解法:从左到右扫描数据,其运行花费线性时间O(N)。然而这个算法并没有用到该表已经排序的事实。
/**
*
* @param array
* 顺序数组
* @param t
* 要查找对象
* @return
*/
public stati
- Spring Security(07)——缓存UserDetails
234390216
ehcache缓存Spring Security
Spring Security提供了一个实现了可以缓存UserDetails的UserDetailsService实现类,CachingUserDetailsService。该类的构造接收一个用于真正加载UserDetails的UserDetailsService实现类。当需要加载UserDetails时,其首先会从缓存中获取,如果缓存中没
- Dozer 深层次复制
jayluns
VOmavenpo
最近在做项目上遇到了一些小问题,因为架构在做设计的时候web前段展示用到了vo层,而在后台进行与数据库层操作的时候用到的是Po层。这样在业务层返回vo到控制层,每一次都需要从po-->转化到vo层,用到BeanUtils.copyProperties(source, target)只能复制简单的属性,因为实体类都配置了hibernate那些关联关系,所以它满足不了现在的需求,但后发现还有个很
- CSS规范整理(摘自懒人图库)
a409435341
htmlUIcss浏览器
刚没事闲着在网上瞎逛,找了一篇CSS规范整理,粗略看了一下后还蛮有一定的道理,并自问是否有这样的规范,这也是初入前端开发的人一个很好的规范吧。
一、文件规范
1、文件均归档至约定的目录中。
具体要求通过豆瓣的CSS规范进行讲解:
所有的CSS分为两大类:通用类和业务类。通用的CSS文件,放在如下目录中:
基本样式库 /css/core
- C++动态链接库创建与使用
你不认识的休道人
C++dll
一、创建动态链接库
1.新建工程test中选择”MFC [dll]”dll类型选择第二项"Regular DLL With MFC shared linked",完成
2.在test.h中添加
extern “C” 返回类型 _declspec(dllexport)函数名(参数列表);
3.在test.cpp中最后写
extern “C” 返回类型 _decls
- Android代码混淆之ProGuard
rensanning
ProGuard
Android应用的Java代码,通过反编译apk文件(dex2jar、apktool)很容易得到源代码,所以在release版本的apk中一定要混淆一下一些关键的Java源码。
ProGuard是一个开源的Java代码混淆器(obfuscation)。ADT r8开始它被默认集成到了Android SDK中。
官网:
http://proguard.sourceforge.net/
- 程序员在编程中遇到的奇葩弱智问题
tomcat_oracle
jquery编程ide
现在收集一下:
排名不分先后,按照发言顺序来的。
1、Jquery插件一个通用函数一直报错,尤其是很明显是存在的函数,很有可能就是你没有引入jquery。。。或者版本不对
2、调试半天没变化:不在同一个文件中调试。这个很可怕,我们很多时候会备份好几个项目,改完发现改错了。有个群友说的好: 在汤匙
- 解决maven-dependency-plugin (goals "copy-dependencies","unpack") is not supported
xp9802
dependency
解决办法:在plugins之前添加如下pluginManagement,二者前后顺序如下:
[html]
view plain
copy
<build>
<pluginManagement