- Oracle数据发送到kafka传输数据
Oracle数据发送到kafka传输数据配置OGGADPATERFORKAFKA需要的kafka包:Kafka0.8.2.1kafka-clients-0.8.2.1.jarlz4-1.2.0.jarslf4j-api-1.7.6.jarsnappy-java-1.1.1.6.jar#######配置OGG主库dbloginuseridgoldengate,passwordoggpassworda
- Laravel 动态生成 PDF:基于 KnpSnappy 实现多公司页眉页脚差异化配置
wendyNo
laravelpdfandroid
引言:为什么需要个性化PDF方案?在多公司业务场景中,生成的PDF文件(如对账单、律师函)往往需要根据公司类型展示不同的页眉(如企业Logo)和页脚(如联系方式)。本文基于barryvdh/laravel-snappy(封装自KnpSnappy)和wkhtmltopdf工具,实现「按公司动态配置页眉页脚」的PDF生成方案,适用于需要差异化文档样式的业务系统。一、技术栈与核心依赖框架:Laravel
- Python zstd文本压缩代码实践
SmallerFL
Python相关pythonzstd压缩算法
文章目录1.Zstd2.安装库3.压缩4.解压缩5.参考1.ZstdZstandard,简称Zstd或zstd,是由Facebook开源的一款高性能无损数据压缩算法库。Zstd能够提供比传统压缩算法如gzip更高的压缩率,同时其压缩速度也非常接近快速压缩算法如Snappy。这意味着在很多情况下,Zstd能够在不牺牲太多处理速度的前提下,实现更小的压缩文件大小。官网介绍参考这里。2.安装库注意Pyt
- 大数据领域HBase的数据压缩技术应用
AI天才研究院
AI大模型企业级应用开发实战AIAgent应用开发大数据hbase数据库ai
大数据领域HBase的数据压缩技术应用关键词:大数据、HBase、数据压缩技术、压缩算法、性能优化摘要:本文深入探讨了大数据领域中HBase的数据压缩技术应用。首先介绍了HBase的背景以及数据压缩技术在其中的重要性,详细阐述了常见的压缩算法原理,包括LZO、Snappy、Gzip等。通过数学模型和公式分析了不同压缩算法的性能指标,如压缩比和压缩速度。给出了在HBase中应用数据压缩技术的项目实战
- parquet :开源的列式存储文件格式
1.Parquet文件定义与核心概念Parquet是一种开源的列式存储文件格式,由Twitter和Cloudera合作开发,2015年成为Apache顶级项目。其设计目标是为大数据分析提供高效存储和查询,主要特点包括:列式存储:数据按列而非按行组织,相同数据类型集中存储,显著提升分析查询效率(如仅读取部分列)。高效压缩:支持Snappy、Gzip、Zstd、LZO等算法,压缩率比行式格式(如CSV
- 【爆肝整理】Hive 压缩性能优化全攻略!从 MapReduce 底层逻辑到企业级实战(附 Snappy/LZO/Gzip 选型对比 + 避坑指南)
线条1
hive
在大数据处理领域,Hive作为Hadoop生态中重要的数据仓库工具,其性能优化一直是工程实践中的核心课题。本文将深入解析Hive压缩机制的底层逻辑、配置策略及实战经验,帮助读者理解如何通过压缩技术提升数据处理效率。一、Hive压缩的本质:工具压缩与存储格式压缩的本质区别Hive的压缩体系与存储格式自带压缩(如Parquet、ORC的字典压缩)有本质区别:工具压缩:基于Hadoop生态的通用压缩算法
- Hive的存储格式如何优化?
安审若无
Hive性能优化及调优hivehadoop数据仓库
Hive的存储格式对查询性能、存储成本和数据处理效率有显著影响。以下是主流存储格式的特点、选择标准和优化方法:一、主流存储格式对比特性ORC(OptimizedRowColumnar)ParquetTextFile(默认)SequenceFile数据布局列式存储列式存储行式存储行式存储压缩支持支持(ZLIB、SNAPPY、LZ4等)支持(GZIP、SNAPPY、LZO等)支持(需外部配置)支持(需
- 从Gzip到Snappy:大数据压缩算法性能深度评测
AI天才研究院
AIAgent应用开发AI大模型企业级应用开发实战大数据ai
从Gzip到Snappy:大数据压缩算法性能深度评测关键词:大数据压缩、Gzip、Snappy、压缩算法、性能评测、压缩率、吞吐量摘要:在大数据时代,数据压缩是存储与传输优化的核心技术。本文从经典压缩算法Gzip到现代高效算法Snappy,系统评测9类主流压缩算法(Gzip、Snappy、LZ4、Brotli、Zstd、Zlib、LZO、PPMd、Zstandard)的核心性能指标(压缩率、压缩速
- 压缩方式选择
嘟嘟嘟嘟嘟嘟嘟.
hadoop
压缩方式选择时重点考虑:压缩/解压缩速度、压缩率(压缩后存储大小)、压缩后是否可以支持切片。Gzip压缩优点:压缩率比较高;缺点:不支持切片;压缩/解压速度一般;Bzip2压缩优点:压缩率高;支持切片;缺点:压缩/解压速度慢。Lzo压缩优点:压缩/解压速度比较快;支持切片;缺点:压缩率一般;想支持切片需要额外创建索引。Snappy压缩优点:压缩和解压缩速度快;缺点:不支持切片;压缩率一般;
- 如何高效使用 Ubuntu 中文官方网站
矛取矛求
网站ubuntulinux运维
Ubuntu中文官方网站一、快速导航与核心模块首页焦点区顶部菜单栏:快速访问「下载」「文档」「支持」「商店」等核心功能。轮播图区:展示最新版本(如Ubuntu24.04LTS)和特色功能(如UbuntuPro订阅服务)。搜索框:支持中文关键词搜索(如"边缘计算"),快速定位技术文档或解决方案。垂直领域入口开发者:提供UbuntuSDK、Snappy包管理、内核开发文档等资源。云与服务器:涵盖Ku
- 读取hdfs上snappy压缩文件并发送kafka的两种方式速度测试
今天上上签
Spark&Hbasespark大数据javajson
最近有一个需求,因为第一次做,踩了许多坑,故在此记录一下需求背景:现在hdfs上有一份snappy压缩的文件,要把这份文件中的数据读出来并发送给kafka解决思路平时我90%的时间都是在消费kafka,现在要写入kafka,我承认我第一反应是懵逼的;不过这并难不倒天资聪慧的我,我首先想到的就是用spark去读出数据后,直接发送给kafka;soeasy~问题记录Ⅰ、解析json问题我用spark很
- Kafka 的消息压缩机制:优化存储与传输的利器
阿贾克斯的黎明
javalinqc#java
目录Kafka的消息压缩机制:优化存储与传输的利器一、消息压缩机制的重要意义1.减少存储成本2.提升网络传输效率二、Kafka常用的消息压缩算法1.GZIP压缩2.Snappy压缩3.前端展示压缩状态(Vue3+TS)在消息中间件的大家族中,Kafka以其卓越的性能而备受瞩目。其中,Kafka的消息压缩机制是一项非常重要的特性,它就像是一个高效的“压缩包”,在不损失数据内容的前提下,有效减少数据的
- ubuntu18安装pyenv
Ramulet
Pythonnpmpycharmcentos
安装依赖sudoapt-getinstalllibprotobuf-devlibleveldb-devlibsnappy-devlibopencv-devlibboost-all-devlibhdf5-serial-devlibgflags-devlibgoogle-glog-devliblmdb-devprotobuf-compiler-ysudoapt-getinstallbzip2-ysud
- HIVE
Yagami_
--------hive数据仓库hive底层执行引擎有MapReduceTezSpark压缩GZIPLZOSnappyBZIP2等存储TextFileSequenceFileRCFileORCParquetUDF自定义函数环境搭建1)hive下载http://archive.clordera.com/cdh5/cdh/5/wgethttp://archive.cloudera.com/cdh5/c
- CentOS7 编译C++遇到/usr/bin/ld: cannot find -l***
zxfBdd
Linux
centos7编译C++遇到如下问题:/usr/bin/ld:cannotfind-ltcmalloc/usr/bin/ld:cannotfind-lz/usr/bin/ld:cannotfind-lsnappy/usr/bin/ld:cannotfind-lbz2等问题:这是因为编译器找不到相应的库解决方案:1.安装了,但是未指定链接库的路径。如查找snappy库,查看在/usr/lib中有无对
- 记 doris 加载压缩文件(lzo、snappy)pr
howard_shooter
Doris信息技术笔记压缩
做了一个case,是doris支持加载lzo压缩文件。[improvement](load)Enablelzo&RemovedependencyonMarkusF.X.J.Oberhumer'slzolibrarybyHowardQin·PullRequest#30573·apache/doris(github.com)其实doris里已经支持了lzo,这个case源自一个issue,[Enhan
- Hive调优
我走之後
hivehadoop数据仓库
改硬件.(CPU,磁盘,内存)开启或者增大某些设置(配置).负载均衡,严格模式(禁用低效SQL),动态分区数...关闭或者减小某些设置(配置).严格模式(动态分区),推测执行...减少IO传输.Input(输入)/Output(输出),列存储orc,压缩协议snappy,join优化Hive调优--参数概述:hive的参数配置,就是在那里配置hive的参数信息,根据配置地方不同,作用范围也不一样.
- Impala实践:解析glog打印的 C++ 报错堆栈
stiga-huang
Impalac++impala
Impala实践:解析glog打印的C++报错堆栈Impala使用glog生成日志。生产环境用的都是releasebuild,glog产生的报错堆栈里没有函数名,很难像Java报错堆栈那样方便定位问题。下面是Impalad日志中的一个报错:I052209:07:16.00205620222status.cc:128]Snappy:RawUncompressfailed@0xae26c9@0x107
- pika 安装问题
面向未来的历史
linuxpikaredis
一般按照官网安装pika是没什么问题。但是在有些使用环境不全的的服务器上。就会要求手动安装一些软件。同时,其依赖的环境也可能需要更新,这样就导致安装pika并不是那么顺利。此时单纯的只是将在其他机器上编译好的pika,复制过来用,也不一定能成功,所以还是需要按照要求配置环境。问题1openkvdbfailed,Invalidargument:CompressiontypeSnappyisnotli
- GBase 8a 数据迁移工具2---数据加载 “SQL 接口 LOAD DATA INFILE”
Linux有意思吗
GBASEsql数据库database数据仓库dba
GBase8aMPPCluster根据不同场景需求提供多种便于用户操作的数据迁移工具。功能简介GBase8aMPPCluster提供了面向用户的SQL接口加载方式。支持如下功能:支持本地文件加载支持从通用数据服务器拉取数据加载;支持FTP/HTTP/HDFS/SFTP等多种协议;支持多加载机对单表的并行加载,最大化加载性能;支持普通文本、gzip压缩、snappy压缩、lzo压缩等多种格式数据文件
- 八.压缩和存储
临时_01e2
8.1Hadoop源码编译支持Snappy压缩(了解)8.1.1资源准备1)CentOS联网配置CentOS能连接外网。Linux虚拟机pingwww.baidu.com是畅通的注意:采用root角色编译,减少文件夹权限出现问题2)jar包准备(hadoop源码、JDK8、maven、protobuf)(1)hadoop-2.8.4-src.tar.gz(2)jdk-8u144-linux-x64
- GBase 8a MPP分析型数据库集群并行加载
kaixin.1
数据库hdfsdatabasehadoop
GBase8aMPPCluster中,集群加载功能直接集成在GBase8aMPPCluster内部,提供了面向用户的SQL接口,集群和单机加载方式统一,支持如下功能:支持从通用数据服务器拉取数据,支持ftp/http/hdfs/sftp等多种协议;支持多加载机对单表的并行加载,最大化加载性能;支持普通文本、gzip压缩、snappy压缩、lzo压缩等多种格式数据文件;支持普通文本与定长文本的
- Ubuntu 16.04 + caffe环境搭建(CPU)
默写年华Antifragile
1.安装依赖sudoapt-getinstalllibprotobuf-devlibleveldb-devlibsnappy-devlibopencv-devlibhdf5-serial-devprotobuf-compilersudoapt-getinstall--no-install-recommendslibboost-all-devsudoapt-getinstalllibgflags-d
- HBase选择压缩算法Block Encoding Type
codeforces
HBaseHBase
如何选择压缩算法以及BlockEncodingType?如果Key很长,或者有很多Column,那么推荐使用FAST_DIFF如果数据是冷数据,不经常被访问,那么使用GZIP压缩格式.因为虽然它比Snappy/LZO需要占用更多而CPU,但是它的压缩比率更高,更节省磁盘.如果是热点数据,那么使用Snappy/LZO压缩格式.它们相比GZIP,占用的CPU更少.在大多数情况下,Snappy/LZO的
- Kafka系列之:kafka.errors.UnsupportedCodecError: UnsupportedCodecError: Libraries for snappy compression
最笨的羊羊
KafkaKafka系列snappycompression
Kafka系列之:kafka.errors.UnsupportedCodecError:UnsupportedCodecError:Librariesforsnappycompression一、完整错误二、错误原因三、解决方法一、完整错误kafka.errors.UnsupportedCodecError:UnsupportedCodecError:Librariesforsnappycompre
- Hive 在工作中的调优总结
fx67ll
大数据开发文档hive大数据hadoop
总结了一下在以往工作中,对于HiveSQL调优的一些实际应用,是日常积累的一些优化技巧,如有出入,欢迎在评论区留言探讨~一、EXPLAIN查看执行计划二、建表优化2.1分区分区表基本操作,partitioned二级分区动态分区2.2分桶分桶表基本操作,clustered分桶表主要是抽样查询,找出具有代表性的结果2.3选择合适的文件格式和压缩格式LZO,拉兹罗Snappy压缩速度快,压缩比高三、Hi
- 电商数仓项目----笔记七(数仓DIM层)
zmx_messi
笔记
所谓的维度层其实就是分析数据的角度,维度层保存的表其实是分析数据的角度,比如:--性别,年龄,品牌,品类这层的表主要用于统计分析,因此DIM层的数据存储格式为orc列式存储+snappy压缩(时间短)orc列式存储的好处:查询的时候不需要扫描全部的数据,而只需要读取每次查询涉及的列,这样可以将I/O消耗降低N倍,另外可以保存每一列的统计信息(min、max、sum等),实现部分的谓词下推。由于每一
- Hive 存储与压缩
月亮给我抄代码
Hive杂谈hivehadoop大数据
文章目录存储格式行存储与列存储存储格式解析TextFile格式ORC格式Parquet格式存储效率对比TextFile格式ORC格式(推荐)Parquet格式对比压缩ORC——ZLIB压缩ORC——SNAPPY压缩Parquet——GZIP压缩Parquet——SNAPPY压缩总结本文中用到的数据源下载:log.data存储格式Hive支持多种存储格式,常用的有三种:TEXTFILE、ORC、PA
- Hive存储格式和压缩算法
Kazi_1024
Hivehive
Hive存储格式和压缩算法在实际的项目开发当中,hive表的存储格式一般选择:ORC或PARQUET,压缩算法一般选择Zlib和SNAPPY存储格式分类逻辑表中的数据,最终需要落到磁盘上,以文件的形式存储,有两种常见的存储形式:行式存储和列式存储行式存储优点:1、相关的数据保存在一起,比较符合面向对象的思维,因为一行数据就是一条记录2、方便进行insert或update操作缺点:1、如果仅需要查询
- Hive压缩、存储与优化
zeroLinked
博学谷学习记录hivehadoop大数据
1、Hive压缩概述:Hive的压缩是MR的压缩,分为Map端结果文件压缩和Reduce端结果文件压缩压缩性能比较压缩算法原始文件大小压缩文件大小压缩速度解压速度gzip8.3GB1.8GB17.5MB/s58MB/sbzip28.3GB1.1GB2.4MB/s9.5MB/sLZO8.3GB2.9GB49.3MB/s74.6MB/sSnappy8.3GB3G250MB/S500MB/s按照Hive
- jvm调优总结(从基本概念 到 深度优化)
oloz
javajvmjdk虚拟机应用服务器
JVM参数详解:http://www.cnblogs.com/redcreen/archive/2011/05/04/2037057.html
Java虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。
- 【Scala十六】Scala核心十:柯里化函数
bit1129
scala
本篇文章重点说明什么是函数柯里化,这个语法现象的背后动机是什么,有什么样的应用场景,以及与部分应用函数(Partial Applied Function)之间的联系 1. 什么是柯里化函数
A way to write functions with multiple parameter lists. For instance
def f(x: Int)(y: Int) is a
- HashMap
dalan_123
java
HashMap在java中对很多人来说都是熟的;基于hash表的map接口的非同步实现。允许使用null和null键;同时不能保证元素的顺序;也就是从来都不保证其中的元素的顺序恒久不变。
1、数据结构
在java中,最基本的数据结构无外乎:数组 和 引用(指针),所有的数据结构都可以用这两个来构造,HashMap也不例外,归根到底HashMap就是一个链表散列的数据
- Java Swing如何实时刷新JTextArea,以显示刚才加append的内容
周凡杨
java更新swingJTextArea
在代码中执行完textArea.append("message")后,如果你想让这个更新立刻显示在界面上而不是等swing的主线程返回后刷新,我们一般会在该语句后调用textArea.invalidate()和textArea.repaint()。
问题是这个方法并不能有任何效果,textArea的内容没有任何变化,这或许是swing的一个bug,有一个笨拙的办法可以实现
- servlet或struts的Action处理ajax请求
g21121
servlet
其实处理ajax的请求非常简单,直接看代码就行了:
//如果用的是struts
//HttpServletResponse response = ServletActionContext.getResponse();
// 设置输出为文字流
response.setContentType("text/plain");
// 设置字符集
res
- FineReport的公式编辑框的语法简介
老A不折腾
finereport公式总结
FINEREPORT用到公式的地方非常多,单元格(以=开头的便被解析为公式),条件显示,数据字典,报表填报属性值定义,图表标题,轴定义,页眉页脚,甚至单元格的其他属性中的鼠标悬浮提示内容都可以写公式。
简单的说下自己感觉的公式要注意的几个地方:
1.if语句语法刚接触感觉比较奇怪,if(条件式子,值1,值2),if可以嵌套,if(条件式子1,值1,if(条件式子2,值2,值3)
- linux mysql 数据库乱码的解决办法
墙头上一根草
linuxmysql数据库乱码
linux 上mysql数据库区分大小写的配置
lower_case_table_names=1 1-不区分大小写 0-区分大小写
修改/etc/my.cnf 具体的修改内容如下:
[client]
default-character-set=utf8
[mysqld]
datadir=/var/lib/mysql
socket=/va
- 我的spring学习笔记6-ApplicationContext实例化的参数兼容思想
aijuans
Spring 3
ApplicationContext能读取多个Bean定义文件,方法是:
ApplicationContext appContext = new ClassPathXmlApplicationContext(
new String[]{“bean-config1.xml”,“bean-config2.xml”,“bean-config3.xml”,“bean-config4.xml
- mysql 基准测试之sysbench
annan211
基准测试mysql基准测试MySQL测试sysbench
1 执行如下命令,安装sysbench-0.5:
tar xzvf sysbench-0.5.tar.gz
cd sysbench-0.5
chmod +x autogen.sh
./autogen.sh
./configure --with-mysql --with-mysql-includes=/usr/local/mysql
- sql的复杂查询使用案列与技巧
百合不是茶
oraclesql函数数据分页合并查询
本片博客使用的数据库表是oracle中的scott用户表;
------------------- 自然连接查询
查询 smith 的上司(两种方法)
&
- 深入学习Thread类
bijian1013
javathread多线程java多线程
一. 线程的名字
下面来看一下Thread类的name属性,它的类型是String。它其实就是线程的名字。在Thread类中,有String getName()和void setName(String)两个方法用来设置和获取这个属性的值。
同时,Thr
- JSON串转换成Map以及如何转换到对应的数据类型
bijian1013
javafastjsonnet.sf.json
在实际开发中,难免会碰到JSON串转换成Map的情况,下面来看看这方面的实例。另外,由于fastjson只支持JDK1.5及以上版本,因此在JDK1.4的项目中可以采用net.sf.json来处理。
一.fastjson实例
JsonUtil.java
package com.study;
impor
- 【RPC框架HttpInvoker一】HttpInvoker:Spring自带RPC框架
bit1129
spring
HttpInvoker是Spring原生的RPC调用框架,HttpInvoker同Burlap和Hessian一样,提供了一致的服务Exporter以及客户端的服务代理工厂Bean,这篇文章主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
在
【RPC框架Hessian二】Hessian 对象序列化和反序列化一文中
- 【Mahout二】基于Mahout CBayes算法的20newsgroup的脚本分析
bit1129
Mahout
#!/bin/bash
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information re
- nginx三种获取用户真实ip的方法
ronin47
随着nginx的迅速崛起,越来越多公司将apache更换成nginx. 同时也越来越多人使用nginx作为负载均衡, 并且代理前面可能还加上了CDN加速,但是随之也遇到一个问题:nginx如何获取用户的真实IP地址,如果后端是apache,请跳转到<apache获取用户真实IP地址>,如果是后端真实服务器是nginx,那么继续往下看。
实例环境: 用户IP 120.22.11.11
- java-判断二叉树是不是平衡
bylijinnan
java
参考了
http://zhedahht.blog.163.com/blog/static/25411174201142733927831/
但是用java来实现有一个问题。
由于Java无法像C那样“传递参数的地址,函数返回时能得到参数的值”,唯有新建一个辅助类:AuxClass
import ljn.help.*;
public class BalancedBTree {
- BeanUtils.copyProperties VS PropertyUtils.copyProperties
诸葛不亮
PropertyUtilsBeanUtils
BeanUtils.copyProperties VS PropertyUtils.copyProperties
作为两个bean属性copy的工具类,他们被广泛使用,同时也很容易误用,给人造成困然;比如:昨天发现同事在使用BeanUtils.copyProperties copy有integer类型属性的bean时,没有考虑到会将null转换为0,而后面的业
- [金融与信息安全]最简单的数据结构最安全
comsci
数据结构
现在最流行的数据库的数据存储文件都具有复杂的文件头格式,用操作系统的记事本软件是无法正常浏览的,这样的情况会有什么问题呢?
从信息安全的角度来看,如果我们数据库系统仅仅把这种格式的数据文件做异地备份,如果相同版本的所有数据库管理系统都同时被攻击,那么
- vi区段删除
Cwind
linuxvi区段删除
区段删除是编辑和分析一些冗长的配置文件或日志文件时比较常用的操作。简记下vi区段删除要点备忘。
vi概述
引文中并未将末行模式单独列为一种模式。单不单列并不重要,能区分命令模式与末行模式即可。
vi区段删除步骤:
1. 在末行模式下使用:set nu显示行号
非必须,随光标移动vi右下角也会显示行号,能够正确找到并记录删除开始行
- 清除tomcat缓存的方法总结
dashuaifu
tomcat缓存
用tomcat容器,大家可能会发现这样的问题,修改jsp文件后,但用IE打开 依然是以前的Jsp的页面。
出现这种现象的原因主要是tomcat缓存的原因。
解决办法如下:
在jsp文件头加上
<meta http-equiv="Expires" content="0"> <meta http-equiv="kiben&qu
- 不要盲目的在项目中使用LESS CSS
dcj3sjt126com
Webless
如果你还不知道LESS CSS是什么东西,可以看一下这篇文章,是我一朋友写给新人看的《CSS——LESS》
不可否认,LESS CSS是个强大的工具,它弥补了css没有变量、无法运算等一些“先天缺陷”,但它似乎给我一种错觉,就是为了功能而实现功能。
比如它的引用功能
?
.rounded_corners{
- [入门]更上一层楼
dcj3sjt126com
PHPyii2
更上一层楼
通篇阅读完整个“入门”部分,你就完成了一个完整 Yii 应用的创建。在此过程中你学到了如何实现一些常用功能,例如通过 HTML 表单从用户那获取数据,从数据库中获取数据并以分页形式显示。你还学到了如何通过 Gii 去自动生成代码。使用 Gii 生成代码把 Web 开发中多数繁杂的过程转化为仅仅填写几个表单就行。
本章将介绍一些有助于更好使用 Yii 的资源:
- Apache HttpClient使用详解
eksliang
httpclienthttp协议
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会
- zxing二维码扫描功能
gundumw100
androidzxing
经常要用到二维码扫描功能
现给出示例代码
import com.google.zxing.WriterException;
import com.zxing.activity.CaptureActivity;
import com.zxing.encoding.EncodingHandler;
import android.app.Activity;
import an
- 纯HTML+CSS带说明的黄色导航菜单
ini
htmlWebhtml5csshovertree
HoverTree带说明的CSS菜单:纯HTML+CSS结构链接带说明的黄色导航
在线体验效果:http://hovertree.com/texiao/css/1.htm代码如下,保存到HTML文件可以看到效果:
<!DOCTYPE html >
<html >
<head>
<title>HoverTree
- fastjson初始化对性能的影响
kane_xie
fastjson序列化
之前在项目中序列化是用thrift,性能一般,而且需要用编译器生成新的类,在序列化和反序列化的时候感觉很繁琐,因此想转到json阵营。对比了jackson,gson等框架之后,决定用fastjson,为什么呢,因为看名字感觉很快。。。
网上的说法:
fastjson 是一个性能很好的 Java 语言实现的 JSON 解析器和生成器,来自阿里巴巴的工程师开发。
- 基于Mybatis封装的增删改查实现通用自动化sql
mengqingyu
DAO
1.基于map或javaBean的增删改查可实现不写dao接口和实现类以及xml,有效的提高开发速度。
2.支持自定义注解包括主键生成、列重复验证、列名、表名等
3.支持批量插入、批量更新、批量删除
<bean id="dynamicSqlSessionTemplate" class="com.mqy.mybatis.support.Dynamic
- js控制input输入框的方法封装(数字,中文,字母,浮点数等)
qifeifei
javascript js
在项目开发的时候,经常有一些输入框,控制输入的格式,而不是等输入好了再去检查格式,格式错了就报错,体验不好。 /** 数字,中文,字母,浮点数(+/-/.) 类型输入限制,只要在input标签上加上 jInput="number,chinese,alphabet,floating" 备注:floating属性只能单独用*/
funct
- java 计时器应用
tangqi609567707
javatimer
mport java.util.TimerTask; import java.util.Calendar; public class MyTask extends TimerTask { private static final int
- erlang输出调用栈信息
wudixiaotie
erlang
在erlang otp的开发中,如果调用第三方的应用,会有有些错误会不打印栈信息,因为有可能第三方应用会catch然后输出自己的错误信息,所以对排查bug有很大的阻碍,这样就要求我们自己打印调用的栈信息。用这个函数:erlang:process_display (self (), backtrace).需要注意这个函数只会输出到标准错误输出。
也可以用这个函数:erlang:get_s