- 存档python爬虫、Web学习资料
1python爬虫学习学习Python爬虫是个不错的选择,它能够帮你高效地获取网络数据。下面为你提供系统化的学习路径和建议:1.打好基础首先要掌握Python基础知识,这是学习爬虫的前提。比如:变量、数据类型、条件语句、循环等基础语法。列表、字典等常用数据结构的操作。函数、模块和包的使用方法。文件读写操作。推荐通过阅读《Python编程:从入门到实践》这本书或者在Codecademy、LeetCo
- Python 爬虫学习过程中最容易踩的 10 个坑,你中招了吗?
程序员威哥
python开发语言科技
写给每一个在爬虫路上被“反爬”、被“封IP”、被“乱码”支配过的你。Python爬虫作为数据获取与自动化最常见的工具之一,看似简单,但很多初学者(甚至有经验的开发者)在实际开发中都容易陷入一些坑。本文将结合真实项目经验,总结10个最常见的坑,并给出对应的解决方案,助你少走弯路、爬得更稳。✅适合人群正在学习Python爬虫的新手想要了解常见问题和最佳实践的开发者爬虫踩坑无数但依然热爱爬虫的老玩家坑1
- Python 爬虫实战:抓取哔哩哔哩收藏夹视频(API 逆向 + 视频分类整理)
西攻城狮北
python爬虫音视频
引言哔哩哔哩(B站)作为国内知名的视频分享平台,拥有丰富多样的视频资源和活跃的用户社区。对于视频创作者、数据分析人员或爬虫学习者来说,抓取B站收藏夹中的视频数据,不仅能帮助我们更好地了解用户喜好和视频内容,还能为创作和研究提供有力支持。本文将深入浅出地讲解如何通过Python爬虫实现抓取哔哩哔哩收藏夹视频,并对其进行分类整理,涵盖从环境搭建、API逆向分析到数据处理与存储等关键步骤,旨在为读者提供
- 进阶版爬虫
启明源码
爬虫
要掌握进阶版爬虫,你需要从基础爬虫技能过渡到更复杂的内容采集与反爬机制绕过技术。以下是一个系统性的进阶学习路线及关键技术点:进阶爬虫学习路线图一、基础回顾(必须扎实)熟练使用:requests/httpx网页解析:BeautifulSoup/lxml/xpath多线程/多进程:threading/multiprocessing/concurrent.futures简单爬虫项目:新闻/电商类页面爬取
- 网络爬虫学习第二弹:requests库的使用
Taoist_Nie
网络爬虫requestspython
requests库使用requests库的功能与之前学习的urllib库类似,但功能更强大,实现也更简洁。下面是基本的使用方法。importrequestsr=requests.get("https://www.baidu.com/")print(type(r))#打印Response的类型print("---------------------")print(r.status_code)#打印R
- Python/爬虫学习记录-Day05
1.爬取时遇到严格的Cookie限制怎么办?1.1模拟真人登录,将Cookie存起来用就像真人每次登录后浏览器会记住登录状态一样,我们可以用自动化工具(比如Selenium或Playwright)模拟整个登录过程:打开登录页面、输入账号密码、点登录按钮。登录成功后,把浏览器里生成的Cookie完整地抓取下来。1.2建立Cookie池不能只用一个账号登录一次,因为Cookie会过期,单个账号频繁用也
- 啵591_2022年网络我的网络爬虫学习心得
啵591
网络爬虫python
啵591_2022年网络我的网络爬虫学习心得目录前言一、学习心得二、常用pip模块介绍三、实验总结1、实验一:爬取单个网页代码及结果2、实验二:爬取多个站点代码及结果2.1下载scrapy2.2建立爬虫项目items的配置middlewares的配置pipelines的配置settings的配置创建爬虫python文件2.3数据存储3、搭建框架Gerapy代码及结果前言网络爬虫是一种按照一定的规则
- 网络爬虫学习心得
谢李由20230322081
爬虫python
一、引言在大数据时代,数据成为了驱动决策、洞察趋势的核心资源。出于对数据分析的浓厚兴趣,以及希望能更高效获取网络信息的目的,我踏上了网络爬虫的学习之旅。通过这段时间的学习,我不仅掌握了从网页中提取数据的技术,还深刻体会到网络爬虫在市场调研、学术研究、信息监测等领域的巨大价值,这对我的职业发展和个人能力提升有着深远的意义。二、基础知识学习2.1网络基础概念学习网络爬虫,HTTP协议是绕不开的基石。我
- 爬虫学习记录day1
网小鱼的学习笔记
学习
什么是逆向?数据加密参数加密表单加密扣js改写Python举例子4.1元素:被渲染的数据资源动态数据静态数据如果数据是加密的情况则无法直接得到数据4.2控制台:输出界面4.3源代码页面4.4网络:抓包功能,获取浏览器之间传输5.request5.1定位数据是静态还是动态5.2get请求:参数5.3post请求:data5.4检索data、hearder、param里面的数据加密情况7.浏览器与逆向
- Python爬虫入门
苏九黎
python爬虫开发语言
爬虫学习爬虫的简介爬虫,又称为网络蜘蛛,即爬虫网页中的内容,通俗的来将就是将网页中的数据提取处理,并且保存到本地,来进行后续的操作。爬虫,遵循所见即所爬原则,也就是说只能爬取到看的见的数据,看不见的数据就无法提取了。爬虫,要在合法的范围内进行爬取,切记,有关国家政府等机关的网站,碰都不要碰下。爬虫流程1.确定url2.发送请求,获取响应3.提取响应4.保存数据,进行后续操作爬虫爬取的是响应,也就是
- Python 爬虫从入门到精通:超全学习路径与实战指南
202321336073 毛敏磊
python爬虫学习
Python爬虫从入门到精通:超全学习路径与实战指南在数字化时代,数据成为了重要的资源,而Python爬虫作为获取公开数据的高效工具,备受开发者青睐。本文将结合系统的理论知识与丰富的实战案例,为你呈现一条从零基础到进阶开发的爬虫学习路径,助你逐步掌握这门实用技能。一、爬虫基础:合法合规的数据采集爬虫本质上是一种自动化收集公开数据的程序,其核心在于“合法合规”与“技术实现”的平衡。1.1应用场景与价
- 【爬虫学习】Python数据采集进阶:从请求优化到解析技术实战
灏瀚星空
爬虫学习记录爬虫学习python
【爬虫学习】Python数据采集进阶:从请求优化到解析技术实战摘要本文深入探讨Python数据采集的核心技术,涵盖HTTP请求优化、解析工具选型及性能调优。通过实战案例演示会话管理、代理池设计、解析器性能对比等关键技术,帮助读者构建高效稳定的数据采集方案。一、requests高级用法:构建可靠请求层在数据采集场景中,HTTP请求的稳定性直接决定采集效率。requests库通过高级特性提供了强大的请
- Python爬虫学习路径与实战指南 10
晨曦543210
学习
一、终极整合:构建企业级爬虫系统的7大核心模块1、混沌工程防护层使用ChaosMonkey随机注入故障,测试系统韧性fromchaosmonkeyimportChaosMonkeymonkey=ChaosMonkey()monkey.enable_failure("proxy_pool",probability=0.3)#30%概率模拟代理失效2、动态规则引擎实时更新反爬策略规则库classAnt
- Scrapy框架——全栈爬取
逐梦舞者
爬虫知识学习scrapy网络爬虫爬虫
scrapy的crawlspider爬虫学习目标:了解crawlspider的作用应用crawlspider爬虫创建的方法应用crawlspider中rules的使用1、crawlspider是什么回顾之前的代码中,我们有很大一部分时间在寻找下一页的url地址或者是内容的url地址上面,这个过程能更简单一些么?思路:从response中提取所有的满足规则的url地址自动的构造自己requests请
- Python 爬虫学习路线图
程序员二飞
python爬虫学习
文章目录前言初学爬虫Ajax、动态渲染多进程、多线程、协程分布式验证码封IP封账号奇葩的反爬JavaScript逆向App智能化运维结语零基础Python学习资源介绍Python学习路线汇总Python必备开发工具Python学习视频600合集实战案例100道Python练习题面试刷题资料领取前言当今大数据的时代,网络爬虫已经成为了获取数据的一个重要手段。但要学习好爬虫并没有那么简单。首先知识点和
- Python爬虫学习路径与实战指南 05
晨曦543210
学习
一、数据清洗与预处理的魔鬼细节1.非结构化文本处理正则表达式进阶:用命名分组提取复杂文本。importretext="价格:¥199.00折扣价:¥159.00"pattern=r"价格:¥(?P\d+\.\d{2})折扣价:¥(?P\d+\.\d{2})"match=re.search(pattern,text)print(match.groupdict())#{'price':'199.00'
- Python爬虫学习路径与实战指南 06
晨曦543210
学习
一、跨平台数据抓取策略1.桌面应用数据提取Windows应用:使用pywinauto自动化操作并提取数据。frompywinautoimportApplicationapp=Application().start("notepad.exe")app.Notepad.edit.set_text("需要提取的文本")macOS应用:通过AppleScript桥接调用系统API。2.游戏数据抓取内存读取
- 爬虫学习——26.JS逆向(2)
F——
如何系统的学习python爬虫-限免学习python爬虫开发语言
AES与DESDES对称加密,是一种比较传统的加密方式,其加密运算、解密运算使用的是同样的密钥,信息的发送者。和信息的接收者在进行信息的传输与处理时,必须共同持有该密钥(称为对称密码),是一种对称加密算法。一般来说加密用的是encrypt()函数,解密用的是decrypt()函数。AES/DES加密解密网址:在线加密/解密,对称加密/非对称加密AES与DES的区别加密后密文长度不同DES加密后密文
- 爬虫学习——Robots协议和 robotparser模块
柳衣白卿
爬虫python爬虫
初级爬虫学习资源爬虫学习——遵纪守法一文速通的正则表达式python中使用正则表达式——为所欲为爬虫实战(1)——小试牛刀如果对符合下列条件的网站进行强行数据采集时,会具有法律风险。采集的站点有声明禁止爬虫采集时。网站通过Robots协议拒绝采集时。所以为了避免面向监狱爬虫,我们需要了解Robots协议和robotparser模块(判断url是否可爬取)。可爬取协议——Robots协议Robots
- Python爬虫学习——超时设置
ZIUPAN
python爬虫
在本机网络不好还是网络响应太慢的情况下,为了防止等待太长时间,可以设置一个超时时间,即超过了这个时间还没有得到响应,那就报错。需要用到timeout参数。这个时间的计算是指发出请求到服务器返回响应的时间。柿栗如下:importrequestsr=requests.get("https://www.taobao.com",timeout=1)print(r.status_code)通过以上方式,我们
- 30个小时搞定Python网络爬虫
企鹅侠客
运维实用资源爬虫网络协议python面试
本文分享一套结构完整、内容深入的Python网络爬虫学习资料,适合从入门到进阶系统学习。总共10个章节,包含基础语法、核心爬虫技术、反爬破解、Scrapy框架、分布式爬虫实战等内容,覆盖大部分真实爬虫开发需求。学习资料结构概览第一章:Python网络爬虫之基础包含Python入门知识、语法、控制流、文件操作、异常处理与OOP基础。第二章:工作原理详解深入讲解爬虫的基本概念、抓取流程与网页结构。第三
- 爬虫学习的第一天(requests简单的框架--初阶5)
「已注销」
爬虫
#本章内容爬取腾讯体育网,将其中的新闻爬取显示出来。importrequestsfromfake_useragentimportUserAgent#调用fake_useragent库中UserAgent模块importretry:url="https://sports.qq.com/"#爬取的网站headers={'User-Agent':UserAgent().chrome#可以生成一个chro
- Python爬虫学习资源
python游乐园
文本处理python爬虫学习
书籍《Python网络爬虫从入门到实践》内容由浅入深,详细介绍了Python爬虫的基础知识和实践技巧,包括网页解析、数据存储、反爬虫策略等。书中配有大量的示例代码和案例分析,适合初学者快速上手。《Python网络数据采集》这本书涵盖了网页抓取的各个方面,包括如何处理HTML和XML、使用正则表达式、处理表单和登录验证等。书中还介绍了如何使用Scrapy框架进行大规模数据采集,以及如何处理反爬虫机制
- Python爬虫学习路径与实战指南 03
晨曦543210
学习
一、深度技术扩展1.浏览器自动化高阶技巧无头模式(Headless):提升Selenium效率,减少资源占用。fromselenium.webdriver.chrome.optionsimportOptionsoptions=Options()options.add_argument("--headless")#无头模式driver=webdriver.Chrome(options=options
- Python基础、爬虫学习记录——day1
酒量极好刘景龙
python学习开发语言爬虫
(声明:本文只用于记录Java开发者学习Python基础、爬虫学习,持续更新,可能很基础,欢迎指正,不喜勿喷)一、python爬虫原理1、爬虫原理就是通过编写程序获取互联网上的资源,包括Java、Python、JS等,因为Python语言简洁所以被广泛应用于爬虫开发。2、爬虫可以拆解为需求:首先打开一个网站,然后读取这个网站的内容,再保存自己想要的内容到文件或其它。二、简单获取浏览器源代码案例1、
- 爬虫学习总结
丰锋ff
爬虫
通过前几次课,我们学习了爬虫的相关基础知识。以下是我对爬虫学习做的一些总结:一、认识爬虫:开启数据抓取之旅1.1什么是网络爬虫网络爬虫就像是一个不知疲倦的“数据搬运工”,它能按照预先设定的规则,自动在互联网上抓取各类信息。比如搜索引擎的爬虫会抓取网页内容,为用户搜索提供数据支持;电商数据爬虫可以抓取商品价格、评论等信息。它通过向网页服务器发送请求,获取HTML、JSON等格式的数据,再解析提取出有
- 爬虫学习——LinkEXtractor提取链接与Exporter导出数据
代码的建筑师
python学习记录学习爬虫pythonExporterLinkExtractor
一、提取链接任务需求:如果爬取的数据通常分布在多个页面中,每个页面包含一部分数据以及到其他页面的链接,提取链接可以使用Selector和使用LinkExtractor两个方法。在页面中待提取的链接较少的时候,可以使用Selector来进行解决,但是其毕竟主要的作用还是提取数据,不是专门用于提取链接的,故这里使用LinkExtractor用于专门对大量链接和较为复杂场景的链接提取。可以设定不想要/想
- python爬虫学习 - 查看显卡价格
不惧神风
学习笔记
python爬虫学习-查看显卡价格这是一个简单的爬虫项目,用于从中关村网站上爬取显卡报价数据,后续可以考虑爬取相关的参数信息让数据更立体。数据的保存使用的是json,以python为主要开发语言。这个项目纯粹玩玩儿,不会使用什么现有的框架,只要能动就好。python版本:3.6.8pip版本:18.1(不想用21版本的,装一个库弹一个错误简直要命)我的主要目的是要每日爬取NVIDIA显卡的均价和极
- 【自用】Python爬虫学习(三):图片下载、使用代理、防盗链视频下载、多线程与多进程
Lucky_云佳
#Python爬虫学习python爬虫学习
Python爬虫学习(三)使用BeautifulSoup解析网页并下载图片模拟用户登录处理使用代理视频下载,防盗链的处理多线程与多进程使用BeautifulSoup解析网页并下载图片目的:对某网站的某个专栏页面的图片进行下载得到高清图。思路:从主页获取每张图片对应的子页面的链接地址,在子页面找到对应的高清图片下载地址然后下载。查找使用BeautifulSoup,直接从主页拿到的图片下载链接为缩略图
- 爬虫学习[3]
Transistor_Red
爬虫python
爬虫学习[3]高性能HTML性能内容解析HTML基础XPath的介绍1.XPath语句格式2.标签1的选取3.哪些属性可以省略4.XPath的特殊情况BeautifulSoup4阶段案例——大麦网演出爬虫高性能HTML性能内容解析通过前面的学习,直接从网页得到所需要的信息没有太大的问题,但是网页是一种结构化的数据。直接使用正则表达式进行查找就好像是地摊式搜寻,这种方法是普适的,但是与之相对的是效率
- jvm调优总结(从基本概念 到 深度优化)
oloz
javajvmjdk虚拟机应用服务器
JVM参数详解:http://www.cnblogs.com/redcreen/archive/2011/05/04/2037057.html
Java虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。
- 【Scala十六】Scala核心十:柯里化函数
bit1129
scala
本篇文章重点说明什么是函数柯里化,这个语法现象的背后动机是什么,有什么样的应用场景,以及与部分应用函数(Partial Applied Function)之间的联系 1. 什么是柯里化函数
A way to write functions with multiple parameter lists. For instance
def f(x: Int)(y: Int) is a
- HashMap
dalan_123
java
HashMap在java中对很多人来说都是熟的;基于hash表的map接口的非同步实现。允许使用null和null键;同时不能保证元素的顺序;也就是从来都不保证其中的元素的顺序恒久不变。
1、数据结构
在java中,最基本的数据结构无外乎:数组 和 引用(指针),所有的数据结构都可以用这两个来构造,HashMap也不例外,归根到底HashMap就是一个链表散列的数据
- Java Swing如何实时刷新JTextArea,以显示刚才加append的内容
周凡杨
java更新swingJTextArea
在代码中执行完textArea.append("message")后,如果你想让这个更新立刻显示在界面上而不是等swing的主线程返回后刷新,我们一般会在该语句后调用textArea.invalidate()和textArea.repaint()。
问题是这个方法并不能有任何效果,textArea的内容没有任何变化,这或许是swing的一个bug,有一个笨拙的办法可以实现
- servlet或struts的Action处理ajax请求
g21121
servlet
其实处理ajax的请求非常简单,直接看代码就行了:
//如果用的是struts
//HttpServletResponse response = ServletActionContext.getResponse();
// 设置输出为文字流
response.setContentType("text/plain");
// 设置字符集
res
- FineReport的公式编辑框的语法简介
老A不折腾
finereport公式总结
FINEREPORT用到公式的地方非常多,单元格(以=开头的便被解析为公式),条件显示,数据字典,报表填报属性值定义,图表标题,轴定义,页眉页脚,甚至单元格的其他属性中的鼠标悬浮提示内容都可以写公式。
简单的说下自己感觉的公式要注意的几个地方:
1.if语句语法刚接触感觉比较奇怪,if(条件式子,值1,值2),if可以嵌套,if(条件式子1,值1,if(条件式子2,值2,值3)
- linux mysql 数据库乱码的解决办法
墙头上一根草
linuxmysql数据库乱码
linux 上mysql数据库区分大小写的配置
lower_case_table_names=1 1-不区分大小写 0-区分大小写
修改/etc/my.cnf 具体的修改内容如下:
[client]
default-character-set=utf8
[mysqld]
datadir=/var/lib/mysql
socket=/va
- 我的spring学习笔记6-ApplicationContext实例化的参数兼容思想
aijuans
Spring 3
ApplicationContext能读取多个Bean定义文件,方法是:
ApplicationContext appContext = new ClassPathXmlApplicationContext(
new String[]{“bean-config1.xml”,“bean-config2.xml”,“bean-config3.xml”,“bean-config4.xml
- mysql 基准测试之sysbench
annan211
基准测试mysql基准测试MySQL测试sysbench
1 执行如下命令,安装sysbench-0.5:
tar xzvf sysbench-0.5.tar.gz
cd sysbench-0.5
chmod +x autogen.sh
./autogen.sh
./configure --with-mysql --with-mysql-includes=/usr/local/mysql
- sql的复杂查询使用案列与技巧
百合不是茶
oraclesql函数数据分页合并查询
本片博客使用的数据库表是oracle中的scott用户表;
------------------- 自然连接查询
查询 smith 的上司(两种方法)
&
- 深入学习Thread类
bijian1013
javathread多线程java多线程
一. 线程的名字
下面来看一下Thread类的name属性,它的类型是String。它其实就是线程的名字。在Thread类中,有String getName()和void setName(String)两个方法用来设置和获取这个属性的值。
同时,Thr
- JSON串转换成Map以及如何转换到对应的数据类型
bijian1013
javafastjsonnet.sf.json
在实际开发中,难免会碰到JSON串转换成Map的情况,下面来看看这方面的实例。另外,由于fastjson只支持JDK1.5及以上版本,因此在JDK1.4的项目中可以采用net.sf.json来处理。
一.fastjson实例
JsonUtil.java
package com.study;
impor
- 【RPC框架HttpInvoker一】HttpInvoker:Spring自带RPC框架
bit1129
spring
HttpInvoker是Spring原生的RPC调用框架,HttpInvoker同Burlap和Hessian一样,提供了一致的服务Exporter以及客户端的服务代理工厂Bean,这篇文章主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
在
【RPC框架Hessian二】Hessian 对象序列化和反序列化一文中
- 【Mahout二】基于Mahout CBayes算法的20newsgroup的脚本分析
bit1129
Mahout
#!/bin/bash
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information re
- nginx三种获取用户真实ip的方法
ronin47
随着nginx的迅速崛起,越来越多公司将apache更换成nginx. 同时也越来越多人使用nginx作为负载均衡, 并且代理前面可能还加上了CDN加速,但是随之也遇到一个问题:nginx如何获取用户的真实IP地址,如果后端是apache,请跳转到<apache获取用户真实IP地址>,如果是后端真实服务器是nginx,那么继续往下看。
实例环境: 用户IP 120.22.11.11
- java-判断二叉树是不是平衡
bylijinnan
java
参考了
http://zhedahht.blog.163.com/blog/static/25411174201142733927831/
但是用java来实现有一个问题。
由于Java无法像C那样“传递参数的地址,函数返回时能得到参数的值”,唯有新建一个辅助类:AuxClass
import ljn.help.*;
public class BalancedBTree {
- BeanUtils.copyProperties VS PropertyUtils.copyProperties
诸葛不亮
PropertyUtilsBeanUtils
BeanUtils.copyProperties VS PropertyUtils.copyProperties
作为两个bean属性copy的工具类,他们被广泛使用,同时也很容易误用,给人造成困然;比如:昨天发现同事在使用BeanUtils.copyProperties copy有integer类型属性的bean时,没有考虑到会将null转换为0,而后面的业
- [金融与信息安全]最简单的数据结构最安全
comsci
数据结构
现在最流行的数据库的数据存储文件都具有复杂的文件头格式,用操作系统的记事本软件是无法正常浏览的,这样的情况会有什么问题呢?
从信息安全的角度来看,如果我们数据库系统仅仅把这种格式的数据文件做异地备份,如果相同版本的所有数据库管理系统都同时被攻击,那么
- vi区段删除
Cwind
linuxvi区段删除
区段删除是编辑和分析一些冗长的配置文件或日志文件时比较常用的操作。简记下vi区段删除要点备忘。
vi概述
引文中并未将末行模式单独列为一种模式。单不单列并不重要,能区分命令模式与末行模式即可。
vi区段删除步骤:
1. 在末行模式下使用:set nu显示行号
非必须,随光标移动vi右下角也会显示行号,能够正确找到并记录删除开始行
- 清除tomcat缓存的方法总结
dashuaifu
tomcat缓存
用tomcat容器,大家可能会发现这样的问题,修改jsp文件后,但用IE打开 依然是以前的Jsp的页面。
出现这种现象的原因主要是tomcat缓存的原因。
解决办法如下:
在jsp文件头加上
<meta http-equiv="Expires" content="0"> <meta http-equiv="kiben&qu
- 不要盲目的在项目中使用LESS CSS
dcj3sjt126com
Webless
如果你还不知道LESS CSS是什么东西,可以看一下这篇文章,是我一朋友写给新人看的《CSS——LESS》
不可否认,LESS CSS是个强大的工具,它弥补了css没有变量、无法运算等一些“先天缺陷”,但它似乎给我一种错觉,就是为了功能而实现功能。
比如它的引用功能
?
.rounded_corners{
- [入门]更上一层楼
dcj3sjt126com
PHPyii2
更上一层楼
通篇阅读完整个“入门”部分,你就完成了一个完整 Yii 应用的创建。在此过程中你学到了如何实现一些常用功能,例如通过 HTML 表单从用户那获取数据,从数据库中获取数据并以分页形式显示。你还学到了如何通过 Gii 去自动生成代码。使用 Gii 生成代码把 Web 开发中多数繁杂的过程转化为仅仅填写几个表单就行。
本章将介绍一些有助于更好使用 Yii 的资源:
- Apache HttpClient使用详解
eksliang
httpclienthttp协议
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会
- zxing二维码扫描功能
gundumw100
androidzxing
经常要用到二维码扫描功能
现给出示例代码
import com.google.zxing.WriterException;
import com.zxing.activity.CaptureActivity;
import com.zxing.encoding.EncodingHandler;
import android.app.Activity;
import an
- 纯HTML+CSS带说明的黄色导航菜单
ini
htmlWebhtml5csshovertree
HoverTree带说明的CSS菜单:纯HTML+CSS结构链接带说明的黄色导航
在线体验效果:http://hovertree.com/texiao/css/1.htm代码如下,保存到HTML文件可以看到效果:
<!DOCTYPE html >
<html >
<head>
<title>HoverTree
- fastjson初始化对性能的影响
kane_xie
fastjson序列化
之前在项目中序列化是用thrift,性能一般,而且需要用编译器生成新的类,在序列化和反序列化的时候感觉很繁琐,因此想转到json阵营。对比了jackson,gson等框架之后,决定用fastjson,为什么呢,因为看名字感觉很快。。。
网上的说法:
fastjson 是一个性能很好的 Java 语言实现的 JSON 解析器和生成器,来自阿里巴巴的工程师开发。
- 基于Mybatis封装的增删改查实现通用自动化sql
mengqingyu
DAO
1.基于map或javaBean的增删改查可实现不写dao接口和实现类以及xml,有效的提高开发速度。
2.支持自定义注解包括主键生成、列重复验证、列名、表名等
3.支持批量插入、批量更新、批量删除
<bean id="dynamicSqlSessionTemplate" class="com.mqy.mybatis.support.Dynamic
- js控制input输入框的方法封装(数字,中文,字母,浮点数等)
qifeifei
javascript js
在项目开发的时候,经常有一些输入框,控制输入的格式,而不是等输入好了再去检查格式,格式错了就报错,体验不好。 /** 数字,中文,字母,浮点数(+/-/.) 类型输入限制,只要在input标签上加上 jInput="number,chinese,alphabet,floating" 备注:floating属性只能单独用*/
funct
- java 计时器应用
tangqi609567707
javatimer
mport java.util.TimerTask; import java.util.Calendar; public class MyTask extends TimerTask { private static final int
- erlang输出调用栈信息
wudixiaotie
erlang
在erlang otp的开发中,如果调用第三方的应用,会有有些错误会不打印栈信息,因为有可能第三方应用会catch然后输出自己的错误信息,所以对排查bug有很大的阻碍,这样就要求我们自己打印调用的栈信息。用这个函数:erlang:process_display (self (), backtrace).需要注意这个函数只会输出到标准错误输出。
也可以用这个函数:erlang:get_s