- 爬虫系列教程(10.2)--- 基于Session和Cookie的模拟登录爬取实战
rain雨雨编程
爬虫进阶爬虫python
前言模拟登录是指使用程序自动化地完成用户登录过程,以便获取登录后才能访问的数据或页面。本节介绍了模拟登录的基本原理和两种主要模式:基于Session和Cookie的模拟登录,以及基于JWT(JSONWebToken)的模拟登录。1.准备工作在进行模拟登录之前,需要准备好以下工具和库:requests:用于发送HTTP请求。Selenium:用于模拟浏览器操作。Redis:用于存储账号和Cookie
- [Python爬虫系列]bilibili
AI-Greater-Me
Python爬虫python爬虫开发语言
[Python爬虫系列]bilibili具体逻辑bv号->处理多P视频->拿到cid->sign->请求下载,其中sign参考前人算法(https://github.com/SocialSisterYi/bilibili-API-collect)b站视频下载链接https://api.bilibili.com/x/player/wbi/playurlhttps://api.bilibili.com
- python 爬虫系列04-电影天堂连接爬虫
Z14523299999
python爬虫
学习的第四个爬虫fromlxmlimportetreeimportrequestsBASE_D='http://www.dytt8.net'headers={'User-Agent':"Mozilla/5.0(WindowsNT10.0;Win64;x64;rv:62.0)Gecko/20100101Firefox/62.0"}defget_detail_urls(url):response=re
- 【Go语言爬虫系列01】爬虫入门与Colly框架基础
Gopher部落
Go语言爬虫系列golang爬虫开发语言
原创系列:“Go语言爬虫系列”转载说明:本文最初发布于"Gopher部落"微信公众号,经原作者授权转载。关注原创:欢迎扫描文末二维码,关注"Gopher部落"微信公众号获取第一手Go技术文章。Go语言爬虫系列导航本文是【Go语言爬虫系列】的第1篇,点击下方链接查看更多文章Go爬虫系列:共12篇爬虫入门与Colly框架基础当前位置HTML解析与Goquery技术详解Colly高级特性与并发控制爬虫架
- 【Go语言爬虫系列03】Colly高级特性与并发控制
Gopher部落
Go语言爬虫系列golang爬虫开发语言
原创系列:“Go语言爬虫系列”转载说明:本文最初发布于"Gopher部落"微信公众号,经原作者授权转载。关注原创:欢迎扫描文末二维码,关注"Gopher部落"微信公众号获取第一手Go技术文章。Go语言爬虫系列导航本文是【Go语言爬虫系列】的第3篇,点击下方链接查看更多文章Go爬虫系列:共12篇爬虫入门与Colly框架基础HTML解析与Goquery技术详解Colly高级特性与并发控制当前位置爬虫架
- 爬取药智网的中药材基本信息库
我要的shine
Pythonpython代码
最近正在做爬虫系列的东西,也是刚刚开始写,写的也不怎么样.....下面是我写的爬取中药材基本信息库的代码,还请大家多多指导。首先先看网页,刚开始的时候,中的信息无法读出来,导致后面的信息也读不出来,所以下面就改了一下网址的源码。然后,信息与信息之间的分割应该是空白符(原来我一直以为是换行符,多亏有大神指导!),所以代码为:#coding=utf-8frombs4importBeautifulSou
- 爬虫系列之爬取丁香园用户主页(上)
guangcheng0312q
目录0.写在前面1.分析页面2.获取页面源码3.解析数据4.数据存储及导出4.1数据存储4.2数据导出5.pandas实现导出6.面向对象封装0.写在前面目标页面http://i.dxy.cn/profile/yilizhongzi目的爬取丁香园用户主页的信息,这些信息如下图字段:爬取字段图也就是从用户主页提取这些数据,那么我们开始实战!1.分析页面分析页面图我们需要爬取的信息就是上述图中侧边栏信
- 【爬虫系列】一些碎碎念的基础认知(1)
海苔苔苔苔
爬虫系列爬虫
引言互联网时代的一些主流搜索引擎(如百度、Google、搜狗、360等)都有强大的网络爬虫系统构建索引数据库。这些搜索引擎平台各自研发了专属的网页抓取工具,例如360安全浏览器采用360Spider,搜狗部署Sogouspider等。根据应用场景和技术特性的不同,网络爬虫主要分为三大技术类型:通用网络爬虫:要遵守robots协议聚焦网络爬虫:与通用的区别是会对网页内容进行筛选和处理。增量式网络爬虫
- python爬虫系列实例-python爬虫实例,一小时上手爬取淘宝评论(附代码)
weixin_37988176
前言本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。1明确目的通过访问天猫的网站,先搜索对应的商品,然后爬取它的评论数据。可以作为设计前期的市场调研的数据,帮助很大。2爬取评论并储存(首先要进行登录,获取cookie)搜索你想收集的信息的评价,然后点开对应的产品图片。找到对应的评价的位置。找到对应的位置之后就可以进行数据的爬取了
- 可狱可囚的爬虫系列课程 19:静态页面和动态页面之分
HerrFu@灵思智行科技
爬虫python爬虫
在爬虫开发中,静态页面和动态页面的核心区别在于数据的生成和加载方式,理解两者的差异直接影响爬虫技术选型和数据抓取策略;掌握静态/动态页面的区别,可显著提升爬虫效率和成功率。一、静态页面(StaticPage)静态页面的内容(1)在服务器预先生成,以.html文件形式存储,用户每次访问时返回相同的HTML代码。(2)数据直接嵌入在HTML中(如文本、表格、链接等)。(3)纯HTML+CSS,无复杂交
- python爬虫系列课程7:ajax
wp_tao
Python副业接单实战项目python爬虫ajax
python爬虫系列课程7:ajax一、ajax的介绍二、ajax的使用一、ajax的介绍ajax是AsynchronousJavaScriptandXML的简写,ajax是一个前后端配合的技术,它可以让JavaScript发送异步的http请求,与后台通信进行数据的获取,ajax最大的优点是实现局部刷新,ajax可以发送http请求,当获取到后台数据的时候更新页面显示数据实现局部刷新,在这里大家
- python爬虫系列课程4:一个例子学会使用xpath语法
wp_tao
Python副业接单实战项目python爬虫开发语言
python爬虫系列课程4:一个例子学会使用xpath语法本文通过一个例子,学会xpath的各种语法,可以作为xpath的查询手册使用,代码如下:fromlxmlimportetreetext='''firstitemseconditemthirditemfourthitem<liclass="item-0
- Python爬虫系列教程之第十五篇:爬取电商网站商品信息与数据分析
放氮气的蜗牛
深度博客python爬虫数据分析
大家好,欢迎继续关注本系列爬虫教程!在前面的文章中,我们已经学习了如何构建爬虫、如何应对反爬机制以及如何将数据存储到数据库或文件中。随着业务场景的不断扩展,电商网站的数据采集和分析已成为实际项目中非常重要的一环。本篇博客我们将以电商网站中的图书信息为例(使用BookstoScrape这一专门用于爬虫练习的网站),详细介绍如何从网站中爬取商品信息,并利用数据清洗和数据分析技术对采集到的数据进行进一步
- 【Python爬虫系列】_031.Scrapy_模拟登陆&中间件
失心疯_2023
Python爬虫系列python爬虫scrapy中间件面向切面requestsAOP
课程推荐我的个人主页:失心疯的个人主页入门教程推荐:Python零基础入门教程合集虚拟环境搭建:Python项目虚拟环境(超详细讲解)PyQt5系列教程:PythonGUI(PyQt5)教程合集Oracle数据库教程:Oracle数据库教程合集MySQL数据库教程:MySQL数据库教程合集
- Python学习教程:必须掌握的Cookie知识点都在这里了
weixin_30387339
python爬虫javascriptViewUI
今天我们来全面了解一下Cookie(小饼干)相关的知识!篇幅有点长,在学习Python的伙伴或者有兴趣的你,可以耐心看哦!相信很多同学肯定听过Cookie这个东西,也大概了解其作用,但是其原理以及如何设置,可能没有做过web的同学并不是非常清楚,以前的Python学习教程中其实有跟大家提到过,那今天就带大家详细了解下Cookie相关的知识!一、诞生背景爬虫系列教程的第一篇:HTTP详解中我们便说过
- Python爬虫系列:爬取小说并写入txt文件_python爬虫爬取小说保存txt
2301_82244158
程序员python爬虫开发语言
哈喽,哈喽~都说手机自带的浏览器是看小说最好的一个APP,不须要下载任何软件,直接百度就ok了。但是小编还是想说,如果没有网,度娘还是度娘吗?能把小说下载成一个**.txt文件看**不是更香吗?这能难倒小编吗?坚决不能滴。于是乎,自己动手丰衣足食,Python就是万能的好吧。概要:程序语言:python第三方库:requests,parsel最后Python崛起并且风靡,因为优点多、应用领域广、被
- python必背100源代码-学会这个Python库,至少能减少100行代码
编程大乐趣
写在前面梦想橡皮擦,一个立志成为IT圈有影响力的人,到今天,我已经实现了10%今天打算写爬虫系列的文章,浏览过程中到达了知乎,看到了很多健身妹子,恩,身材很好,心中灵光一闪就想爬下来,存档。作为一个勉强算是爬虫已经入门的小菜来说,这个简单的不行,一顿操作之后,发现卡在了知乎登录上,原计划自己写个模拟登录,后来一琢磨,不想造轮子了,去github上找一个现成的不香吗?于是乎,有了这篇文章Decryp
- python爬取微信小程序数据,python爬取小程序数据
2301_81900439
前端
大家好,小编来为大家解答以下问题,python爬取微信小程序数据,python爬取小程序数据,现在让我们一起来看看吧!Python爬虫系列之微信小程序实战基于Scrapy爬虫框架实现对微信小程序数据的爬取首先,你得需要安装抓包工具,这里推荐使用Charles,至于怎么使用后期有时间我会出一个事例最重要的步骤之一就是分析接口,理清楚每一个接口功能,然后连接起来形成接口串思路,再通过Spider的回调
- python网络爬虫的流程图_python爬虫系列(1)- 概述
weixin_39649965
python网络爬虫的流程图
原标题:python爬虫系列(1)-概述事由之前间断地写过一些python爬虫的一些文章,如:工具分享|在线小说一键下载Python帮你定制批量获取智联招聘的信息Python帮你定制批量获取你想要的信息用python定制网页跟踪神器,有信息更新第一时间通知你(附视频演示)把python网页跟踪神器部署到云上,彻底解放你的电脑个人认为学习python语言的话,爬虫是一个非常适合入门的方向。为了把学习
- Python爬虫系列总结
qformat
python爬虫开发语言
Python爬虫系列总结包含(Scrapy框架介绍)文章目录Python爬虫系列总结包含(Scrapy框架介绍)一、前言二、Python爬虫的基础三、Python爬虫进阶四、简易爬虫总结五、Python爬虫框架六、爬虫部署一、前言随着WEB2.0时代的到来,网络已经成为了人们获取信息的重要途径,而爬虫技术可以让我们从海量的网络数据中快速地获取我们想要的信息。Python是一种简单易学、功能强大的编
- 【Python爬虫系列】浅尝一下爬虫40例实战教程+源代码【基础+进阶】
嗨!栗子同学
Python爬虫Python爬虫系列爬虫python新手入门实战合集源码合集
前言哈喽!哈喽!我是栗子同学~小编从最初的Python入门安装开始到现在更新了90多篇文章啦。但是新手系列更新完之后——后续的爬虫系列更不动,大家也知道这个机制,很多内容不能发滴!很多小伙伴儿想学习爬虫的,这次先浅浅的给大家安排一些之前小编浅尝的小项目。爬虫系列——准备安排一波哈之后能过的话再慢慢给大家一个内容一个内容的更新!(爬虫系列文章已经开始再微信公众号开始写啦喜欢的文末可以关注下哦!)正文
- 爬虫系列-web请求全过程剖析
会编程的果子君
爬虫爬虫开发语言
个人主页:会编程的果子君个人格言:“成为自己未来的主人~”上一小节我们实现了一个网页的整体抓取工作,那么本小节,给各位好好剖析一下web请求的全部过程,这样有助于后面我们遇到的各种各样的网站就有了入手的基本准则了那么到底我们浏览器在输入完网址到我们看到网页的整体内容,这个过程究竟发生了写什么?这里我们以百度为例,在访问百度的时候,浏览器会把这一次的请求发送给百度的服务器(百度的一台电脑),由服务器
- 爬虫系列-第一个爬虫
会编程的果子君
爬虫爬虫
个人主页:会编程的果子君个人格言:“成为自己未来的主人~”首先,我们需要回顾一下爬虫的概念,爬虫就是我们通过我们写的程序去抓取互联网上的数据资源,比如,此时我需要百度的资源,在不考虑爬虫的情况下,我们肯定是打开浏览器,然后输入百度的网址,紧接着,我们就能在浏览器上看到百度的内容了,那换成爬虫呢?其实道理是一样的,只不过,我们需要用代码来模拟一个浏览器,然后同样输入百度的网址,那么我们的程序应该也能
- 爬虫系列:读取 CSV、PDF、Word 文档
pdflibr
上一期我们讲解了使用Python读取文档编码的相关问题,本期我们讲解使用Python处理CSV、PDF、Word文档相关内容。CSV我们进行网页采集的时候,你可能会遇到CSV文件,也可能项目需要将数据保存到CSV文件。Python有一个超赞的标准库可以读写CSV文件。虽然这个库可以处理各种CSV文件,但是我们这里重点介绍标准CSV格式。读取CSV文件Python的CSV主要是面向本地用户,也就是说
- Python爬虫系列-有道批量翻译英文单词-注音标版
虫鸣@蝶舞
Python爬虫系列python开发语言
爬虫系列更新-第二篇文章——《Python爬虫系列-有道批量翻译英文单词-注音标版》之前发布计算机英文单词时研究了下,怎么把一个含有大量英文单词的txt文件翻译成如下格式:如上图,左边图片是需要翻译的txt文本,右边图片是翻译后的txt文本。运行的实际界面效果。python代码参考了CSDN上的这个作者的帖子,他的分析博文很牛,但是没有批量翻译功能,所以我在他的代码的基础上添加了翻译中文、写入国际
- python爬虫系列(5)- 看了这篇文章你也可以一键下载网络小说
永恒君的百宝箱
实例讲解request库、bs4库的使用方法之前写过一篇文章:分享|在线小说一键下载文章里面简要的介绍一下使用python一键下载小说,该程序就是使用request库、bs4库完成的,比较适合入门的伙伴来学习。运行效果.gif正好之前介绍了python爬虫的一些知识,今天就来详细的说一下这个实例。需求爬取网页上小说的名字以及所有章节的内容,保存到txt文件。以下面这篇https://www.hon
- 可狱可囚的爬虫系列课程 12:在网站中寻找 API 接口(补充)(王者荣耀英雄信息抓取)
HerrFu
爬虫python爬虫
我们前面讲过了怎么在网站中找接口,如何在开发者工具中判断是不是接口,但是凡事都有例外,今天我还要再针对此问题做一次详细描述。本次就以王者荣耀官网https://pvp.qq.com/为例,带大家进行学习。一、找英雄接口如上图,我们今天要找的接口,在“游戏资料”的“英雄资料”中,要抓取所有英雄的基本信息,还是老样子,先打开开发者工具,尝试寻找接口。经过寻找,我们发现王者荣耀这里的接口很明显,就是名为
- 爬虫系列实战:使用json解析天气数据
python慕遥
爬虫系列教程爬虫
大家好,爬虫是一项非常抢手的技能,收集、分析和清洗数据是数据科学项目中最重要的部分,本文介绍使用json解析气象局天气数据。在官网上获取天气数据信息,可以定义当前查询的位置,提取时间、温度、湿度、气压、风速等信息,并导入requests、matplotlib这些需要用到的库。#导入以下模块importrequestsimportmatplotlib.pyplotaspltimportpylabas
- 可狱可囚的爬虫系列课程 11:Requests中的SSL
HerrFu
爬虫python爬虫
一、SSL证书SSL证书是数字证书的一种,类似于驾驶证、护照、营业执照等的电子副本。SSL证书也称为SSL服务器证书,因为它是配置在服务器上。SSL证书是由受信任的数字证书颁发机构CA在验证服务器身份后颁发的,其具有服务器身份验证和数据传输加密功能。SSL证书通过在客户端浏览器和Web服务器之间建立一条SSL安全通道,通过它可以激活SSL协议,实现数据信息在客户端和服务器之间的加密传输,可以防止数
- Java爬虫系列二:使用HttpClient抓取页面HTML
不會變承諾
爬虫要想爬取需要的信息,首先第一步就要抓取到页面html内容,然后对html进行分析,获取想要的内容。上一篇随笔《Java爬虫系列一:写在开始前》中提到了HttpClient可以抓取页面内容。今天就来介绍下抓取html内容的工具:HttpClient。一、什么是HttpClient度娘说:HttpClient是ApacheJakartaCommon下的子项目,可以用来提供高效的、最新的、功能丰富的
- jvm调优总结(从基本概念 到 深度优化)
oloz
javajvmjdk虚拟机应用服务器
JVM参数详解:http://www.cnblogs.com/redcreen/archive/2011/05/04/2037057.html
Java虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。
- 【Scala十六】Scala核心十:柯里化函数
bit1129
scala
本篇文章重点说明什么是函数柯里化,这个语法现象的背后动机是什么,有什么样的应用场景,以及与部分应用函数(Partial Applied Function)之间的联系 1. 什么是柯里化函数
A way to write functions with multiple parameter lists. For instance
def f(x: Int)(y: Int) is a
- HashMap
dalan_123
java
HashMap在java中对很多人来说都是熟的;基于hash表的map接口的非同步实现。允许使用null和null键;同时不能保证元素的顺序;也就是从来都不保证其中的元素的顺序恒久不变。
1、数据结构
在java中,最基本的数据结构无外乎:数组 和 引用(指针),所有的数据结构都可以用这两个来构造,HashMap也不例外,归根到底HashMap就是一个链表散列的数据
- Java Swing如何实时刷新JTextArea,以显示刚才加append的内容
周凡杨
java更新swingJTextArea
在代码中执行完textArea.append("message")后,如果你想让这个更新立刻显示在界面上而不是等swing的主线程返回后刷新,我们一般会在该语句后调用textArea.invalidate()和textArea.repaint()。
问题是这个方法并不能有任何效果,textArea的内容没有任何变化,这或许是swing的一个bug,有一个笨拙的办法可以实现
- servlet或struts的Action处理ajax请求
g21121
servlet
其实处理ajax的请求非常简单,直接看代码就行了:
//如果用的是struts
//HttpServletResponse response = ServletActionContext.getResponse();
// 设置输出为文字流
response.setContentType("text/plain");
// 设置字符集
res
- FineReport的公式编辑框的语法简介
老A不折腾
finereport公式总结
FINEREPORT用到公式的地方非常多,单元格(以=开头的便被解析为公式),条件显示,数据字典,报表填报属性值定义,图表标题,轴定义,页眉页脚,甚至单元格的其他属性中的鼠标悬浮提示内容都可以写公式。
简单的说下自己感觉的公式要注意的几个地方:
1.if语句语法刚接触感觉比较奇怪,if(条件式子,值1,值2),if可以嵌套,if(条件式子1,值1,if(条件式子2,值2,值3)
- linux mysql 数据库乱码的解决办法
墙头上一根草
linuxmysql数据库乱码
linux 上mysql数据库区分大小写的配置
lower_case_table_names=1 1-不区分大小写 0-区分大小写
修改/etc/my.cnf 具体的修改内容如下:
[client]
default-character-set=utf8
[mysqld]
datadir=/var/lib/mysql
socket=/va
- 我的spring学习笔记6-ApplicationContext实例化的参数兼容思想
aijuans
Spring 3
ApplicationContext能读取多个Bean定义文件,方法是:
ApplicationContext appContext = new ClassPathXmlApplicationContext(
new String[]{“bean-config1.xml”,“bean-config2.xml”,“bean-config3.xml”,“bean-config4.xml
- mysql 基准测试之sysbench
annan211
基准测试mysql基准测试MySQL测试sysbench
1 执行如下命令,安装sysbench-0.5:
tar xzvf sysbench-0.5.tar.gz
cd sysbench-0.5
chmod +x autogen.sh
./autogen.sh
./configure --with-mysql --with-mysql-includes=/usr/local/mysql
- sql的复杂查询使用案列与技巧
百合不是茶
oraclesql函数数据分页合并查询
本片博客使用的数据库表是oracle中的scott用户表;
------------------- 自然连接查询
查询 smith 的上司(两种方法)
&
- 深入学习Thread类
bijian1013
javathread多线程java多线程
一. 线程的名字
下面来看一下Thread类的name属性,它的类型是String。它其实就是线程的名字。在Thread类中,有String getName()和void setName(String)两个方法用来设置和获取这个属性的值。
同时,Thr
- JSON串转换成Map以及如何转换到对应的数据类型
bijian1013
javafastjsonnet.sf.json
在实际开发中,难免会碰到JSON串转换成Map的情况,下面来看看这方面的实例。另外,由于fastjson只支持JDK1.5及以上版本,因此在JDK1.4的项目中可以采用net.sf.json来处理。
一.fastjson实例
JsonUtil.java
package com.study;
impor
- 【RPC框架HttpInvoker一】HttpInvoker:Spring自带RPC框架
bit1129
spring
HttpInvoker是Spring原生的RPC调用框架,HttpInvoker同Burlap和Hessian一样,提供了一致的服务Exporter以及客户端的服务代理工厂Bean,这篇文章主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
在
【RPC框架Hessian二】Hessian 对象序列化和反序列化一文中
- 【Mahout二】基于Mahout CBayes算法的20newsgroup的脚本分析
bit1129
Mahout
#!/bin/bash
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information re
- nginx三种获取用户真实ip的方法
ronin47
随着nginx的迅速崛起,越来越多公司将apache更换成nginx. 同时也越来越多人使用nginx作为负载均衡, 并且代理前面可能还加上了CDN加速,但是随之也遇到一个问题:nginx如何获取用户的真实IP地址,如果后端是apache,请跳转到<apache获取用户真实IP地址>,如果是后端真实服务器是nginx,那么继续往下看。
实例环境: 用户IP 120.22.11.11
- java-判断二叉树是不是平衡
bylijinnan
java
参考了
http://zhedahht.blog.163.com/blog/static/25411174201142733927831/
但是用java来实现有一个问题。
由于Java无法像C那样“传递参数的地址,函数返回时能得到参数的值”,唯有新建一个辅助类:AuxClass
import ljn.help.*;
public class BalancedBTree {
- BeanUtils.copyProperties VS PropertyUtils.copyProperties
诸葛不亮
PropertyUtilsBeanUtils
BeanUtils.copyProperties VS PropertyUtils.copyProperties
作为两个bean属性copy的工具类,他们被广泛使用,同时也很容易误用,给人造成困然;比如:昨天发现同事在使用BeanUtils.copyProperties copy有integer类型属性的bean时,没有考虑到会将null转换为0,而后面的业
- [金融与信息安全]最简单的数据结构最安全
comsci
数据结构
现在最流行的数据库的数据存储文件都具有复杂的文件头格式,用操作系统的记事本软件是无法正常浏览的,这样的情况会有什么问题呢?
从信息安全的角度来看,如果我们数据库系统仅仅把这种格式的数据文件做异地备份,如果相同版本的所有数据库管理系统都同时被攻击,那么
- vi区段删除
Cwind
linuxvi区段删除
区段删除是编辑和分析一些冗长的配置文件或日志文件时比较常用的操作。简记下vi区段删除要点备忘。
vi概述
引文中并未将末行模式单独列为一种模式。单不单列并不重要,能区分命令模式与末行模式即可。
vi区段删除步骤:
1. 在末行模式下使用:set nu显示行号
非必须,随光标移动vi右下角也会显示行号,能够正确找到并记录删除开始行
- 清除tomcat缓存的方法总结
dashuaifu
tomcat缓存
用tomcat容器,大家可能会发现这样的问题,修改jsp文件后,但用IE打开 依然是以前的Jsp的页面。
出现这种现象的原因主要是tomcat缓存的原因。
解决办法如下:
在jsp文件头加上
<meta http-equiv="Expires" content="0"> <meta http-equiv="kiben&qu
- 不要盲目的在项目中使用LESS CSS
dcj3sjt126com
Webless
如果你还不知道LESS CSS是什么东西,可以看一下这篇文章,是我一朋友写给新人看的《CSS——LESS》
不可否认,LESS CSS是个强大的工具,它弥补了css没有变量、无法运算等一些“先天缺陷”,但它似乎给我一种错觉,就是为了功能而实现功能。
比如它的引用功能
?
.rounded_corners{
- [入门]更上一层楼
dcj3sjt126com
PHPyii2
更上一层楼
通篇阅读完整个“入门”部分,你就完成了一个完整 Yii 应用的创建。在此过程中你学到了如何实现一些常用功能,例如通过 HTML 表单从用户那获取数据,从数据库中获取数据并以分页形式显示。你还学到了如何通过 Gii 去自动生成代码。使用 Gii 生成代码把 Web 开发中多数繁杂的过程转化为仅仅填写几个表单就行。
本章将介绍一些有助于更好使用 Yii 的资源:
- Apache HttpClient使用详解
eksliang
httpclienthttp协议
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会
- zxing二维码扫描功能
gundumw100
androidzxing
经常要用到二维码扫描功能
现给出示例代码
import com.google.zxing.WriterException;
import com.zxing.activity.CaptureActivity;
import com.zxing.encoding.EncodingHandler;
import android.app.Activity;
import an
- 纯HTML+CSS带说明的黄色导航菜单
ini
htmlWebhtml5csshovertree
HoverTree带说明的CSS菜单:纯HTML+CSS结构链接带说明的黄色导航
在线体验效果:http://hovertree.com/texiao/css/1.htm代码如下,保存到HTML文件可以看到效果:
<!DOCTYPE html >
<html >
<head>
<title>HoverTree
- fastjson初始化对性能的影响
kane_xie
fastjson序列化
之前在项目中序列化是用thrift,性能一般,而且需要用编译器生成新的类,在序列化和反序列化的时候感觉很繁琐,因此想转到json阵营。对比了jackson,gson等框架之后,决定用fastjson,为什么呢,因为看名字感觉很快。。。
网上的说法:
fastjson 是一个性能很好的 Java 语言实现的 JSON 解析器和生成器,来自阿里巴巴的工程师开发。
- 基于Mybatis封装的增删改查实现通用自动化sql
mengqingyu
DAO
1.基于map或javaBean的增删改查可实现不写dao接口和实现类以及xml,有效的提高开发速度。
2.支持自定义注解包括主键生成、列重复验证、列名、表名等
3.支持批量插入、批量更新、批量删除
<bean id="dynamicSqlSessionTemplate" class="com.mqy.mybatis.support.Dynamic
- js控制input输入框的方法封装(数字,中文,字母,浮点数等)
qifeifei
javascript js
在项目开发的时候,经常有一些输入框,控制输入的格式,而不是等输入好了再去检查格式,格式错了就报错,体验不好。 /** 数字,中文,字母,浮点数(+/-/.) 类型输入限制,只要在input标签上加上 jInput="number,chinese,alphabet,floating" 备注:floating属性只能单独用*/
funct
- java 计时器应用
tangqi609567707
javatimer
mport java.util.TimerTask; import java.util.Calendar; public class MyTask extends TimerTask { private static final int
- erlang输出调用栈信息
wudixiaotie
erlang
在erlang otp的开发中,如果调用第三方的应用,会有有些错误会不打印栈信息,因为有可能第三方应用会catch然后输出自己的错误信息,所以对排查bug有很大的阻碍,这样就要求我们自己打印调用的栈信息。用这个函数:erlang:process_display (self (), backtrace).需要注意这个函数只会输出到标准错误输出。
也可以用这个函数:erlang:get_s