- Python网络爬虫技术深度解析:从入门到高级实战
Python爬虫项目
2025年爬虫实战项目python爬虫开发语言easyuiscrapy
1.爬虫技术概述网络爬虫(WebCrawler)是一种自动化程序,通过模拟人类浏览行为从互联网上抓取、解析和存储数据。根据应用场景可分为:通用爬虫:如搜索引擎的蜘蛛程序聚焦爬虫:针对特定领域的数据采集增量式爬虫:只抓取更新内容深层网络爬虫:处理需要交互的动态内容2.2024年Python爬虫技术栈技术分类推荐工具适用场景基础请求库requests,httpx静态页面请求解析库BeautifulSo
- 零依赖Python爬虫代码,已通过100%黑盒测试,保证复制即用:
黑科技Python
爬虫python
#-*-coding:utf-8-*-"""终极零依赖爬虫解决方案验证结果:已通过32种异常场景测试最后更新:2025-7-26"""importurllib.requestimporturllib.errorimporthashlibimporttimeimportrandomclassUltraCrawler:"""
- Crawlee高阶用法:无代码配置实现动态网站爬虫
程序员威哥
爬虫pythonscrapytcp/ip网络协议
爬虫开发一直以来都需要编写大量的代码,尤其是在抓取动态网站时,往往需要处理JavaScript渲染和分页等复杂的问题。然而,Crawlee(之前叫ApifySDK)作为一个现代化的爬虫框架,提供了更加高效和简便的方式,甚至可以通过无代码配置来快速抓取动态网站数据。在本篇文章中,我们将深入探讨如何使用Crawlee实现动态网站的爬虫,并展示如何通过简单的配置来完成爬虫任务,节省开发时间和精力。1.C
- DeepSeekMath:突破开源语言模型在数学推理中的极限
AI专题精讲
强化学习人工智能强化学习AI技术应用
温馨提示:本篇文章已同步至"AI专题精讲"DeepSeekMath:突破开源语言模型在数学推理中的极限摘要数学推理由于其复杂且结构化的特性,对语言模型构成了重大挑战。本文介绍了DeepSeekMath7B,该模型在DeepSeek-Coder-Base-v1.57B的基础上继续进行了预训练,使用了来自CommonCrawl的120B数学相关token,同时包含自然语言和代码数据。DeepSeekM
- python爬虫--爬去300个租房信息页
朝畫夕拾
爬去300个租房信息页代码如下#--coding:utf-8--importtime,requestsfrombs4importBeautifulSouppage=0limit_count=300crawl_list=[]headers={'Content-type':'text/html;charset=UTF-8','User-Agent':'Mozilla/5.0(Macintosh;Int
- 网络爬虫:技术原理、应用场景与合法使用全攻略
程序小武
python爬虫入门爬虫网络
爬虫是什么?网络爬虫(WebScraping或WebCrawling)是一种通过自动化方式从网站上抓取公开数据的程序。它通过模拟用户在浏览器中浏览网页的过程,访问网页、提取信息,并将数据保存到本地系统中。爬虫技术广泛应用于搜索引擎、数据收集、市场分析、信息聚合等多个领域。爬虫能做什么?数据收集爬虫可以高效地从互联网上的大量网站收集信息。比如,抓取新闻网站上的文章内容、商品电商平台的价格与库存数据、
- 今日Github热门仓库推荐2025-07-07
桃白白大人
Github热门项目推荐github
今日Github热门仓库推荐2025-07-07如果让AI分别扮演后端开发人员和前端开发人员,然后看看他们分别对github每天的trending仓库感兴趣的有哪些,并且给出他感兴趣的理由,那会发生什么呢?本内容通过Python+AI生成,项目地址跳转后端开发人员推荐仓库名称:NanmiCoder/MediaCrawler仓库推荐理由:作为一个有10年后端开发经验的工程师,我对数据抓取和处理有浓厚
- firecrawl本地docker部署(WSL虚拟机Ubuntu24)
firecrawl本地docker部署下载源码github下载地址部署按照firecrawl目录下SELF_HOST.md文档进行操作即可。本次生成的镜像在后面提供了百度网盘下载。创建.env文件将firecrawl\apps\api.env.example文件拷贝到firecrawl目录下(和docker-compose.yaml同一目录下),修改文件名为.env#=====RequiredEN
- 有了 25k Star 的MediaCrawler爬虫库加持,三分钟搞定某红书、某音等平台爬取!
前端后端爬虫
大家好,我是程序员凌览。今天给大家介绍一个超实用的Python爬虫实战项目——MediaCrawler。这个项目可以实现小红书、抖音、快手、B站和微博的爬虫功能,覆盖了当下热门的自媒体平台。它能够高效抓取这些平台上的视频、图片、评论、点赞和转发等信息。MediaCrawler支持的平台及功能如下图:快速开始下载项目代码访问MediaCrawlerGitHub仓库,点击“Code”按钮下载项目代码。
- GitHub每周最火火火项目(6.30-7.6)
FutureUniant
Github周推githubmicrosoft人工智能ai计算机视觉
1.NanniCoder/MediaCrawler项目名称:MediaCrawler项目介绍:该项目采用Python语言开发,专注于多平台媒体内容的爬取工作。从用途来看,它能够精准抓取小红书笔记、抖音视频、快手视频、B站视频、微博帖子、百度贴吧帖子及评论、知乎问答文章等各类媒体平台的内容。在使用场景方面,对于新媒体运营者而言,可借助它批量采集行业内多平台的热门内容、竞品动态,为自身内容创作、运营策
- MediaCrawler:强大的自媒体平台爬虫工具
几道之旅
人工智能智能体及数字员工Python杂货铺AI自建MCP学习记录媒体爬虫人工智能
在当今数字化的时代,自媒体平台蕴含着海量的数据,这些数据对于研究、市场分析等方面具有重要的价值。而MediaCrawler正是一款专注于自媒体平台数据采集的强大工具,本文将为大家详细介绍这个开源项目。一、项目简介MediaCrawler是一个功能强大的多平台自媒体数据采集工具,其开源仓库地址为https://github.com/NanmiCoder/MediaCrawler。该工具支持小红书、抖
- 使用 Python 编写一个简单的网页爬虫
小张同学的解忧笔记
python爬虫开发语言
在数据时代,信息是金子。而网络上蕴藏着海量的数据资源,掌握一门自动化获取数据的技术就尤为重要。今天我们将通过Python来编写一个简单的网页爬虫,从一个网页中提取我们想要的数据内容。一、什么是网页爬虫?网页爬虫(WebCrawler)是一种自动访问网站并抓取其页面内容的程序。它模拟浏览器的行为,访问网站并提取页面中的结构化数据,如文本、图片、链接等。二、准备工作我们需要安装以下Python库:pi
- Java爬虫技术详解:原理、实现与优势
cyc&阿灿
Java多线程java爬虫开发语言
一、什么是网络爬虫?网络爬虫(WebCrawler),又称网络蜘蛛或网络机器人,是一种自动化程序,能够按照一定的规则自动浏览和抓取互联网上的信息。爬虫技术是大数据时代获取网络数据的重要手段,广泛应用于搜索引擎、数据分析、价格监控等领域。Java作为一种稳定、高效的编程语言,凭借其强大的网络编程能力和丰富的生态库,成为开发网络爬虫的热门选择。二、Java爬虫核心组件一个完整的Java爬虫通常包含以下
- 使用Puppeteer抓取动态网页的完整指南
当遇到React/Vue等现代前端框架构建的SPA(单页应用)时,传统爬虫无法获取JavaScript动态渲染的内容。本文将教你使用Puppeteer破解这个难题,实现真正的动态网页抓取。我们开始准备环境1.安装Node.js版本至少要在14以上才行哦2.初始化开发项目的命令在这里mkdirpuppeteer-crawler&&cdpuppeteer-crawlernpminit-y3.在项目里边
- 用Firecrawl轻松获取网站数据,提升AI应用的效率!
人工智能我来了
人工智能AI人工智能
Firecrawl:助力AI应用的强大工具!在数字化信息爆炸的时代,如何高效地从海量网页中提取有用数据变得尤其重要。Firecrawl的问世,为我们揭开了一种便捷的方法来应对这一挑战。它不仅能够将整个网站的数据转化为适用于大语言模型(LLM)的markdown或结构化数据,还能通过单一的API实现数据抓取、爬取和提取。从此,清晰、整洁的数据触手可及。什么是Firecrawl?Firecrawl是一
- Python个人学习基础笔记-3.爬虫(1)
孜宸润泽
python学习笔记
一.爬虫的定义爬虫(crawler/spider)是模拟浏览器行为,按照编写规则,自动接收网页信息的工具。通常而言爬虫首先从初始URL集选择URL,向目标网页发起请求,获取网页的HTML源码,然后将获取的数据进行解析过滤,保存我们所需要的标题、内容等,最后提取新的URL加入待爬序列。爬虫常见所需要的库包括Request库、BeautifulSoup4库、Scrapy库和Selenium库等。二.R
- python教学爬虫入门
早柚不用工作了
python
Python爬虫入门教程:从零基础到抓取数据一、什么是网络爬虫?网络爬虫(WebCrawler),也称为网络蜘蛛(WebSpider),是一种按照一定的规则,自动抓取万维网信息的程序或者脚本。它能够模拟人类在浏览器中的操作,自动访问网页,提取所需的数据,广泛应用于数据采集、搜索引擎优化、市场调研等领域。但在编写爬虫时,务必遵守法律法规和网站的robots.txt协议,避免过度抓取对网站造成负担,同
- crawl4ai实操7
人工智能我来了
网络爬虫python开发语言
importasyncioimporttimefromcrawl4aiimportCrawlerRunConfig,AsyncWebCrawler,CacheModefromcrawl4ai.content_scraping_strategyimportLXMLWebScrapingStrategyfromcrawl4ai.deep_crawlingimportBFSDeepCrawlStrate
- crawl4ai实操8
人工智能我来了
网络爬虫网络爬虫
importosimportsysimportasynciofromcrawl4aiimportAsyncWebCrawler,CacheMode,CrawlerRunConfig#Adjustpathsasneededparent_dir=os.path.dirname(os.path.dirname(os.path.abspath(__file__)))sys.path.append(pare
- 9 八个 Cline社区最喜欢的MCP
RockTec
AI学习aiclinevibe_coding
9八个Cline社区最喜欢的MCPMCP服务器是Cline的脚手架,在Cline为你编程时,需要做超出向LLM获取反馈的操作,此时,就会借助MCP完成。MCP很多,小到HelloWorld,大到操作Blender创建场景,涵盖了很多方面的内容。以下是社区精选的一些MCP。firecrawlmcp一个网络爬虫MCP,主要功能有:firecrawl_scrape:抓取单个网页,支持高级内容提取选项。支
- 【高级前端进阶】前端深度 SEO 优化完整指南(大厂实践)
全栈前端老曹
性能优化系列前端业务实践前端SEOjavascript性能优化vuereact浏览器
前端深度SEO优化完整指南(最全最细)SEO(搜索引擎优化)是提升网站在搜索引擎中排名的重要手段。前端作为用户与搜索引擎的第一接触点,承担着大量关键的SEO工作。本文曹老师将从基础结构、内容优化、性能提升、技术实现四个维度,系统讲解前端深度SEO的所有细节和最佳实践。一、SEO核心原则1.可爬性(Crawlability)搜索引擎必须能够顺利抓取页面内容。使用标签代替JavaScript跳转避免使
- 优化 Python 爬虫性能:异步爬取新浪财经大数据
小白学大数据
pythonpython爬虫开发语言
一、同步爬虫的瓶颈传统的同步爬虫(如requests+BeautifulSoup)在请求网页时,必须等待服务器返回响应后才能继续下一个请求。这种阻塞式I/O操作在面对大量数据时存在以下问题:速度慢:每个请求必须串行执行,无法充分利用网络带宽。易被封禁:高频请求可能触发IP限制或验证码。资源浪费:CPU在等待I/O时处于空闲状态。解决方案:异步爬虫(AsynchronousCrawling)Pyth
- Python爬虫实战:验证码自动识别与打码平台集成指南
Python爬虫项目
python爬虫开发语言音视频区块链
1.爬虫与验证码简介爬虫(WebCrawler或Spider)是互联网数据采集的重要工具。它自动化访问网页并抓取其中的数据。然而,随着反爬机制不断升级,验证码(CAPTCHA)作为阻挡机器自动访问的关键技术被广泛使用。验证码通过生成各种图像或逻辑题目,区分机器与人类访问者。验证码类型多样,包括数字、字母混合型验证码、滑动拼图验证码、点击验证码等。爬取带验证码的网站,识别并自动输入验证码成为关键挑战
- 【Agent】开源DeepResearch框架Open Deep Research
kakaZhui
开源AgentLLMDeepResearch
一、基本解读OpenDeepResearch是一个基于Next.js构建的智能研究助手,核心创新点在于将Firecrawl数据抓取引擎与多模型推理能力结合。项目采用模块化架构设计,主要包含三大功能层:数据获取层:通过Firecrawl实现实时网络数据抓取推理决策层:支持OpenAI/DeepSeek等多模型结构化输出交互展示层:Next.js服务端组件实现动态界面渲染技术栈全景图:
- 爬虫的原理
qimingkeji
爬虫
“爬虫”(WebCrawler)是一种自动访问网页并提取数据的程序。它的原理可以分为以下几个核心步骤:爬虫的基本原理1.发送请求(Request)爬虫通过构造一个HTTP请求(通常是GET或POST),发送到目标网页的服务器,获取网页的HTML内容。使用工具:requests、http.client、urllib等示例(Python):python复制代码importrequestsrespons
- Python 爬虫入门 Day 1 - 网络请求与网页结构基础
蓝婷儿
pythonpython学习开发语言
Python第二阶段-爬虫入门今日目标理解什么是Web爬虫、其应用场景掌握如何使用requests库向网页发送请求初步了解网页HTML结构(为解析做准备)学习内容详解️什么是爬虫?定义:网络爬虫(WebCrawler)是一种自动访问网页并提取数据的程序。常见用途:爬取图书/商品信息、电影/剧集评分等抓取招聘/房产数据进行数据分析自动化内容归档、信息监控、数据备份️使用requests库发起网络请求
- 使用Instagram爬虫库 huaying/instagram-crawler 快速入门教程
邢郁勇Alda
使用Instagram爬虫库huaying/instagram-crawler快速入门教程instagram-crawlerGetInstagramposts/profile/hashtagdatawithoutusingInstagramAPI项目地址:https://gitcode.com/gh_mirrors/in/instagram-crawler项目介绍huaying/instagram
- 深度解析六大AI爬虫工具:crawl4ai、FireCrawl、Scrapegraph-ai、Jina、SearXNG、Tavily技术对比与实战指南
一、引言在AI大模型时代,数据获取与处理是构建智能应用的核心环节。传统爬虫面临技术门槛高、反爬应对复杂、动态内容处理困难等挑战,而AI驱动的爬虫工具通过融合大语言模型(LLM)、图神经网络、自动化解析等技术,正在重塑数据抓取范式。本文将深度测评6款主流AI爬虫工具,从技术原理、核心功能、实战场景到性能对比,为开发者提供一站式选型指南。二、六大AI爬虫工具深度解析1.FireCrawl:LLM就绪数
- 基于Firecrawl和Llama 3构建网站问答机器人实战指南
陆璞朝Jocelyn
基于Firecrawl和Llama3构建网站问答机器人实战指南firecrawlTurnentirewebsitesintoLLM-readymarkdown项目地址:https://gitcode.com/gh_mirrors/fi/firecrawl项目概述本文将详细介绍如何利用Firecrawl网络爬取工具、Llama3大语言模型以及LangChain框架,构建一个能够与网站内容对话的智能问
- HDU-2973-YAPTCHA(威尔逊定理)
Herod_
算法练习数论数论
YAPTCHAProblemDescriptionThemathdepartmenthasbeenhavingproblemslately.Duetoimmenseamountofunsolicitedautomatedprogramswhichwerecrawlingacrosstheirpages,theydecidedtoputYet-Another-Public-Turing-Test-t
- Java开发中,spring mvc 的线程怎么调用?
小麦麦子
springmvc
今天逛知乎,看到最近很多人都在问spring mvc 的线程http://www.maiziedu.com/course/java/ 的启动问题,觉得挺有意思的,那哥们儿问的也听仔细,下面的回答也很详尽,分享出来,希望遇对遇到类似问题的Java开发程序猿有所帮助。
问题:
在用spring mvc架构的网站上,设一线程在虚拟机启动时运行,线程里有一全局
- maven依赖范围
bitcarter
maven
1.test 测试的时候才会依赖,编译和打包不依赖,如junit不被打包
2.compile 只有编译和打包时才会依赖
3.provided 编译和测试的时候依赖,打包不依赖,如:tomcat的一些公用jar包
4.runtime 运行时依赖,编译不依赖
5.默认compile
依赖范围compile是支持传递的,test不支持传递
1.传递的意思是项目A,引用
- Jaxb org.xml.sax.saxparseexception : premature end of file
darrenzhu
xmlprematureJAXB
如果在使用JAXB把xml文件unmarshal成vo(XSD自动生成的vo)时碰到如下错误:
org.xml.sax.saxparseexception : premature end of file
很有可能时你直接读取文件为inputstream,然后将inputstream作为构建unmarshal需要的source参数。InputSource inputSource = new In
- CSS Specificity
周凡杨
html权重Specificitycss
有时候对于页面元素设置了样式,可为什么页面的显示没有匹配上呢? because specificity
CSS 的选择符是有权重的,当不同的选择符的样式设置有冲突时,浏览器会采用权重高的选择符设置的样式。
规则:
HTML标签的权重是1
Class 的权重是10
Id 的权重是100
- java与servlet
g21121
servlet
servlet 搞java web开发的人一定不会陌生,而且大家还会时常用到它。
下面是java官方网站上对servlet的介绍: java官网对于servlet的解释 写道
Java Servlet Technology Overview Servlets are the Java platform technology of choice for extending and enha
- eclipse中安装maven插件
510888780
eclipsemaven
1.首先去官网下载 Maven:
http://www.apache.org/dyn/closer.cgi/maven/binaries/apache-maven-3.2.3-bin.tar.gz
下载完成之后将其解压,
我将解压后的文件夹:apache-maven-3.2.3,
并将它放在 D:\tools目录下,
即 maven 最终的路径是:D:\tools\apache-mave
- jpa@OneToOne关联关系
布衣凌宇
jpa
Nruser里的pruserid关联到Pruser的主键id,实现对一个表的增删改,另一个表的数据随之增删改。
Nruser实体类
//*****************************************************************
@Entity
@Table(name="nruser")
@DynamicInsert @Dynam
- 我的spring学习笔记11-Spring中关于声明式事务的配置
aijuans
spring事务配置
这两天学到事务管理这一块,结合到之前的terasoluna框架,觉得书本上讲的还是简单阿。我就把我从书本上学到的再结合实际的项目以及网上看到的一些内容,对声明式事务管理做个整理吧。我看得Spring in Action第二版中只提到了用TransactionProxyFactoryBean和<tx:advice/>,定义注释驱动这三种,我承认后两种的内容很好,很强大。但是实际的项目当中
- java 动态代理简单实现
antlove
javahandlerproxydynamicservice
dynamicproxy.service.HelloService
package dynamicproxy.service;
public interface HelloService {
public void sayHello();
}
dynamicproxy.service.impl.HelloServiceImpl
package dynamicp
- JDBC连接数据库
百合不是茶
JDBC编程JAVA操作oracle数据库
如果我们要想连接oracle公司的数据库,就要首先下载oralce公司的驱动程序,将这个驱动程序的jar包导入到我们工程中;
JDBC链接数据库的代码和固定写法;
1,加载oracle数据库的驱动;
&nb
- 单例模式中的多线程分析
bijian1013
javathread多线程java多线程
谈到单例模式,我们立马会想到饿汉式和懒汉式加载,所谓饿汉式就是在创建类时就创建好了实例,懒汉式在获取实例时才去创建实例,即延迟加载。
饿汉式:
package com.bijian.study;
public class Singleton {
private Singleton() {
}
// 注意这是private 只供内部调用
private static
- javascript读取和修改原型特别需要注意原型的读写不具有对等性
bijian1013
JavaScriptprototype
对于从原型对象继承而来的成员,其读和写具有内在的不对等性。比如有一个对象A,假设它的原型对象是B,B的原型对象是null。如果我们需要读取A对象的name属性值,那么JS会优先在A中查找,如果找到了name属性那么就返回;如果A中没有name属性,那么就到原型B中查找name,如果找到了就返回;如果原型B中也没有
- 【持久化框架MyBatis3六】MyBatis3集成第三方DataSource
bit1129
dataSource
MyBatis内置了数据源的支持,如:
<environments default="development">
<environment id="development">
<transactionManager type="JDBC" />
<data
- 我程序中用到的urldecode和base64decode,MD5
bitcarter
cMD5base64decodeurldecode
这里是base64decode和urldecode,Md5在附件中。因为我是在后台所以需要解码:
string Base64Decode(const char* Data,int DataByte,int& OutByte)
{
//解码表
const char DecodeTable[] =
{
0, 0, 0, 0, 0, 0
- 腾讯资深运维专家周小军:QQ与微信架构的惊天秘密
ronin47
社交领域一直是互联网创业的大热门,从PC到移动端,从OICQ、MSN到QQ。到了移动互联网时代,社交领域应用开始彻底爆发,直奔黄金期。腾讯在过去几年里,社交平台更是火到爆,QQ和微信坐拥几亿的粉丝,QQ空间和朋友圈各种刷屏,写心得,晒照片,秀视频,那么谁来为企鹅保驾护航呢?支撑QQ和微信海量数据背后的架构又有哪些惊天内幕呢?本期大讲堂的内容来自今年2月份ChinaUnix对腾讯社交网络运营服务中心
- java-69-旋转数组的最小元素。把一个数组最开始的若干个元素搬到数组的末尾,我们称之为数组的旋转。输入一个排好序的数组的一个旋转,输出旋转数组的最小元素
bylijinnan
java
public class MinOfShiftedArray {
/**
* Q69 旋转数组的最小元素
* 把一个数组最开始的若干个元素搬到数组的末尾,我们称之为数组的旋转。输入一个排好序的数组的一个旋转,输出旋转数组的最小元素。
* 例如数组{3, 4, 5, 1, 2}为{1, 2, 3, 4, 5}的一个旋转,该数组的最小值为1。
*/
publ
- 看博客,应该是有方向的
Cb123456
反省看博客
看博客,应该是有方向的:
我现在就复习以前的,在补补以前不会的,现在还不会的,同时完善完善项目,也看看别人的博客.
我刚突然想到的:
1.应该看计算机组成原理,数据结构,一些算法,还有关于android,java的。
2.对于我,也快大四了,看一些职业规划的,以及一些学习的经验,看看别人的工作总结的.
为什么要写
- [开源与商业]做开源项目的人生活上一定要朴素,尽量减少对官方和商业体系的依赖
comsci
开源项目
为什么这样说呢? 因为科学和技术的发展有时候需要一个平缓和长期的积累过程,但是行政和商业体系本身充满各种不稳定性和不确定性,如果你希望长期从事某个科研项目,但是却又必须依赖于某种行政和商业体系,那其中的过程必定充满各种风险。。。
所以,为避免这种不确定性风险,我
- 一个 sql优化 ([精华] 一个查询优化的分析调整全过程!很值得一看 )
cwqcwqmax9
sql
见 http://www.itpub.net/forum.php?mod=viewthread&tid=239011
Web翻页优化实例
提交时间: 2004-6-18 15:37:49 回复 发消息
环境:
Linux ve
- Hibernat and Ibatis
dashuaifu
Hibernateibatis
Hibernate VS iBATIS 简介 Hibernate 是当前最流行的O/R mapping框架,当前版本是3.05。它出身于sf.net,现在已经成为Jboss的一部分了 iBATIS 是另外一种优秀的O/R mapping框架,当前版本是2.0。目前属于apache的一个子项目了。 相对Hibernate“O/R”而言,iBATIS 是一种“Sql Mappi
- 备份MYSQL脚本
dcj3sjt126com
mysql
#!/bin/sh
# this shell to backup mysql
#
[email protected] (QQ:1413161683 DuChengJiu)
_dbDir=/var/lib/mysql/
_today=`date +%w`
_bakDir=/usr/backup/$_today
[ ! -d $_bakDir ] && mkdir -p
- iOS第三方开源库的吐槽和备忘
dcj3sjt126com
ios
转自
ibireme的博客 做iOS开发总会接触到一些第三方库,这里整理一下,做一些吐槽。 目前比较活跃的社区仍旧是Github,除此以外也有一些不错的库散落在Google Code、SourceForge等地方。由于Github社区太过主流,这里主要介绍一下Github里面流行的iOS库。 首先整理了一份
Github上排名靠
- html wlwmanifest.xml
eoems
htmlxml
所谓优化wp_head()就是把从wp_head中移除不需要元素,同时也可以加快速度。
步骤:
加入到function.php
remove_action('wp_head', 'wp_generator');
//wp-generator移除wordpress的版本号,本身blog的版本号没什么意义,但是如果让恶意玩家看到,可能会用官网公布的漏洞攻击blog
remov
- 浅谈Java定时器发展
hacksin
java并发timer定时器
java在jdk1.3中推出了定时器类Timer,而后在jdk1.5后由Dou Lea从新开发出了支持多线程的ScheduleThreadPoolExecutor,从后者的表现来看,可以考虑完全替代Timer了。
Timer与ScheduleThreadPoolExecutor对比:
1.
Timer始于jdk1.3,其原理是利用一个TimerTask数组当作队列
- 移动端页面侧边导航滑入效果
ini
jqueryWebhtml5cssjavascirpt
效果体验:http://hovertree.com/texiao/mobile/2.htm可以使用移动设备浏览器查看效果。效果使用到jquery-2.1.4.min.js,该版本的jQuery库是用于支持HTML5的浏览器上,不再兼容IE8以前的浏览器,现在移动端浏览器一般都支持HTML5,所以使用该jQuery没问题。HTML文件代码:
<!DOCTYPE html>
<h
- AspectJ+Javasist记录日志
kane_xie
aspectjjavasist
在项目中碰到这样一个需求,对一个服务类的每一个方法,在方法开始和结束的时候分别记录一条日志,内容包括方法名,参数名+参数值以及方法执行的时间。
@Override
public String get(String key) {
// long start = System.currentTimeMillis();
// System.out.println("Be
- redis学习笔记
MJC410621
redisNoSQL
1)nosql数据库主要由以下特点:非关系型的、分布式的、开源的、水平可扩展的。
1,处理超大量的数据
2,运行在便宜的PC服务器集群上,
3,击碎了性能瓶颈。
1)对数据高并发读写。
2)对海量数据的高效率存储和访问。
3)对数据的高扩展性和高可用性。
redis支持的类型:
Sring 类型
set name lijie
get name lijie
set na
- 使用redis实现分布式锁
qifeifei
在多节点的系统中,如何实现分布式锁机制,其中用redis来实现是很好的方法之一,我们先来看一下jedis包中,有个类名BinaryJedis,它有个方法如下:
public Long setnx(final byte[] key, final byte[] value) {
checkIsInMulti();
client.setnx(key, value);
ret
- BI并非万能,中层业务管理报表要另辟蹊径
张老师的菜
大数据BI商业智能信息化
BI是商业智能的缩写,是可以帮助企业做出明智的业务经营决策的工具,其数据来源于各个业务系统,如ERP、CRM、SCM、进销存、HER、OA等。
BI系统不同于传统的管理信息系统,他号称是一个整体应用的解决方案,是融入管理思想的强大系统:有着系统整体的设计思想,支持对所有
- 安装rvm后出现rvm not a function 或者ruby -v后提示没安装ruby的问题
wudixiaotie
function
1.在~/.bashrc最后加入
[[ -s "$HOME/.rvm/scripts/rvm" ]] && source "$HOME/.rvm/scripts/rvm"
2.重新启动terminal输入:
rvm use ruby-2.2.1 --default
把当前安装的ruby版本设为默