.*?title="(.*?)".*?class="star">(.*?).*?releasetime">(.*?)'
pattern
= re
. compile ( re_bds
, re
. S
)
film_list
= pattern
. findall
( html
)
self
. write_html
( film_list
)
def write_html ( self
, film_list
) :
item
= { }
for film
in film_list
:
item
[ 'name' ] = film
[ 0 ] . strip
( )
item
[ 'star' ] = film
[ 1 ] . strip
( )
item
[ 'time' ] = film
[ 2 ] . strip
( ) [ 5 : 15 ]
print ( item
)
self
. num
+= 1
def main ( self
) :
for offset
in range ( 0 , 31 , 10 ) :
url
= self
. url
. format ( offset
)
self
. get_html
( url
)
time
. sleep
( random
. randint
( 1 , 2 ) )
print ( '共抓取数据:' , self
. num
)
if __name__
== '__main__' :
start
= time
. time
( )
spider
= MaoyanSpider
( )
spider
. main
( )
end
= time
. time
( )
print ( '执行时间:%.2f' % ( end
- start
) )
数据持久化存储
数据持久化存储 - csv文件
将爬取的数据存放到本地的csv文件中
1 、导入模块
2 、打开csv文件
3 、初始化写入对象
4 、写入数据( 参数为列表)
import csv
with open ( 'film.csv' , 'w' ) as f:
writer = csv. writer( f)
writer. writerow( [ ] )
创建 test.csv 文件,在文件中写入数据
import csv
with open ( 'test.csv' , 'w' , newline= '' ) as f:
writer = csv. writer( f)
writer. writerow( [ '步惊云' , '36' ] )
writer. writerow( [ '超哥哥' , '25' ] )
import csv
with open ( 'test.csv' , 'w' , newline= '' ) as f:
writer = csv. writer( f)
writer. writerows( [ ( '聂风' , '36' ) , ( '秦霜' , '25' ) , ( '孔慈' , '30' ) ] )
猫眼电影数据存入本地 maoyanfilm.csv 文件 - 使用writerow()方法实现
def write_html ( self, film_list) :
with open ( 'film.csv' , 'a' ) as f:
writer = csv. writer( f)
for film in film_list:
L = [
film[ 0 ] . strip( ) ,
film[ 1 ] . strip( ) ,
film[ 2 ] . strip( ) [ 5 : 15 ]
]
writer. writerow( L)
思考:使用 writerows()方法实现?
def write_html ( self, film_list) :
L = [ ]
with open ( 'film.csv' , 'a' ) as f:
writer = csv. writer( f)
for film in film_list:
t = (
film[ 0 ] . strip( ) ,
film[ 1 ] . strip( ) ,
film[ 2 ] . strip( ) [ 5 : 15 ]
)
L. append( t)
writer. writerows( L)
数据持久化存储 - MySQL数据库
1、在数据库中建库建表
# 连接到mysql数据库
mysql -h127.0.0.1 -uroot -p123456
# 建库建表
create database maoyandb charset utf8;
use maoyandb;
create table filmtab(
name varchar(100),
star varchar(300),
time varchar(50)
)charset=utf8;
import pymysql
db = pymysql. connect( 'localhost' , 'root' , '123456' , 'maoyandb' , charset= 'utf8' )
cursor = db. cursor( )
ins = 'insert into filmtab values(%s,%s,%s)'
cursor. execute( ins, [ '霸王别姬' , '张国荣' , '1993' ] )
db. commit( )
cursor. close( )
db. close( )
import pymysql
db = pymysql. connect( '192.168.153.137' , 'tiger' , '123456' , 'maoyandb' , charset= 'utf8' )
cursor = db. cursor( )
film_list = [ ( '月光宝盒' , '周星驰' , '1994' ) , ( '大圣娶亲' , '周星驰' , '1994' ) ]
cursor. executemany( 'insert into filmtab values(%s,%s,%s)' , film_list)
db. commit( )
cursor. close( )
db. close( )
3、将电影信息存入MySQL数据库(尽量使用executemany方法)
def write_html ( self, film_list) :
L = [ ]
ins = 'insert into filmtab values(%s,%s,%s)'
for film in film_list:
t = (
film[ 0 ] . strip( ) ,
film[ 1 ] . strip( ) ,
film[ 2 ] . strip( ) [ 5 : 15 ]
)
L. append( t)
self. cursor. executemany( ins, L)
self. db. commit( )
1、查询20年以前的电影的名字和上映时间
select name,time from filmtab where time<(now()-interval 20 year);
2、查询1990-2000年的电影名字和上映时间
select name,time from filmtab where time>='1990-01-01' and time<='2000-12-31';
数据持久化存储 - MongoDB数据库
pymongo操作mongodb数据库
import pymongo
conn= pymongo. MongoClient( 'localhost' , 27017 )
db = conn[ '库名' ]
myset = db[ '集合名' ]
myset. insert_one( { 字典} )
思考
1 、能否到电影详情页把评论抓取下来?
2 、能否到电影详情页把电影图片抓取下来? - 并按照电影名称分别创建文件夹
代码实现
from urllib import request
import re
import time
import random
from useragents import ua_list
import os
class MaoyanSpider ( object ) :
def __init__ ( self) :
self. url = 'https://maoyan.com/board/4?offset={}'
self. num = 0
def get_html ( self, url) :
headers = {
'User-Agent' : random. choice( ua_list)
}
req = request. Request( url= url, headers= headers)
res = request. urlopen( req)
html = res. read( ) . decode( 'utf-8' , 'ignore' )
return html
def re_func ( self, re_bds, html) :
pattern = re. compile ( re_bds, re. S)
r_list = pattern. findall( html)
return r_list
def parse_html ( self, url) :
re_bds = r'.*?href="(.*?)".*?title="(.*?)".*?class="star">(.*?).*?releasetime">(.*?)'
html
= self
. get_html
( url
)
film_list
= self
. re_func
( re_bds
, html
)
self
. write_html
( film_list
)
def write_html ( self
, film_list
) :
film_dict
= { }
for film
in film_list
:
film_dict
[ 'name' ] = film
[ 1 ] . strip
( )
film_dict
[ 'star' ] = film
[ 2 ] . strip
( )
film_dict
[ 'time' ] = film
[ 3 ] . strip
( ) [ 5 : 15 ]
two_url
= 'https://maoyan.com{}' . format ( film
[ 0 ] . strip
( ) )
film_dict
[ 'comment' ] = self
. get_comment
( two_url
)
self
. save_image
( two_url
, film
)
print ( film_dict
)
self
. num
+= 1
def get_comment ( self
, two_url
) :
html
= self
. get_html
( two_url
)
re_bds
= r
''
comment_list
= self
. re_func
( re_bds
, html
)
return comment_list
def save_image ( self
, two_url
, film
) :
re_bds
= r
''
html
= self
. get_html
( two_url
)
img_link_list
= self
. re_func
( re_bds
, html
)
for img_link
in img_link_list
:
req
= request
. Request
( img_link
)
res
= request
. urlopen
( req
)
html
= res
. read
( )
directory
= 'D:\\猫眼\\{}\\' . format ( film
[ 1 ] . strip
( ) )
if not os
. path
. exists
( directory
) :
os
. makedirs
( directory
)
filename
= directory
+ img_link
. split
( '/' ) [ - 1 ] . split
( '@' ) [ 0 ]
with open ( filename
, 'wb' ) as f
:
f
. write
( html
)
def run ( self
) :
for offset
in range ( 0 , 31 , 10 ) :
url
= self
. url
. format ( offset
)
self
. parse_html
( url
)
time
. sleep
( random
. randint
( 1 , 2 ) )
print ( '共抓取数据:' , self
. num
)
if __name__
== '__main__' :
start
= time
. time
( )
spider
= MaoyanSpider
( )
spider
. run
( )
end
= time
. time
( )
print ( '执行时间:%.2f' % ( end
- start
) )
电影天堂二级页面抓取案例
领取任务
电影天堂 - 2019 年新片精品 - 更多
电影名称、下载链接
** ** ** ** * 一级页面需抓取** ** ** ** ** *
1 、电影详情页链接
** ** ** ** * 二级页面需抓取** ** ** ** ** *
1 、电影名称
2 、电影下载链接
实现步骤
1、确定响应内容中是否存在所需抓取数据
2、找URL规律
第1 页 :https: // www. dytt8. net/ html/ gndy/ dyzz/ list_23_1. html
第2 页 :https: // www. dytt8. net/ html/ gndy/ dyzz/ list_23_2. html
第n页 :https: // www. dytt8. net/ html/ gndy/ dyzz/ list_23_n. html
1 、一级页面正则表达式
< table width= "100%" . * ?< td width= "5%" . * ?< a href= "(.*?)" . * ?ulink"> . * ?< / table>
2 、二级页面正则表达式
< div class = "title_all" > < h1> < font color=
.*? from urllib import request
import re
from useragents import ua_list
import time
import random
class FilmSkySpider ( object ) :
def __init__ ( self) :
self. url = 'https://www.dytt8.net/html/gndy/dyzz/list_23_{}.html'
def get_html ( self, url) :
headers = {
'User-Agent' : random. choice( ua_list)
}
req = request. Request( url= url, headers= headers)
res = request. urlopen( req)
html = res. read( ) . decode( 'gb2312' , 'ignore' )
return html
def re_func ( self, re_bds, html) :
pattern = re. compile ( re_bds, re. S)
r_list = pattern. findall( html)
return r_list
def parse_page ( self, one_url) :
html = self. get_html( one_url)
re_bds = r''
one_page_list = self. re_func( re_bds, html)
for href in one_page_list:
two_url = 'https://www.dytt8.net' + href
self. parse_two_page( two_url)
time. sleep( random. uniform( 1 , 3 ) )
def parse_two_page ( self, two_url) :
item = { }
html = self. get_html( two_url)
re_bds = r'
(.*?) .*? # two_page_list: [('名称1','ftp://xxxx.mkv')]
two_page_list = self. re_func( re_bds, html)
item[ 'name' ] = two_page_list[ 0 ] [ 0 ] . strip( )
item[ 'download' ] = two_page_list[ 0 ] [ 1 ] . strip( )
print ( item)
def main ( self) :
for page in range ( 1 , 201 ) :
one_url = self. url. format ( page)
self. parse_page( one_url)
time. sleep( random. uniform( 1 , 3 ) )
if __name__ == '__main__' :
spider = FilmSkySpider( )
spider. main( )
5、练习
把电影天堂数据存入MySQL数据库 - 增量爬取
练习代码实现
# 建库建表
create database filmskydb charset utf8;
use filmskydb;
create table request_finger(
finger char(32)
)charset=utf8;
create table filmtab(
name varchar(200),
download varchar(500)
)charset=utf8;
from urllib import request
import re
from useragents import ua_list
import time
import random
import pymysql
from hashlib import md5
class FilmSkySpider ( object ) :
def __init__ ( self) :
self. url = 'https://www.dytt8.net/html/gndy/dyzz/list_23_{}.html'
self. db = pymysql. connect( '192.168.153.151' , 'tiger' , '123456' , 'filmskydb' , charset= 'utf8' )
self. cursor = self. db. cursor( )
def get_html ( self, url) :
headers = {
'User-Agent' : random. choice( ua_list)
}
req = request. Request( url= url, headers= headers)
res = request. urlopen( req)
html = res. read( ) . decode( 'gb2312' , 'ignore' )
return html
def re_func ( self, re_bds, html) :
pattern = re. compile ( re_bds, re. S)
r_list = pattern. findall( html)
return r_list
def parse_page ( self, one_url) :
html = self. get_html( one_url)
re_bds = r''
one_page_list = self. re_func( re_bds, html)
for href in one_page_list:
two_url = 'https://www.dytt8.net' + href
s = md5( )
s. update( two_url. encode( ) )
two_url_md5 = s. hexdigest( )
if self. is_go_on( two_url_md5) :
self. parse_two_page( two_url)
ins = 'insert into request_finger values(%s)'
self. cursor. execute( ins, [ two_url_md5] )
self. db. commit( )
time. sleep( random. uniform( 1 , 3 ) )
def is_go_on ( self, two_url_md5) :
sel = 'select finger from request_finger where finger=%s'
result = self. cursor. execute( sel, [ two_url_md5] )
if not result:
return True
def parse_two_page ( self, two_url) :
item = { }
html = self. get_html( two_url)
re_bds = r'
(.*?) .*? # two_page_list: [('名称1','ftp://xxxx.mkv')]
two_page_list = self. re_func( re_bds, html)
item[ 'name' ] = two_page_list[ 0 ] [ 0 ] . strip( )
item[ 'download' ] = two_page_list[ 0 ] [ 1 ] . strip( )
ins = 'insert into filmtab values(%s,%s)'
film_list = [
item[ 'name' ] , item[ 'download' ]
]
self. cursor. execute( ins, film_list)
self. db. commit( )
print ( film_list)
def main ( self) :
for page in range ( 1 , 201 ) :
one_url = self. url. format ( page)
self. parse_page( one_url)
time. sleep( random. uniform( 1 , 3 ) )
if __name__ == '__main__' :
spider = FilmSkySpider( )
spider. main( )
requests模块
安装
sudo pip3 install requests
进入cmd命令行 :python - m pip install requests
右键管理员进入cmd命令行 :pip install requests
requests.get()
res = requests. get( url, headers= headers)
1 、url :需要抓取的URL地址
2 、headers : 请求头
3 、timeout : 超时时间,超过时间会抛出异常
1 、encoding :响应字符编码
res. encoding = 'utf-8'
2 、text :字符串
3 、content :字节流
4 、status_code :HTTP响应码
5 、url :实际数据的URL地址
with open ( 'xxx.jpg' , 'wb' ) as f:
f. write( res. content)
保存赵丽颖图片到本地
import requests
url = 'https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1567090051520&di=77e8b97b3280f999cf51340af4315b4b&imgtype=jpg&src=http%3A%2F%2F5b0988e595225.cdn.sohucs.com%2Fimages%2F20171121%2F4e6759d153d04c6badbb0a5262ec103d.jpeg'
headers = { 'User-Agent' : 'Mozilla/5.0' }
html = requests. get( url= url, headers= headers) . content
with open ( '花千骨.jpg' , 'wb' ) as f:
f. write( html)
1 、将猫眼电影案例改写为 requests 模块实现
2 、将电影天堂案例改写为 requests 模块实现
Chrome浏览器安装插件
安装方法
1 、把下载的相关插件(对应操作系统浏览器)后缀改为 . zip
2 、解压, 打开Chrome浏览器 - > 右上角设置 - > 更多工具 - > 扩展程序 - > 点开开发者模式
需要安装插件
1 、Xpath Helper: 轻松获取HTML元素的xPath路径
2 、Proxy SwitchyOmega: Chrome浏览器中的代理管理扩展程序
3 、JsonView: 格式化输出json格式数据
今日作业
1 、把之前所有代码改为 requests 模块
2 、电影天堂数据, 存入MySQL、MongoDB、CSV文件
3 、百度图片抓取: 输入要抓取的图片内容, 抓取首页的30 张图片, 保存到对应的文件夹,比如:
你想要谁的照片,请输入: 赵丽颖
创建文件夹到指定目录: 赵丽颖 并把首页30 张图片保存到此文件夹下
4 、抓取链家二手房房源信息(房源名称、总价), 把结果存入到MySQL数据库, MongoDB数据库, CSV文件
你可能感兴趣的:(网络爬虫day02)
Python【一】Python全方位知识指南
程序员_CLUB
python 开发语言
目录背景:为什么Python成为开发者必备技能?一、Python是什么?二、Python能做什么?六大核心应用场景1.自动化办公2.网络爬虫3.数据分析三、零基础入门Python:环境搭建与学习路径1.环境搭建(Windows/Mac详细步骤)2.基础语法速成(7天掌握)四、实战项目推荐(*****)五、学习建议与避坑指南(新手常见错误)六、总结:**背景:
十年爬虫经验告诉你爬虫被封怎么办
congqian8750
爬虫
十年爬虫经验告诉你爬虫被封怎么办现在很多站长都会有抓取数据的需求,因此网络爬虫在一定程度上越来越火爆,其实爬虫的基本功能很简单,就是分析大量的url的html页面,从而提取新的url,但是在实际操作中通常都会遇到各种各样的问题,比如说抓取数据的过程中需要根据实际需求来筛选url继续爬行;或者说为了能正常爬取,减少别人服务器的压力,你需要控制住爬取的速度和工作量···但是即便再小心,很多时候也会遇到
Scrapy 爬虫 IP 被封问题的解决方案
杨胜增
scrapy 爬虫 tcp/ip
Scrapy爬虫IP被封问题的解决方案在使用Scrapy进行网络爬虫开发时,IP被封是一个常见的问题。当爬虫频繁地向目标网站发送请求时,目标网站可能会检测到异常流量,并将爬虫的IP地址加入黑名单,导致后续请求无法正常访问。本文将详细介绍Scrapy爬虫IP被封问题的原因及解决方案。问题描述在运行Scrapy爬虫时,可能会遇到以下类似的情况:请求返回403Forbidden错误,表示服务器拒绝了请求
Python requests设置代理的3种方法
爱睡觉的圈圈
代理服务 python 网络 开发语言 代理模式
在进行网络爬虫或数据采集时,经常需要使用代理来避免IP被封或突破访问限制。本文介绍Pythonrequests库设置代理的3种常用方法。方法一:基础代理设置最简单的代理设置方式:importrequests#设置代理proxies={'http':'http://proxy_ip:port','https':'https://proxy_ip:port'}#发送请求response=request
Python爬虫实战:研究flanker相关技术
ylfhpy
爬虫项目实战 python 爬虫 开发语言 flanker
1.引言1.1研究背景与意义在当今信息爆炸的时代,互联网上的数据量呈现出指数级增长的趋势。如何从海量的网页数据中高效地获取有价值的信息,成为了一个重要的研究课题。网络爬虫作为一种自动获取网页内容的技术,能够帮助用户快速、准确地收集所需的信息,因此在信息检索、数据挖掘、舆情分析等领域得到了广泛的应用。Flanker技术是一种基于文本分析的信息提取技术,它能够从非结构化的文本中识别和提取出特定类型的信
Python BeautifulSoup 解析网页按钮元素
PythonAI编程架构实战家
Python人工智能与大数据 Python编程之道 python beautifulsoup 开发语言 ai
PythonBeautifulSoup解析网页按钮元素:从基础原理到工程实践的深度解析关键词BeautifulSoup、HTML解析、按钮元素定位、DOM树遍历、CSS选择器、网络爬虫、前端自动化摘要本文系统解析使用PythonBeautifulSoup库定位和提取网页按钮元素的全流程技术方案。从HTML文档的底层结构出发,结合BeautifulSoup的核心解析机制,覆盖从基础概念到高级工程实践
Python网络爬虫技术深度解析:从入门到高级实战
Python爬虫项目
2025年爬虫实战项目 python 爬虫 开发语言 easyui scrapy
1.爬虫技术概述网络爬虫(WebCrawler)是一种自动化程序,通过模拟人类浏览行为从互联网上抓取、解析和存储数据。根据应用场景可分为:通用爬虫:如搜索引擎的蜘蛛程序聚焦爬虫:针对特定领域的数据采集增量式爬虫:只抓取更新内容深层网络爬虫:处理需要交互的动态内容2.2024年Python爬虫技术栈技术分类推荐工具适用场景基础请求库requests,httpx静态页面请求解析库BeautifulSo
盘点一个Python网络爬虫问题
皮皮_f075
大家好,我是皮皮。一、前言前几天在Python最强王者群【刘桓鸣】问了一个Python网络爬虫的问题,这里拿出来给大家分享下。image.png他自己的代码如下:importrequestskey=input("请输入关键字")res=requests.post(url="https://jf.10086.cn/cmcc-web-shop/search/query",data={"sortColu
【Python-网络爬虫】爬虫的基础概念介绍
敖云岚
python 爬虫 开发语言
目录一、爬虫的介绍1.1爬虫的概念1.2爬虫的作用1.搜索引擎数据索引2.商业数据采集与分析3.舆情监控与社交分析4.学术研究与数据挖掘5.信息聚合与服务优化二、爬虫的分类三、爬虫的基本流程3.1基本流程3.2Robots协议一、爬虫的介绍1.1爬虫的概念爬虫的概念:通过模拟浏览器发送请求,从而获取响应1.2爬虫的作用1.搜索引擎数据索引搜索引擎如Google、百度等依赖爬虫技术构建庞大的网页索引
「数据采集与网络爬虫(使用Python工具)」【数据分析全栈攻略:爬虫+处理+可视化+报告】
-第103篇-Date:2025-06-01Author:郑龙浩/仟墨文章目录「据采集与网络爬虫」【使用工具:Python】一数据采集1数据采集综述(1)基本介绍(2)数据目标源(3)采集方式(4)数据形式2互联网数据采集(重点)(1)什么是网络爬虫?(2)常见的网络爬虫和爬虫采集器(3)爬虫的流程(4)反爬虫技术3数据采集基本流程二HTTP请求和响应(1)HTTP(HypertextTransf
Python爬虫实战:研究Talon相关技术构建电商爬虫系统
ylfhpy
爬虫项目实战 python 爬虫 开发语言 Talon
1.引言1.1研究背景与意义随着互联网数据量的指数级增长,从非结构化网页内容中自动提取有价值的结构化信息成为数据科学领域的关键挑战。传统网络爬虫技术在处理复杂网页结构(如动态加载内容、嵌套表格)时面临提取准确率低、维护成本高的问题。Talon作为一种基于规则的信息提取工具,能够通过定义明确的语法规则识别网页数据模式,但需要与高效的爬虫框架相结合才能发挥最大效用。本研究通过整合Python爬虫生态与
【JS逆向基础】script框架
是星凡呢
python与JS逆向 javascript 开发语言 ecmascript python JS逆向
scrapy框架1,基本介绍Scrapy一个开源和协作的框架,其最初是为了页面抓取(更确切来说,网络抓取)所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如AmazonAssociatesWebServices)或者通用的网络爬虫。Scrapy是基于twisted
黑客论坛讨论数据爬取:匿名访问配置 + 内容提取实战
Python核芯
Python爬虫实战项目 网络 python 爬虫
一、前言在当今数字化时代,网络爬虫技术已经成为数据科学和信息收集领域的重要工具之一。然而,爬取数据时必须严格遵守法律法规,尊重网站的使用条款和隐私政策。本文将通过一个具体的案例——爬取黑客论坛讨论数据,详细介绍如何配置匿名访问、提取内容,并在合规的前提下进行数据爬取。请注意,本文仅用于技术学习和研究目的,任何未经授权的数据爬取行为都是违法的。黑客论坛是一个充满技术讨论和信息交流的平台,其中包含了许
基于Python的新闻聚合系统爬虫开发实战:从入门到精通
Python爬虫项目
2025年爬虫实战项目 python 爬虫 开发语言
1.新闻聚合系统概述新闻聚合系统是通过网络爬虫从多个新闻网站采集内容,经过清洗、去重、分类后统一展示的平台。其核心技术挑战在于:多源异构数据处理:不同网站的HTML结构差异大实时性要求:需要快速捕捉新闻更新规模扩展性:支持千万级页面抓取法律合规性:遵守robots.txt和版权法规行业数据显示,2023年全球网络爬虫市场规模已达78.9亿美元,其中新闻聚合类应用占比32%。2.爬虫技术选型分析2.
关于HTTP的内容
大风吹兮风清扬
HTTP是一个客户端(用户)和服务端(网站)之间请求和应答的标准,通常使用TCP协议。通过使用网页浏览器、网络爬虫或者其它的工具,客户端发起一个HTTP请求到服务器上指定端口(默认端口为80)。我们称这个客户端为用户代理程序(useragent)。应答的服务器上存储着一些资源,比如HTML文件和图像。我们称这个应答服务器为源服务器(originserver)。在用户代理和源服务器中间可能存在多个“
Python 网络爬虫 —— 提交信息到网页
一、模块核心逻辑“提交信息到网页”是网络交互关键环节,借助requests库的post()函数,能模拟浏览器向网页发数据(如表单、文件),实现信息上传,让我们能与网页背后的服务器“沟通”,像改密码、传文件等操作,都可通过它完成。二、浏览器提交请求流程(以改密码为例)操作触发:登录账户进改密码页面,填“当前密码”“新密码”等表单。抓包分析:网页空白处右键→检查→Network窗口,输密码点“修改密码
网络爬虫进阶
rooney2024
爬虫
目录一、进阶爬虫的核心挑战二、关键技术与最佳实践三、实战案例:爬取动态电商价格(伪代码示例)四、持续学习路径结语一、进阶爬虫的核心挑战动态渲染页面(JavaScript/AJAX)问题:数据由JavaScript动态加载生成,初始HTML中不存在。解决方案:浏览器自动化工具:Selenium,Playwright,Puppeteer。模拟真实浏览器行为,等待JS执行并渲染出完整DOM后再解析。无头
网络爬虫再深入——对抗指纹检测、分布式架构与智能解析实战
rooney2024
爬虫
目录一、深入反爬:浏览器指纹检测与对抗(配图1)1.高级指纹检测原理2.对抗方案与实战二、分布式爬虫架构深度设计(配图2)1.容错与弹性设计2.智能限流算法三、智能解析:LLM与计算机视觉的融合(配图3)1.LLM解析非结构化文本2.视觉辅助定位元素四、法律与伦理:爬虫工程师的自我修养1.关键法律边界2.道德实践框架五、未来战场:Web3.0时代的爬虫技术演进1.去中心化网络挑战2.AI驱动的自适
盘点一个Python网络爬虫过程中中文乱码的问题
皮皮_f075
大家好,我是皮皮。一、前言前几天在Python白银交流群【空翼】问了一个Python网络爬虫中文乱码的问题,提问截图如下:原始代码如下:importrequestsimportparselurl='https://news.p2peye.com/article-514723-1.html'headers={'Accept-Language':'zh-CN,zh;q=0.9','Accept':'a
python 爬取preview的信息
YHFJerry
python 开发语言
Python,HTTP相关视频讲解:python的or运算赋值用法用python编程Excel有没有用处?011_编程到底好玩在哪?查看python文件_输出py文件_cat_运行python文件_shelPython爬取Preview的信息在当今互联网时代,信息的获取变得异常方便,爬虫技术成为了一种非常重要的手段。Python作为一门强大的编程语言,被广泛用于网络爬虫的开发。本文将介绍如何使用P
《三十岁,一切刚刚开始》读书笔记Day02/25
设绘喵爱读书April
第一章:三十岁轨迹1-2三十岁,真正的人生才刚刚开始•人和人不能用生理年龄来区分,更不能十年、十年地来划分。•见过很多二十多岁却从不学习的年轻人,也见过六十多岁还在路上奔波的长者,前者已经老了,后者依旧年轻。所以,人到底什么时候才算变老了呢?答案是,不学习的时候,不进步的时候。•有两种方式可以让人减缓衰老:第一,寻找一个伟大的目标,用一生完成。第二,做一件持续升值的事情,直到永远。•这两种减缓衰老
python爬虫从入门到精通
大模型猫叔
python 爬虫 数据库
目录一、正确认识Python爬虫二、了解爬虫的本质1.熟悉Python编程2.了解HTML3.了解网络爬虫的基本原理4.学习使用Python爬虫库三、了解非结构化数据的存储1.本地文件2.数据库四、掌握各种技巧,应对特殊网站的反爬措施1.User-Agent2.Cookies3.IP代理五、学习爬虫框架,搭建工程化的爬虫1.创建Scrapy项目2.创建Spider3.编写Spider4.运行Spi
python爬虫入门(小白五分钟从入门到精通)
一百天成为python专家
python 爬虫 开发语言 网络爬虫 python3.11 ipython
网络爬虫的介绍本节主要介绍Pytbon语言中支持网络爬虫的库,此外还将介绍如何获取网站的爬取规则,读者在学习和践过程中一定要严格遵守网站提供的爬取规则。网络爬虫网络爬虫通俗来讲就是使用代码将HTML网页的内容下载到本地的过程。爬取网页主要是为了获取网中的关键信息,例如网页中的数据、图片、视频等。Python语言中提供了多个具有爬虫功能的库,下面将具urHIib库:是Python自带的标准库,无须下
网络爬虫——python爬取豆瓣评论
SSeaflower
爬虫 python 开发语言
网络爬虫——python爬取豆瓣评论一、网络爬虫概述1.1网络爬虫定义网络爬虫,又被称为网络蜘蛛(WebSpider)、网络机器人等。它根据网页地址(URL)爬取网页内容,网页地址(URL)就是我们在浏览器中输入的网站链接。例如:https://www.baidu.com;https://movie.douban.com/。网络爬虫不仅能够复制网页信息和下载音视频,还可以做到网站的模拟登录和行为链
标题 “Python 网络爬虫 —— selenium库驱动浏览器
WeiJingYu.
python 爬虫 selenium
一、Selenium库核心认知Selenium库是Web应用程序测试与自动化操作的利器,能驱动浏览器(如Edge、Firefox等)执行点击、输入、打开、验证等操作。与Requests库差异显著:Requests库仅能获取网页原始代码,而Selenium基于浏览器驱动程序工作,浏览器可渲染网页源代码,借此能轻松拿到渲染后的数据信息(如JS动态加载内容),完美解决Requests库无法处理的动态页面
Python网络爬虫实现selenium对百度识图二次开发以及批量保存Excel
WeiJingYu.
python 爬虫 selenium
一.百度识图自动上传图片fromseleniumimportwebdriverfromselenium.webdriver.edge.optionsimportOptionsfromselenium.webdriver.common.byimportByedge_options=Options()edge_options.binary_location=r"C:\ProgramFiles(x86)
Python 网络爬虫 —— 代理服务器
WeiJingYu.
爬虫 服务器 前端
一、会话(Session)(一)核心逻辑HTTP本身无记忆,每次请求独立。会话(Session)就是为解决这问题,让客户端(浏览器)和服务器“记住”交互状态(比如登录态),常用Cookie实现:服务器发Cookie给客户端存着,下次请求带着,服务器就知道“是同一用户”。(二)创建会话(requests实现)用requests库的Session类,自动维持会话、管理Cookie,代码形式:impor
Day02: BeanDefinition的注册艺术:揭秘@ComponentScan如何转化为Spring灵魂
zhysunny
Spring spring java 后端
目录一、从@ComponentScan说起:Spring的组件扫描入口二、BeanDefinition:Spring容器的DNA三、ClassPathBeanDefinitionScanner:Spring的"扫雷专家"1.扫描器的初始化2.扫描器的核心配置3.扫描过程揭秘4.候选组件的查找:findCandidateComponents()四、元数据处理:注解如何转化为Bean属性五、实战:自定
暑期自学嵌入式——Day02(C语言阶段)
一位搞嵌入式的 genius
嵌入式自学专栏 linux 嵌入式C语言
点关注不迷路哟。你的点赞、收藏,一键三连,是我持续更新的动力哟!!!主页:一位搞嵌入式的genius-CSDN博客https://blog.csdn.net/m0_73589512?spm=1000.2115.3001.5343目录Day02→数据类型(上)数据类型分类基本数据类型整形数据类型字符型数据类型实型数据类型构造数据类型特殊数据类型布尔类型详解基本概念使用注意事项预处理分析知识小结Day
网络爬虫-07
YEGE学AI算法
Python-网络爬虫
网络爬虫-07)**Spider06回顾****scrapy框架****完成scrapy项目完整流程****我们必须记住****爬虫项目启动方式****数据持久化存储****Spider07笔记****分布式爬虫****scrapy_redis详解****腾讯招聘分布式改写****机器视觉与tesseract****补充-滑块缺口验证码案例****豆瓣网登录****Fiddler抓包工具****移
关于旗正规则引擎下载页面需要弹窗保存到本地目录的问题
何必如此
jsp 超链接 文件下载 窗口
生成下载页面是需要选择“录入提交页面”,生成之后默认的下载页面<a>标签超链接为:<a href="<%=root_stimage%>stimage/image.jsp?filename=<%=strfile234%>&attachname=<%=java.net.URLEncoder.encode(file234filesourc
【Spark九十八】Standalone Cluster Mode下的资源调度源代码分析
bit1129
cluster
在分析源代码之前,首先对Standalone Cluster Mode的资源调度有一个基本的认识:
首先,运行一个Application需要Driver进程和一组Executor进程。在Standalone Cluster Mode下,Driver和Executor都是在Master的监护下给Worker发消息创建(Driver进程和Executor进程都需要分配内存和CPU,这就需要Maste
linux上独立安装部署spark
daizj
linux 安装 spark 1.4 部署
下面讲一下linux上安装spark,以 Standalone Mode 安装
1)首先安装JDK
下载JDK:jdk-7u79-linux-x64.tar.gz ,版本是1.7以上都行,解压 tar -zxvf jdk-7u79-linux-x64.tar.gz
然后配置 ~/.bashrc&nb
Java 字节码之解析一
周凡杨
java 字节码 javap
一: Java 字节代码的组织形式
类文件 {
OxCAFEBABE ,小版本号,大版本号,常量池大小,常量池数组,访问控制标记,当前类信息,父类信息,实现的接口个数,实现的接口信息数组,域个数,域信息数组,方法个数,方法信息数组,属性个数,属性信息数组
}
&nbs
java各种小工具代码
g21121
java
1.数组转换成List
import java.util.Arrays;
Arrays.asList(Object[] obj); 2.判断一个String型是否有值
import org.springframework.util.StringUtils;
if (StringUtils.hasText(str)) 3.判断一个List是否有值
import org.spring
加快FineReport报表设计的几个心得体会
老A不折腾
finereport
一、从远程服务器大批量取数进行表样设计时,最好按“列顺序”取一个“空的SQL语句”,这样可提高设计速度。否则每次设计时模板均要从远程读取数据,速度相当慢!!
二、找一个富文本编辑软件(如NOTEPAD+)编辑SQL语句,这样会很好地检查语法。有时候带参数较多检查语法复杂时,结合FineReport中生成的日志,再找一个第三方数据库访问软件(如PL/SQL)进行数据检索,可以很快定位语法错误。
mysql linux启动与停止
墙头上一根草
如何启动/停止/重启MySQL一、启动方式1、使用 service 启动:service mysqld start2、使用 mysqld 脚本启动:/etc/inint.d/mysqld start3、使用 safe_mysqld 启动:safe_mysqld&二、停止1、使用 service 启动:service mysqld stop2、使用 mysqld 脚本启动:/etc/inin
Spring中事务管理浅谈
aijuans
spring 事务管理
Spring中事务管理浅谈
By Tony Jiang@2012-1-20 Spring中对事务的声明式管理
拿一个XML举例
[html]
view plain
copy
print
?
<?xml version="1.0" encoding="UTF-8"?>&nb
php中隐形字符65279(utf-8的BOM头)问题
alxw4616
php中隐形字符65279(utf-8的BOM头)问题
今天遇到一个问题. php输出JSON 前端在解析时发生问题:parsererror.
调试:
1.仔细对比字符串发现字符串拼写正确.怀疑是 非打印字符的问题.
2.逐一将字符串还原为unicode编码. 发现在字符串头的位置出现了一个 65279的非打印字符.
 
调用对象是否需要传递对象(初学者一定要注意这个问题)
百合不是茶
对象的传递与调用技巧
类和对象的简单的复习,在做项目的过程中有时候不知道怎样来调用类创建的对象,简单的几个类可以看清楚,一般在项目中创建十几个类往往就不知道怎么来看
为了以后能够看清楚,现在来回顾一下类和对象的创建,对象的调用和传递(前面写过一篇)
类和对象的基础概念:
JAVA中万事万物都是类 类有字段(属性),方法,嵌套类和嵌套接
JDK1.5 AtomicLong实例
bijian1013
java thread java多线程 AtomicLong
JDK1.5 AtomicLong实例
类 AtomicLong
可以用原子方式更新的 long 值。有关原子变量属性的描述,请参阅 java.util.concurrent.atomic 包规范。AtomicLong 可用在应用程序中(如以原子方式增加的序列号),并且不能用于替换 Long。但是,此类确实扩展了 Number,允许那些处理基于数字类的工具和实用工具进行统一访问。
 
自定义的RPC的Java实现
bijian1013
java rpc
网上看到纯java实现的RPC,很不错。
RPC的全名Remote Process Call,即远程过程调用。使用RPC,可以像使用本地的程序一样使用远程服务器上的程序。下面是一个简单的RPC 调用实例,从中可以看到RPC如何
【RPC框架Hessian一】Hessian RPC Hello World
bit1129
Hello world
什么是Hessian
The Hessian binary web service protocol makes web services usable without requiring a large framework, and without learning yet another alphabet soup of protocols. Because it is a binary p
【Spark九十五】Spark Shell操作Spark SQL
bit1129
shell
在Spark Shell上,通过创建HiveContext可以直接进行Hive操作
1. 操作Hive中已存在的表
[hadoop@hadoop bin]$ ./spark-shell
Spark assembly has been built with Hive, including Datanucleus jars on classpath
Welcom
F5 往header加入客户端的ip
ronin47
when HTTP_RESPONSE {if {[HTTP::is_redirect]}{ HTTP::header replace Location [string map {:port/ /} [HTTP::header value Location]]HTTP::header replace Lo
java-61-在数组中,数字减去它右边(注意是右边)的数字得到一个数对之差. 求所有数对之差的最大值。例如在数组{2, 4, 1, 16, 7, 5,
bylijinnan
java
思路来自:
http://zhedahht.blog.163.com/blog/static/2541117420116135376632/
写了个java版的
public class GreatestLeftRightDiff {
/**
* Q61.在数组中,数字减去它右边(注意是右边)的数字得到一个数对之差。
* 求所有数对之差的最大值。例如在数组
mongoDB 索引
开窍的石头
mongoDB索引
在这一节中我们讲讲在mongo中如何创建索引
得到当前查询的索引信息
db.user.find(_id:12).explain();
cursor: basicCoursor 指的是没有索引
&
[硬件和系统]迎峰度夏
comsci
系统
从这几天的气温来看,今年夏天的高温天气可能会维持在一个比较长的时间内
所以,从现在开始准备渡过炎热的夏天。。。。
每间房屋要有一个落地电风扇,一个空调(空调的功率和房间的面积有密切的关系)
坐的,躺的地方要有凉垫,床上要有凉席
电脑的机箱
基于ThinkPHP开发的公司官网
cuiyadll
行业系统
后端基于ThinkPHP,前端基于jQuery和BootstrapCo.MZ 企业系统
轻量级企业网站管理系统
运行环境:PHP5.3+, MySQL5.0
系统预览
系统下载:http://www.tecmz.com
预览地址:http://co.tecmz.com
各种设备自适应
响应式的网站设计能够对用户产生友好度,并且对于
Transaction and redelivery in JMS (JMS的事务和失败消息重发机制)
darrenzhu
jms 事务 承认 MQ acknowledge
JMS Message Delivery Reliability and Acknowledgement Patterns
http://wso2.com/library/articles/2013/01/jms-message-delivery-reliability-acknowledgement-patterns/
Transaction and redelivery in
Centos添加硬盘完全教程
dcj3sjt126com
linux centos hardware
Linux的硬盘识别:
sda 表示第1块SCSI硬盘
hda 表示第1块IDE硬盘
scd0 表示第1个USB光驱
一般使用“fdisk -l”命
yii2 restful web服务路由
dcj3sjt126com
PHP yii2
路由
随着资源和控制器类准备,您可以使用URL如 http://localhost/index.php?r=user/create访问资源,类似于你可以用正常的Web应用程序做法。
在实践中,你通常要用美观的URL并采取有优势的HTTP动词。 例如,请求POST /users意味着访问user/create动作。 这可以很容易地通过配置urlManager应用程序组件来完成 如下所示
MongoDB查询(4)——游标和分页[八]
eksliang
mongodb MongoDB游标 MongoDB深分页
转载请出自出处:http://eksliang.iteye.com/blog/2177567 一、游标
数据库使用游标返回find的执行结果。客户端对游标的实现通常能够对最终结果进行有效控制,从shell中定义一个游标非常简单,就是将查询结果分配给一个变量(用var声明的变量就是局部变量),便创建了一个游标,如下所示:
> var
Activity的四种启动模式和onNewIntent()
gundumw100
android
Android中Activity启动模式详解
在Android中每个界面都是一个Activity,切换界面操作其实是多个不同Activity之间的实例化操作。在Android中Activity的启动模式决定了Activity的启动运行方式。
Android总Activity的启动模式分为四种:
Activity启动模式设置:
<acti
攻城狮送女友的CSS3生日蛋糕
ini
html Web html5 css css3
在线预览:http://keleyi.com/keleyi/phtml/html5/29.htm
代码如下:
<!DOCTYPE html>
<html>
<head>
<meta charset="UTF-8">
<title>攻城狮送女友的CSS3生日蛋糕-柯乐义<
读源码学Servlet(1)GenericServlet 源码分析
jzinfo
tomcat Web servlet 网络应用 网络协议
Servlet API的核心就是javax.servlet.Servlet接口,所有的Servlet 类(抽象的或者自己写的)都必须实现这个接口。在Servlet接口中定义了5个方法,其中有3个方法是由Servlet 容器在Servlet的生命周期的不同阶段来调用的特定方法。
先看javax.servlet.servlet接口源码:
package
JAVA进阶:VO(DTO)与PO(DAO)之间的转换
snoopy7713
java VO Hibernate po
PO即 Persistence Object VO即 Value Object
VO和PO的主要区别在于: VO是独立的Java Object。 PO是由Hibernate纳入其实体容器(Entity Map)的对象,它代表了与数据库中某条记录对应的Hibernate实体,PO的变化在事务提交时将反应到实际数据库中。
实际上,这个VO被用作Data Transfer
mongodb group by date 聚合查询日期 统计每天数据(信息量)
qiaolevip
每天进步一点点 学习永无止境 mongodb 纵观千象
/* 1 */
{
"_id" : ObjectId("557ac1e2153c43c320393d9d"),
"msgType" : "text",
"sendTime" : ISODate("2015-06-12T11:26:26.000Z")
java之18天 常用的类(一)
Luob.
Math Date System Runtime Rundom
System类
import java.util.Properties;
/**
* System:
* out:标准输出,默认是控制台
* in:标准输入,默认是键盘
*
* 描述系统的一些信息
* 获取系统的属性信息:Properties getProperties();
*
*
*
*/
public class Sy
maven
wuai
maven
1、安装maven:解压缩、添加M2_HOME、添加环境变量path
2、创建maven_home文件夹,创建项目mvn_ch01,在其下面建立src、pom.xml,在src下面简历main、test、main下面建立java文件夹
3、编写类,在java文件夹下面依照类的包逐层创建文件夹,将此类放入最后一级文件夹
4、进入mvn_ch01
4.1、mvn compile ,执行后会在