百度指数爬虫|爬虫篇(一)

资源收集

在写爬虫之前,一定要先在知乎、、CSDN、github这种网站上查查有没有人做过类似的事情。目的并不一定是抄他们的代码,而是看他们是怎么分析的,他们都发现了哪些网站的反爬措施,又是怎么解决的。通过看他们的文章和代码,可以让自己少走很多弯路。我这次写爬虫就是参考了一篇文章和一个代码。
本篇内容是分析百度指数的获取数据的接口,大家感兴趣的话可以实操一下

接口分析

界面构成

首先百度指数的首页链接是http://index.baidu.com/,打开之后就可以看到如下界面:

​ 然后我们在关键词里搜索信息,就可以查看百度指数结果了:


  • 点击1位置可以调整查看的时间范围
  • 点击2位置可以选择PC、移动、PC+移动端
  • 点击3位置可以切换全国的不同省份
  • 拖动4的时间轴也可以达到点击1位置同样的效果

接口分析

然后我们就来分析一下接口了,所谓分析接口就是,找出来这个界面的那些数据,是从哪里弄过来的。想要想搞清楚这个问题,我们要3步走:

  • 在浏览器上按F12
  • 点击"Network"
  • 刷新页面

现在我们就会看到这么一大堆浏览器向服务器发送的请求。我们需要的,获得搜索次数的请求肯定也藏在其中。那么问题来了,哪个是呢?????

不慌,问题不大,首先呢,我们点击这个"XHR",进行筛选(不要问我为什么按这个,按!就对了)

我们来看哈,现在请求已经被我们一下子筛选的这么这么少了,那我们就只能,一个一个看了

对于每一个请求呢,我们先要点击请求,然后点击右边的"Preview",就可以看到请求的内容了。经过查看。这个请求一看就是我们需要的东西:

你看它长得多好看,有all,有pc,有wise。每个里面有startDate(开始时间的意思,英语不行我就没辙了),endDate和data。除了data长得很奇怪好像其他的都还行。那其实这就很难受了,这个data一看就是经过加密了。那么这个问题严重么?啊,其实还蛮严重的。不过不要紧,我们知道既然服务器把加密后的数据发给我了,那么解密的方法一定在代码里,我们就来猜猜看,哪段代码是用来解密的就可以了。

具体咋办呢?问题来了,解密的英语是什么啊?decrypt!好的,我们猜猜看,百度的程序员会不会把解密的程序命名为了decrypt呢?我们来搜索一下,点击这个小搜索框,输入decrypt再回车就好了。

激动人心的时刻到了,果然搜到了两条记录,点开一看,完美!我们貌似找到了一个解密的代码:

我们看到解密需要t和e,t是我们要解密的内容,就是前面的data,那么e呢?e明显就是解密用的秘钥了,那么e怎么来得???经过分析,它是其它的请求发来的:

这个里面的data,就是我们解密用的秘钥了!但是这个请求有一个uniqid参数,它是哪来的???咦,貌似我们最上面返回数据的请求,有一个uniqid哎!没跑了,就是它!

接口总结

好的,现在我们来捋一下流程:

  • 首先index?area=0.....的那个请求会发回来搜索数量,不过是加密后的结果,我们需要解密。并且这个接口会返回一个uniqid字段,这个字段在后面会用到
  • 解密的方法在decrypt函数里,其中需要需要被解密的密文,就是上面我们获得的data,以及解密的秘钥
  • 秘钥是通过ptbk?uniqid...这个请求来发送的,不过这个请求需要一个uniqid参数,这个参数在我们前面的index请求里就可以拿到

这样一来我们爬虫最核心的内容就有了:

  • 首先请求index,拿到密文和uniqid:

    def get_encrypt_datas(self, start_date, end_date, keywords):
            params = {
                'word': ','.join(keywords),
                'startDate': start_date.strftime('%Y-%m-%d'),
                'endDate': end_date.strftime('%Y-%m-%d'),
                'area': self.area
            }
            url = 'http://index.baidu.com/api/SearchApi/index?' + urlencode(params)
            html = self.get(url)
            datas = json.loads(html)
            uniqid = datas['data']['uniqid']
            encrypt_datas = []
            for single_data in datas['data']['userIndexes']:
                encrypt_datas.append(single_data)
            return (encrypt_datas, uniqid)
    
  • 然后根据uniqid去拿到解密的秘钥:

    def get_key(self, uniqid):
            url = 'http://index.baidu.com/Interface/api/ptbk?uniqid=%s' % uniqid
            html = self.get(url)
            datas = json.loads(html)
            key = datas['data']
            return key
    
  • 最后照着抄解密函数哈哈哈哈

    def decrypt_func(self, key, data):
            a = key
            i = data
            n = {}
            s = []
            for o in range(len(a) // 2):
                n[a[o]] = a[len(a) // 2 + o]
            for r in range(len(data)):
                s.append(n[i[r]])
            return ''.join(s).split(',')
    
  • 我们来看一下解密的结果:

已经解密成数字了,这样就,大功告成!

写在最后

其实感觉,这个爬虫真的还挺难的。百度的反爬和其它不太一样。百度对于访问的频率以及请求的Cookie的更新并没有太大的反爬加入。百度的反爬措施主要在于加密。当然,它同样恶心哈哈哈。

下一篇我们将说说,其它方面,百度还给我们准备了什么坑,等着我们跳!

你可能感兴趣的:(百度指数爬虫|爬虫篇(一))