Python爬虫入门 (看这篇就够了)

1、什么是爬虫

“爬虫”是一种形象的说法。互联网比喻成一张大网,爬虫是一个程序或脚本在这种大网上爬走。碰到虫子(资源),若是所需的资源就获取或下载下来。这个资源通常是网页、文件等等。可以通过该资源里面的url链接,顺藤摸瓜继续爬取这些链接的资源。

你也可以把爬虫当作模拟我们正常上网。打开网页并分析网页的内容获取我们想要的东西。

那么,这里就涉及到http传输协议等相关的知识。

我们通常打开一个网页,基本上都是打开一个Url链接即可。在这个过程当中,实际上发生了很多事情。

打开一个Url链接,浏览器自动向Url链接的服务器发送一个请求(Request),告诉服务器说我需要访问这个Url链接的内容,请返回数据给我。服务器就处理该请求,响应该请求并返回结果给浏览器。

既然爬虫需要模拟该过程。根据http协议,爬虫需要构造一个请求(Request),发到请求到目标服务器(通常是Url链接)。然后等待服务器的响应(Response)。

所有相关的数据都在这个响应结果当中,这个就是爬虫实现的基本逻辑。


2、urllib2实现GET请求

GET和POST是请求中最常见的两种方式。(一共有6种)

GET方式是通过Url链接的方式传输相关的参数或数据。一般打开网址是GET方式请求,例如打开百度首页、谷歌首页。

有时候,需要向这个链接传输一些参数。

例如我在百度搜索一个词,发现链接变成 https://www.baidu.com/s?ie=UTF-8&wd=测试

这里有个?问号以及后面一堆数据。问号后面的数据是GET请求的参数,这里一共有两组参数。

1)ie = UTF-8

2)wd = 测试

每组参数用&符号链接。在参数中,等号前面的是参数名;等号后面的是参数值。

例如第2组参数的含义是百度搜索关键字为“测试”。第1组参数是设置返回ie浏览器的编码格式,可有可无,作为说明加入进来。

那么,我使用urllib2模拟百度搜索代码如下:

  1. #coding:utf-8
  2. import urllib, urllib2
  3.  
  4. #前半部分的链接(注意是http,不是https)
  5. url_pre = 'http://www.baidu.com/s'
  6.  
  7. #GET参数
  8. params = {}
  9. params['wd'] = u'测试'.encode('utf-8')
  10. url_params = urllib.urlencode(params)
  11.  
  12. #GET请求完整链接
  13. url = '%s?%s' % (url_pre, url_params)
  14.  
  15. #打开链接,获取响应
  16. response = urllib2.urlopen(url)
  17.  
  18. #获取响应的html
  19. html = response.read()
  20.  
  21. #将html保存到文件
  22. with open('test.txt', 'w') as f:
  23.     f.write(html)

执行代码,可以看到爬取的内容。




5、反爬虫设置header

有些服务器为了避免被爬虫,会检查header。header是发送请求的时候,一起发送给服务器的数据。可以通过header得到浏览器的类型,手机端还是电脑端访问,以及从什么地方进入该链接等等。

若发现不是正常浏览器访问,服务器则直接拒绝。

so~ 我们需要进一步模拟浏览器的行为,需要模拟设置header。

  1. #coding:utf-8
  2. import urllib, urllib2  
  3.  
  4. #设置header
  5. user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'  
  6. headers = {'User-Agent':user_agent} 
  7.  
  8. #构造Request请求,其中第二个参数是data
  9. url = 'http://www.server.com/login'
  10. request = urllib2.Request(url, None, headers)
  11.  
  12. #响应请求
  13. response = urllib2.urlopen(request)  
  14. html = response.read()

同样,若你不知道如何设置header,可以通过抓包软件获取,例如Fiddler。


6、解析html

前面说了这么多,都是为了获取网页内容html。既然获取到html之后,我们解析?从中提取我们需要的数据?

我们所获取的html本质是字符串。处理字符串最基本的方法是通过相关的字符串函数,但效率很低,容易出错。

还可以使用正则表达式处理字符串。这部分的知识也是很多,大家可以自行了解。

这里,我想给大家说的处理方式是使用BeautifulSoup。

BeautifulSoup是解析html/xml的库。非Python自带的库,安装如下:

  1. pip install beautifulsoup4
  2. pip install lxml

安装lxml库是为了加快html解析效率。

先我们设置1个html内容,使用BeautifulSoup解析方法如下:

  1. #coding:utf-8
  2. from bs4 import BeautifulSoup
  3.  
  4. #先随便假设一个html
  5. html = '''<html>
  6. <head></head>
  7. <body>
  8.     <p id="test_p">test1</p>
  9.     <p>test2</p>
  10. </body>
  11. <html>'''
  12.  
  13. #使用lxml解析html
  14. soup = BeautifulSoup(html, 'lxml')

soup是解析得到的解析器。我们可以根据html的结构获取对应的节点。例如我想获取p标签:

  1. p = soup.body.p

但该方法只能获取到第1个节点。假如body标签下有很多p节点,该方法无法获取全部。

这里,我们可以用find_all或select方法获取。建议大家使用select方法,这个方法可以jQuery选择器用法差不多。例如:

  1. p1 = soup.select('p') #获取p标签
  2. p2 = soup.select('#test_p') #获取id为test_p的标签
  3. p3 = soup.select('.test')   #获取class为test的标签
  4. p4 = soup.select('body .test') #获取body下的class为test的标签

来个完整的代码,输出结果:

  1. #coding:utf-8
  2. from bs4 import BeautifulSoup
  3.  
  4. #先随便假设一个html
  5. html = '''<html>
  6. <head></head>
  7. <body>
  8.     <p id="test_p">test1</p>
  9.     <p>test2</p>
  10. </body>
  11. <html>'''
  12.  
  13. #使用lxml解析html
  14. soup = BeautifulSoup(html, 'lxml')
  15.  
  16. #获取全部p标签
  17. for p in soup.select('p'):
  18.     print(p)

通过该方法,可以输出全部p标签。

那假如我要获取p标签的属性和数据呢?方法如下:

  1. for p in soup.select('p'):
  2.     print(p.name) #标签名称
  3.     
  4.     #标签属性,也可以用p['id']。若属性不存在会报错,和字典获取键值类似
  5.     print(p.get('id')) 
  6.     print(p.string) #标签内容

若一个标签里面有很多子标签,你可以再进一步继续使用select。

若想获取标签下全部子标签的文本内容。可以用strings属性得到一个生成器,不过可能有很多回车和空格。若想屏蔽回车和空格,可以使用stripped_strings属性。如下所示:

  1. print(''.join(soup.body.strings))
  2. print(''.join(soup.body.stripped_strings))

将分别得到:

  1. u'\ntest1\ntest2\n'
  2. u'test1test2'


标签: 无

发表评论:

登陆