python 爬虫-2

小白新手完全不懂的什么,还有一个robots.txt限制文件,稀里糊涂的    还是百度   可以看一下:http://www.baidu.com/robots.txt

里面会有一些限制,常见的一些配置:

1. 允许所有的robot访问

User-agent: *

Allow: /           #(允许根目录==所有目录)

或者

User-agent: *

Disallow:         #(注意:Disallow是空的。没有限制==所有)

2. 禁止所有搜索引擎访问网站的任何部分

User-agent: *

Disallow: /      #(注意:Disallow是限制根目录==所有目录)

3. 仅禁止Baiduspider访问您的网站

User-agent: Baiduspider

Disallow: /

4. 仅允许Baiduspider访问您的网站

User-agent: Baiduspider

Disallow:

5. 禁止spider访问特定目录

User-agent: *

Disallow: /cgi-bin/

6. 允许访问特定目录中的部分url

User-agent: *

Allow: /cgi-bin/see

Disallow: /~joe/

验证用户的代码:

agent = 用户名

rp = robotparser.RobotFileParser()

url = 'http://www.baidu.com'

robots_url = 'http://www.baidu.com/robots.txt'
rp.set_url(robots_url)
rp.read()
if rp.can_fetch(agent, url):

  #如果用户被robots.txt允许   返回true

  #如果用户不被robots.txt允许   返回false

根据这个robot.txt文件的内容,编写爬虫时,去匹配一下,是否有权限

百度允许的用户:ChinasoSpider(在百度的robot.txt中),去验证

自己随便写的用户:zzf,去验证

原文地址:https://www.cnblogs.com/wozuilang-mdzz/p/9579248.html