scrapy 爬虫踩过的坑(II)

同事写了个爬虫,逻辑上看着没什么问题,但是一直报错:Request url must be str or unicode……

打印了一下url 和url 的类型,确实是 unicode 懵逼……

打印url 时,突然发现url 的域名和 爬虫设置的 allowed_domains 参数并不相同。

按正常来说,如果url 不在allowed_domains 范围内,他应该是会被禁止的。但是当用Request 对指定 的url 发送请求时,他竟然抛出了这么一个错误……

改了一下allowed domains ,爬虫就正常爬去了……

原文地址:https://www.cnblogs.com/taoyoung/p/8746474.html