python的爬虫入门学习1

今日内容:
1.爬虫原理
2.Requests请求库

一:爬虫原理
     1.什么是互联网
        指的是由一堆网络设备,把一台台的计算机互联到一起称之为互联网
    2.互联网建立的目的
        互联网建立的目的是为了数据的传递以及数据的共享
    3.上网的全过程:
        普通用户:打开浏览器->发送请求->往目标站点发送请求->获取响应数据->渲染到浏览器中
        爬虫程序:   模拟浏览器->往目标站点发送请求->获取响应数据->提取有价值数据->持久化到数据中
    4.什么是数据
        例如淘宝,京东商品信息等...
          东方财富,雪球网的一些证券投资信息...
        链家,自如等房源信息...
        12306的票务信息...
    5.浏览器发动的是什么请求
        http协议的请求
        客户端:
            浏览器是一个软件->客户端的ip和端口
        服务端
            https://www.jd.com/
            www.jd.com(京东域名)->DNS解析->京东服务器的ip和端口
        客户端的ip和端口----->服务端的ip和端口发送请求可以建立链接获取相应数据
    6.爬虫的全过程
        -发送请求   (需要请求库:Requests请求库,Selenium请求库)
        -获取响应数据  (只要往服务器发送请求,请求通过后会返回响应数据)
        -解析并提取数据(需要解析库:re,BeautifulSoup4,Xpath...)
        -保存到本地       (文件处理,数据库,MongoDB存储库)

二.

URL和URI的区别:

          URL是统一资源定位符,表示资源的地址(我们说网站的网址就是URL),而URI是统一资源标识符 ,即用字符串来标识某一互联网资源,因此,URI属于父类,URL属于子类

爬虫:

    爬虫事实上就是一个程序,用于沿着互联网结点爬行,不断访问不同的网站,以便获取它所需要的资源。

2.实例:

        import urllib.request

        response=urllib.request.urlopen("http://www.hao123.com")

          html=response.read()

  注:urllib.request.urlopen返回的是一个HTTPResponse的实例对象,它属于http.client模块

            只能用read()才能读出URL内容

3.关于编码问题:

编码的解决方案

解决编码检测问题

原文地址:https://www.cnblogs.com/chmusk/p/12465892.html