老蜗牛写采集:网络爬虫(二)

短小精悍的xNet

      这个一个俄国牛人写的开源工具,为啥说他强悍了,因为他将所有Http协议的底层都实现了一遍,这有啥好处?只要你是写爬虫的,都会遇到一个让人抓狂的问题,就是明明知道自己Http请求头跟浏览器一模一样了,为啥还会获取不到自己想要的数据。这时你如果使用HttpWebReaquest,你只能调试到GetRespone,底层的字节流是调试不到了。所以必须得有个更深入的底层组件,方便自己调试。以下是xNet的开源地址:https://github.com/X-rus/xNet
快速入门

快速入门

      首先来一个读取cnblogs首页的案例,HttpWebRequest在上一篇已经举例,我们看看xNet是怎么写的

            using (var request = new xNet.HttpRequest())
            {
                var html = request.Get("http://www.cnblogs.com").ToString();
            }

  增加http头,譬如:

  注意,默认的http头,建议用属性进行设置,譬如KeepAlive,Referer和UserAgent

  扩展的Http头,譬如Upgrade-Insecure-Requests,可以使用AddHeader方法进行设置譬如

            using (var request = new xNet.HttpRequest())
            {
                request.AddHeader("Upgrade-Insecure-Requests", "1");
                var html=request.Get("http://www.cnblogs.com").ToString();
            }

  当然有些方法使用AddHeader和设置属性值是一样的,例如:

      request.AddHeader("User-Agent","Mozilla/5.0 (Windows NT 6.3; WOW64; rv:49.0) Gecko/20100101 Firefox/49.0");

      request.UserAgent = "Mozilla/5.0 (Windows NT 6.3; WOW64; rv:49.0) Gecko/20100101 Firefox/49.0";

      request.UserAgent = xNet.Http.FirefoxUserAgent();

  当然不是所有值都可以使用AddHeader进行设置,譬如:Content-Type,这是POST时说明POST的数据类型,如果使用AddHeader会报错。如果你不知道那些可以手动设那些是不能的,参考xNet.HttpHeader的枚举值

    public enum HttpHeader
    {
        Accept = 0,
        AcceptCharset = 1,
        AcceptLanguage = 2,
        AcceptDatetime = 3,
        CacheControl = 4,
        ContentType = 5,
        Date = 6,
        Expect = 7,
        From = 8,
        IfMatch = 9,
        IfModifiedSince = 10,
        IfNoneMatch = 11,
        IfRange = 12,
        IfUnmodifiedSince = 13,
        MaxForwards = 14,
        Pragma = 15,
        Range = 16,
        Referer = 17,
        Upgrade = 18,
        UserAgent = 19,
        Via = 20,
        Warning = 21,
        DNT = 22,
        AccessControlAllowOrigin = 23,
        AcceptRanges = 24,
        Age = 25,
        Allow = 26,
        ContentEncoding = 27,
        ContentLanguage = 28,
        ContentLength = 29,
        ContentLocation = 30,
        ContentMD5 = 31,
        ContentDisposition = 32,
        ContentRange = 33,
        ETag = 34,
        Expires = 35,
        LastModified = 36,
        Link = 37,
        Location = 38,
        P3P = 39,
        Refresh = 40,
        RetryAfter = 41,
        Server = 42,
        TransferEncoding = 43,
    }

  

xNet常用模块

  Post提交数据,偷懒,直接用官方的示例

using (var request = new HttpRequest())
{
    var reqParams = new RequestParams();

    reqParams["login"] = "neo";
    reqParams["password"] = "knockknock";

    string content = request.Post(
        "www.whitehouse.gov", reqParams).ToString();
}

  等同于

            using (var request = new xNet.HttpRequest())
            {
                var html = request.Post("www.whitehouse.gov",
                                        "login=neo&password=knockknock", "application/x-www-form-urlencoded").ToString();
            }

  

application/x-www-form-urlencoded是form提交,默认是application/octet-stream,用于上传图片资源之类的,其实我觉得应该Form提交设置为默认,估计表单提交比较常用

会使用Post之后,我们就可以做模拟登陆了,本来想举博客园登陆的例子,奈何dudu做了一系列的防自动登陆措施,所以也就作罢。其实如果真正想破其实也不难,很多公钥都写在页面上了,只要写一个RSA加密算法便可以得到加密后的用户名密码了。有兴趣的人可以研究一下。

还有一个注意的地方,我比较推荐使用第一种方式,因为参数在内核里面就会UrlEncode了,如果自己拼凑地址的话,如果英文是没问题,但是中文或者其他文字就得UrlEncode一下了,譬如:"login="+System.Web.HttpUtility.UrlEncode("老蜗牛")+"&password=knockknock"
这里要强烈抗议一下UrlEncode的方法应该放在System.Net的空间比较合适,因为做爬虫没必要使用System.Web命名空间,当然也有牛X的网友早就写了一个替代品
        //不用引用System.Web
        public static string ToUrlEncode(string strCode, Encoding encoding)
        {
            StringBuilder sb = new StringBuilder();
            byte[] byStr = encoding.GetBytes(strCode);
            System.Text.RegularExpressions.Regex regKey = new System.Text.RegularExpressions.Regex("^[A-Za-z0-9]+$");
            for (int i = 0; i < byStr.Length; i++)
            {
                string strBy = Convert.ToChar(byStr[i]).ToString();
                if (regKey.IsMatch(strBy))
                {
                    //是字母或者数字则不进行转换
                    sb.Append(strBy);
                }
                else
                {
                    sb.Append(@"%" + Convert.ToString(byStr[i], 16));
                }
            }
            return (sb.ToString());
        }

  包含文件的表单

using (var request = new HttpRequest())
{
    var multipartContent = new MultipartContent()
    {
        {new StringContent("Bill Gates"), "login"},
        {new StringContent("qwerthahaha"), "password"},
        {new FileContent(@"C:windows_9_alpha.rar"), "file1", "1.rar"}
    };

    request.Post("www.microsoft.com", multipartContent).None();
}

 设置Cookie值,这在模拟登陆和验证码会经常用到

            using (var request = new xNet.HttpRequest())
            {
                request.Cookies = new xNet.CookieDictionary()
                {
                    {"SERVERID", "9ffd301069c1081a14d128e0c97deda8|1478866092|1478862527"}
                };
                var html = request.Get("http://www.cnblogs.com").ToString();
            }

  等同于

            using (var request = new xNet.HttpRequest())
            {
                request.AddHeader("Set-Cookie","SERVERID=9ffd301069c1081a14d128e0c97deda8|1478866092|1478862527;Path=/");
                var html=request.Get("http://www.cnblogs.com").ToString();
            }

  使用Http代理

var proxyClient = HttpProxyClient.Parse("127.0.0.1:8080");
var tcpClient = proxyClient.CreateConnection("habrahabr.ru", 80);

  当然他还支持Socks4和Socks5,代理的好处不言而喻了。当然在挠头找服务端的童鞋可以上https://github.com/NewLifeX/X 里面有一个http代理服务器,非常强悍。不会弄的可以加石头的群。

  其他更多的功能就不一一举例了,有星期可以加群研究研究。

  一下篇会讲讲如何获取页面数据,主要是靠HtmlAgilityPack组件或者正则,两者各有各的优势。如果等不及可以看看我的好友老董写的一篇文章

C#+HtmlAgilityPack+XPath带你采集数据(以采集天气数据为例子)

  C#.NET开源项目、机器学习、足球赛事资料库 

  开源Q群:302961959

  足球研究技术群:142780296

 



原文地址:https://www.cnblogs.com/weitaoxiaozhu/p/6037928.html