寒假自学(九)

希望所有温柔又可爱的人最后都能幸福❤

今日总结:

代码量 400行
博客量 一篇
所学时间 6小时左右
了解到的知识点 python爬虫概述、Acwing每日一题

明日计划:

早上 python爬虫实例学习
下午 python爬虫实例学习
晚上 Acwing每日一题

具体内容:
网络爬虫浏览器的区别

  • 浏览器百度服务器发送请求,百度服务器获取响应数据,进行渲染

  • 爬虫程序百度服务器发送请求,百度服务器返回响应数据。

定义:网络爬虫就是模拟客户端发送网络请求获取响应数据,一种按照一定的规则,自动地抓取万维网信息的程序或脚本

作用:从万维网上获取,我们需要的信息

浏览器展示数据的,网络爬虫采集数据的

requests是一个优雅而简单的pythonHTTP请求库

requests的作用是发送请求获取响应数据

基本使用

# 导入模块
import requests

# 发送请求,获取响应
response = requests.get("http://www.baidu.com")
print(response)

response.text:响应体str类型

response.ecoding:二进制转换字符使用的编码

response.content:响应体bytes类型

# 打印所使用的编码 ISO-8859-1
print(response.encoding)
# 设置编码为UTF-8
response.encoding = "utf-8"

通过二进制再解码

# 导入模块
import requests

# 发送请求,获取响应
response = requests.get("http://www.baidu.com")
# print(response)
# 打印所使用的编码 ISO-8859-1
# print(response.encoding)
# 设置编码为UTF-8
# response.encoding = "utf-8"
# print(response.text)
print(response.content.decode())

https://www.acwing.com/problem/content/900/

从下往上找,对于每一个数,它都能从下面一行中找到两个数,避免了分类讨论,取最大值保存下来即可。

#include <bits/stdc++.h>
using namespace std;
const int N = 550;
int a[N][N];
int main()
{
    int n;
    cin>>n;
    for (int i = 1; i <= n; i++)
    {
        for (int j = 1; j <= i; j ++)
        {
            cin>>a[i][j];
        }
    }
    for(int i = n; i > 0; i--)
    {
        for (int j = 1; j <= i; j ++) 
        {
            a[i][j] = max(a[i][j] + a[i + 1][j], a[i][j] + a[i + 1][j + 1]);
        }
    }
    cout<<a[1][1]<<endl;
}
原文地址:https://www.cnblogs.com/125418a/p/14280169.html