MAC 上抓取网页数据的工具有哪些?

我希望能够从网页上, 比如气象局数据, 财经数据等等, 我看到官方提供的数据都比较混乱, 有的是一个php文件, 有的是一个文本, 有的干脆不提供数据, 我想问, Mac上, 用什么工具去抓数据, 以及处理这些数据大神们一般用很么方法?

链接:https://www.zhihu.com/question/27736988/answer/174849599
https://www.zhihu.com/question/27736988


1、

import.io

用法非常简单,注册后输入网址链接,就可以在可视化界面对数据进行筛选。操作也是超级简单,如下图,唯一缺点就是全英文,不过咱们自己也有,来看看第二个吧。




2、parsehub

parsehub

与以上两种网页抓取不同的是,parsehub需要用户下载客户端之后再使用,打开就像一个浏览器,输入网址后在网页提取出需要的信息。




(二维码自动识别)


3、80legs

80legs

80legs在由5万台计算机构成的Plura网格 上每天抓取200万网页。 但是在使用上可能并没有前几个那么好用。




4、Web Scraper

Web Scraper

Web Scraper是需要在谷歌应用商店安装的一个插件,基本步骤就是点点点

详细的教程可以看这里



(二维码自动识别)


5、FMiner

FMiner

FMiner同样也需要下载客户端进行使用,但它是一款付费产品,有15天的免费使用期。





总结

以上介绍的都是国外的工具,如果更喜欢中文界面,可以来试试我们的产品造数造数 -深受广大爬虫爱好者喜欢的云爬虫

造数比更适合国人使用。直接在原网页基础上操作,还可以分布式爬取、深度爬取等,对数据有需求的可以尝试下。



其实网页爬取工具很多,大可不必全部掌握,把它当作工具来方便自己的工作才是本文的目标。

作者:徐小磊
链接:https://www.zhihu.com/question/27736988/answer/497899625
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

我在mac上用的是下图这个,日常基本数据的爬取足够了。

1)日常临时性的,或者快速的数据爬取,就用这个

2)其他的还是会写写python爬取,毕竟开发需要时间和成本,要考虑投入产出比

 

应用信息主界面,和八抓鱼差不多爬取规则页面,也和八抓鱼差不多,不过更好看和方便
 
 
原文地址:https://www.cnblogs.com/lxwphp/p/11274721.html