grep 提取百度网盘的链接

弄到一堆学习资料,都是网盘地址,其中有很多失效了,不想一个个试

3.3第20季:HTML5特效实战
https://pan.baidu.com/s/1kVBrpZp

3.4第21季:3小时玩转微信小程序入门
https://pan.baidu.com/s/1eUnMTii

3.5第22季:CSS3特效实战
https://pan.baidu.com/s/1dESOjFr

3.6第23季:轻松搞定毕业设计:论文写作+项目实战
https://pan.baidu.com/s/1eS2DVjW

3.7第24季:Java8新特性全剖析
https://pan.baidu.com/s/1boL0IMr

3.8第25季:BAT前端面试揭秘

于是用grep 取地址

# cat tar.txt | grep -P 'https(.+)[a-zA-Z0-9]' -o
-P 表示使用正则
-o 表示输出提取内容,不带则显示整行

结果:

https://pan.baidu.com/s/1c2tUAHU
https://pan.baidu.com/s/1slv5Yrz
https://pan.baidu.com/s/1KXvnojsly5JdbrPJPTQmVw
https://pan.baidu.com/s/1bpnkZCV
https://pan.baidu.com/s/1o78TbUM
https://pan.baidu.com/s/1skZRoLZ
https://pan.baidu.com/s/1skLEly9
https://pan.baidu.com/s/1jH8vplG
https://pan.baidu.com/s/1mhZv3q4
https://pan.baidu.com/s/1nvBThmp
https://pan.baidu.com/s/1pKY9yAZ

再使用wget 可以下载到网页内容,再使用grep命令查找关键词,结果比较少,难道只有这几个有效? 

[root@node1 result]# find . | xargs grep -L '此链接分享内容可能因为涉及侵权、色情、反动、低俗等信息,无法访问' 
grep: .: Is a directory
.
./16_rvg3oAdDqpNIv1pGraJA
./1iszcZYb6FZAU7bqoUInUfw
./1c5McVW
./1geZZ1Ov
./1nv2jpDB
./1nvAWFMT
./1eS2x2Hc
原文地址:https://www.cnblogs.com/hustcpp/p/11172662.html