防止浏览器搜索引擎搜索到相应的网址路径

前几天遇到一个问题,便是在自己的服务器上的东西被人修改了资料,作为一个前端开发工程师,经过查找资料,发现了一个配置文件,便是robots.txt,其方法为:

在服务器根目录新建一个robots.txt文件,然后在里边写上对应的访问权限即可:

User-agent: *
Disallow: /apis/
Disallow: /update
Disallow: /porter

假设我的服务器根目录为:https://www.abc.com,那么上边的代码便是不允许浏览器搜索引擎搜索到https://www.abc.com/apis、https://www.abc.com/updata、https://www.abc.com/porter这三个路径下的文件,想必这样就可以防止机器人自动搜索到一些东西修改了。

详情可查看官方文档:维基百科(貌似是国外的网站)

原文地址:https://www.cnblogs.com/xiaoyaoxingchen/p/10528609.html