国产精在线-国产精欧美一区二区三区-国产精视频-国产精品 日韩-一级黄色片在线看-一级黄色片在线播放

如何使用robots禁止各大搜索引擎爬蟲爬取網(wǎng)站

1、搜索引擎在爬取網(wǎng)站前會做什么?

一般來說搜索引擎爬取網(wǎng)站時都會,先讀取下robots.txt文件,并依照里面所設定的規(guī)則去爬取網(wǎng)站(當然是指沒用登錄限制的頁面)

2、robots.txt文件的內(nèi)容和結構是怎樣的?

1).robots.txt文件必須是放在文件根目錄上:
例如:

├─admin

│ └─templates

│ header.tpl.php

│ task_add.tpl.php

│ └─robots.txt

2 ) .首先常用的命令為

User-agent : 可以具體制定User-agent適用,即搜索引擎的名字,如果為 * 的話則為通配

Disallow : 可以設定檔案或文件夾,不允許被爬蟲爬取,且為 / 時禁止爬取整站 ,也可以指定文件路徑,不可爬取

Crawl-delay: 延時爬取,防止爬蟲短時間內(nèi)爬取網(wǎng)站過快導致網(wǎng)站崩潰,則可以設置該延時

Allow : 允許爬取指定頁面, 為 / 時爬取整站

3) 搜索引擎別稱

Googlebot 谷歌

Baiduspider 百度

等等

3、搜索引擎的好處和壞處是什么?

不好的地方會增加網(wǎng)站的訪問負荷;有時,還會涉及到用戶的隱私;

好的地方也是增加了訪問流量;

4、一般徹底防止爬蟲用什么方法?

如果需要防止的話,就需要監(jiān)測網(wǎng)站,把一些不良網(wǎng)絡爬蟲的給堵止掉,一般是封IP。

robots.txt只能防止有品的爬蟲來爬

5、如何使用robots禁止各大搜索引擎爬蟲爬取網(wǎng)站

1.原來一般來說搜索引擎爬取網(wǎng)站時都會,先讀取下robots.txt文件,并依照里面所設定的規(guī)則去爬取網(wǎng)站(當然是指沒用登錄限制的頁面)

2.下面我們就來說一說如何設置robots.txt文件

1).robots.txt文件必須是放在文件根目錄上:
例如:

├─admin

│ └─templates

│ header.tpl.php

│ task_add.tpl.php

│ └─robots.txt

2 ) .首先常用的命令為

User-agent : 可以具體制定User-agent適用,即搜索引擎的名字,如果為 * 的話則為通配

Disallow : 可以設定檔案或文件夾,不允許被爬蟲爬取,且為 / 時禁止爬取整站 ,也可以指定文件路徑,不可爬取

Crawl-delay: 延時爬取,防止爬蟲短時間內(nèi)爬取網(wǎng)站過快導致網(wǎng)站崩潰,則可以設置該延時

Allow : 允許爬取指定頁面, 為 / 時爬取整站

3) 搜索引擎別稱

Googlebot 谷歌

Baiduspider 百度

等等

類似我們測試環(huán)境就設置了

User-agent : / 所有搜索引擎

Disallow : / 禁止整站

總結

User-agent: *
Disallow: /

就可以了..

THE END
主站蜘蛛池模板: 仑乱高清在线一级播放 | 国产亚洲一路线二路线高质量 | 美女被免费网站在线视频软件 | 牛人国产偷窥女洗浴在线观看 | 一区国严二区亚洲三区 | 欧美久久亚洲精品 | 日韩欧美在线观看一区 | 国产精品福利午夜一级毛片 | 国产成人综合久久精品亚洲 | 国产99视频精品免费观看9e | 最新国产精品亚洲 | 欧美中文字幕 | 成人看片黄a免费 | 国产精品一区二区综合 | 97精品在线视频 | 国产成人一区二区视频在线观看 | 亚洲欧美视频一区二区 | 欧美色网在线 | 国产成人精品.一二区 | 久草视频手机在线观看 | 一级色网站 | 免费一级a毛片在线播 | 欧美在线做爰高清视频 | 日本一级特黄大一片免 | 欧洲乱码伦视频免费 | 国内自拍第五一页 | 91成人免费观看 | 国内精品久久久久久影院老狼 | 国产综合视频在线观看一区 | 欧美午夜精品久久久久久黑人 | 免费在线一区二区三区 | 在线免费观看精品 | 一级片欧美 | 亚洲男人天堂手机版 | 欧美第一精品 | 国产一区私人高清影院 | 国产福利微拍精品一区二区 | 久久亚洲国产成人影院 | 久久精品成人欧美大片免费 | 欧美一级毛片生活片 | 夜夜骚视频 |