搜索引擎統一:Robots文件標準 ? Wopus中文博客平台 - WordPress

搜索引擎統一:Robots文件標準

2009-04-05 10:10 | 來源: 轉載 | 作者: Zac | 評論: 55條評論

搜索引擎三巨頭打的不亦樂乎,但偶爾也合作一下。去年Google,雅虎,微軟就合作,共同遵守統一的Sitemaps標準。前兩天三巨頭又同時宣布,共同遵守的robots.txt文件標準。Google,雅虎,微軟各自在自己的官方博客上發了一篇帖子,公布三家都支持的robots.txt文件及Meta標籤的標準,以及一些各自特有的標準。下面做一個總結。

三家都支持的robots文件記錄包括:

Disallow - 告訴蜘蛛不要抓取某些文件或目錄。如下面代碼將阻止蜘蛛抓取所有的網站文件:

User-agent: *Disallow: /

Allow - 告訴蜘蛛應該抓取某些文件。Allow和Disallow配合使用,可以告訴蜘蛛某個目錄下,大部分都不抓取,只抓取一部分。如下面代碼將使蜘蛛不抓取ab目錄下其他文件,而只抓取其中cd下的文件:

User-agent: *Disallow: /ab/Allow: /ab/cd

$通配符 - 匹配URL結尾的字元。如下面代碼將允許蜘蛛訪問以.htm為後綴的URL:

User-agent: *Allow: .htm$

*通配符 - 告訴蜘蛛匹配任意一段字元。如下面一段代碼將禁止蜘蛛抓取所有htm文件:

User-agent: *Disallow: /*.htm

Sitemaps位置 - 告訴蜘蛛你的網站地圖在哪裡,格式為:

Sitemap:

三家都支持的Meta標籤包括:

NOINDEX - 告訴蜘蛛不要索引某個網頁。

NOFOLLOW - 告訴蜘蛛不要跟蹤網頁上的鏈接。

NOSNIPPET - 告訴蜘蛛不要在搜索結果中顯示說明文字。

NOARCHIVE - 告訴蜘蛛不要顯示快照。

NOODP - 告訴蜘蛛不要使用開放目錄中的標題和說明。

上面這些記錄或標籤,現在三家都共同支持。其中通配符好像以前雅虎微軟並不支持。百度現在也支持Disallow,Allow及兩種通配符。Meta標籤我沒有找到百度是否支持的官方說明。只有Google支持的Meta標籤有:

UNAVAILABLE_AFTER - 告訴蜘蛛網頁什麼時候過期。在這個日期之後,不應該再出現在搜索結果中。

NOIMAGEINDEX - 告訴蜘蛛不要索引頁面上的圖片。

NOTRANSLATE - 告訴蜘蛛不要翻譯頁面內容。雅虎還支持Meta標籤:

Crawl-Delay - 允許蜘蛛延時抓取的頻率。

NOYDIR - 和NOODP標籤相似,但是指雅虎目錄,而不是開放目錄。

Robots-nocontent - 告訴蜘蛛被標註的部分html不是網頁內容的一部分,或者換個角度,告訴蜘蛛哪些部分是頁面的主要內容(想被檢索的內容)。

MSN還支持Meta標籤:

Crawl-Delay

另外提醒大家注意的是,robots.txt文件可以不存在,返回404錯誤,意味著允許蜘蛛抓取所有內容。但抓取robots.txt文件時卻發生超時之類的錯誤,可能導致搜索引擎不收錄網站,因為蜘蛛不知道robots.txt文件是否存在或者裡面有什麼內容,這與確認文件不存在是不一樣的。


推薦閱讀:

MySQL 之索引部分
索引優越性100萬&&3000萬條記錄,資料庫性能還有try-catch異常的捕捉
測試腦圖工具
個人索引
高性能mysql優化二之索引篇

TAG:搜索 | 搜索引擎 | 博客 | 標準 | 索引 | Word | 平台 | 文件 | 中文 | Robot |