這種seo手法專業術語叫什麼?

就是使用網站代碼判斷來訪是否是蜘蛛,如果是蜘蛛,網頁就顯示某種內容,如果不是蜘蛛,就顯示另一種內容。此外這種手法搜索引擎是否允許?如果不允許,那麼搜索引擎又是如何判斷作弊的呢?用匿名蜘蛛?


SEO中一般叫Cloaking,一般根據User Agent類別進行跳轉,當訪問的UA是googlebot或者baiduspider等搜索引擎蜘蛛則執行命令跳轉到黑頁,而訪問的如果是正常的瀏覽器,則返回的是正常的用戶頁面,也可以根據蜘蛛IP來執行跳轉;

絕對不允許,是典型的SEO作弊手法,一旦被發現將是非常嚴重的懲罰;

搜索引擎可以模擬普通瀏覽器來訪問,判斷兩張頁面的異同,現在搜索引擎對這種作弊的識別率還是挺高的,而且就算你僥倖沒被搜索引擎識別出來,其它競爭對手看到了肯定也不服去投訴下也是死。所以老老實實做站的話就別搞這種了。


上面算偽裝頁面的基礎知識。來說點不太有人說的。

先說一些http的基本知識
1.UA是可以任意改變的
2.爬蟲不一定帶UA,存在匿名爬蟲(nslookup後依舊屬於爬蟲)
3.referral也是可以隨便設置的
4.http header中存在了大量的信息,都可以用於作弊和反作弊。

所以判斷UA來偽裝,是一種必死的做法。

做cloaking目前都是有一定目的的,為了銷售or廣告點擊。純粹為了堆砌關鍵詞而cloaking的低級SEO方法應該不存在了。

所以有一些手法
1.程序上進行nslookup判斷,效率比較低。遇到CDN分發的還查不出來name
2.根據referral來判斷,爬蟲一般不帶referral,但是爬蟲也很聰明,為了檢測作弊,會自己帶referral,如果有用awstats之流的日誌分析工具可以看到,自己看看日誌吧。知道了原理,就知道如何作弊。好比hack讀了源代碼,總比盲射有針對性和高效率
3.根據操作系統語言,根據檢索詞,根據瀏覽器,根據時間段,都有不少人在做了。想想自己需要哪部分的訪客


其實無論是隱匿用戶代理還是隱藏層關鍵是看這麼做的用意是什麼。簡單說SE就是這麼來判斷的


樓主的思考精神不錯,簡單說兩句,pad打字費勁

抓取和計算的頁面與訪客實際訪問頁面不一致的問題
理論上搜索引擎可以有各種方法去採集,檢測,判斷和處罰。準確率和耗費的計算資源成指數級別對應。再次提醒大家,百度是商業搜索引擎,什麼叫商業,什麼叫理論,自己要會思考。

欺騙蜘蛛獲取排名,被懲罰的是人工原因,包括舉報和發現一個作弊站點後的同類站點排查。


對於Cloaking的頁面,技術上識別的準確率達到99%以上,但並不是所有返回內容不一樣的頁面都是作弊(比如百度文庫,豆丁網,或者一些其他的flash頁面),所以對後續的處理很難準確的分化。匿名抓取可以解決一部分問題,但是要考慮成本,基本很少使用,等於一個頁面抓兩遍。
對於作弊的Cloaking頁面,會結合其他角度來處理。


經典到可以寫進教科書的作弊手法。被搜索引擎嚴厲禁止的。


用js來偽裝更具操作性,針對瀏覽器和爬蟲顯示不同內容。


這是作弊哦。 百度已經明確說會嚴懲。幹這種事小心了。


支持樓上黃平煒的說法,百度派出兩種蜘蛛是很可能的,但一般偽裝成用戶的蜘蛛是少量


沒有專業術語 意義不大 隨便換個ip和ua就可以檢查 並不是返回內容不一樣就懲罰 這種情況界定作弊與否是比較困難的


推薦閱讀:

請問若需提高一批詞或者一批(類型)頁面的seo流量,有什麼思路或方法?
在 Google 上做搜索引擎優化 (SEO),你覺得最重要的是哪幾點?

TAG:搜索引擎優化SEO | 百度SEO | 谷歌SEO | 搜索引擎 |