當前位置:才華齋>計算機>SEO網站優化>

如何避免蜘蛛陷阱

SEO網站優化 閱讀(1.12W)

“蜘蛛陷阱”是阻止蜘蛛程式爬行網站的障礙物,雖然網頁介面看起來非常正常,但這些蜘蛛陷阱會對蜘蛛程式造成障礙。消除這些蜘蛛陷阱,可以使蜘蛛程式收錄更多的網頁。哪些做法不利於蜘蛛爬行和抓取呢?怎麼去避免這些蜘蛛陷阱呢?下面跟YJBYS小編一起學習一下!

如何避免蜘蛛陷阱

  1、 登入要求

有些企業站和個人站設定一定要使用者註冊登入後,才能看到相關的文章內容,這種對蜘蛛不是很友好,因為蜘蛛無法提交註冊,更無法輸入使用者名稱和密碼登入檢視內容。對於蜘蛛來說,使用者直接點選檢視到的內容也是蜘蛛所能看到的內容。如果你的網站有這種情況,請取消這一功能,但網站如果有VIP使用者或部分資源,是可以這樣設定的。

  2、動態URL

動態URL可以簡單理解為在URL中加入過多的符號或者網址引數,雖然隨著搜尋引擎的技術發展,動態URL對於蜘蛛的抓取已經越來越不是問題了,但是從搜尋引擎友好度上講,靜態哪陷是偽靜態相對來說都比動態URL要好。URL優化將在本章第6節中討論。 /

  3、強制用Cookies

強制用Cookies對於搜尋引擎來說相當於直接禁用了Cookies,而有些網站為了實現某些功能。會採取強制Cookies,例如跟蹤使用者訪問路徑,記住使用者資訊,甚至是盜取使用者隱私等,如果使用者訪問這類站點時沒有啟用Cookies,所顯示的頁面就會不正常。所以,對於蜘蛛來講,同樣的網頁無法正常訪問。

  4、 框架結構

早期框架網頁到處被氾濫使用,而現在很多網站已經很少使用了,一是因為現在隨著各大CMS系統的開發問世,網站維護相對越來越簡單了,早期網站使用框架是因為對網站頁面的維護有一定的便利性,現在已經大可不必了,而且不利於搜尋引擎收錄也是框架越來越少被使用的原因之一。

  5、各種跳轉

對搜尋引擎來說,只對301跳轉相對來說比較友好,對其他形式的跳轉都比較敏感。如JavaScritp跳轉、MetaRefresh跳轉、Flash跳轉、302跳轉。

有些網站的做法很讓人無奈,當開啟網頁後,會自動轉向其他頁面,如果開啟的頁面和你要找的頁面豐體相關.+掃.笪討很去,佃是很大部分的網站轉向讓你無任何理由和目的,這種轉向不推薦大家使用,如果非要做轉向,只推薦用301永久跳轉,可以將權重進行傳遞,除此轉向其他都不推薦,因為很多其他轉向欺騙使用者和搜尋引擎,也是黑帽的一種手段,建議大家不要使用。

  6、Flash

有的網站頁面使用Flash視覺效果是很正常的,例如用Flash做的Logo、廣告、圖表等,這些對搜尋引擎抓取和收錄是沒有問題的,但很多網站的首頁是一個大的'Flash檔案,這種就叫蜘蛛陷阱。在蜘蛛抓取時,HTML程式碼中只是一個連結,並沒有文字,雖然大的Flash效果看上去很好,外觀看著也很漂亮,但可惜搜素引擎看不到,無法讀取任何內容,所以,為了能體現網站優化的最好效果,不提倡這種Flash作為首頁圖片。

  7、JavaScript跳轉

雖然現在搜尋引擎對於JavaScript裡的連結可以跟蹤,甚至嘗試拆解分析,但是我們最好不要寄望於搜尋引擎自己克服困難。雖然通過JavaScript可以做一些效果不錯的導航,但是CSS同樣也可以做到。為了提高網站對搜尋引擎的友好度,使網頁能夠更好地蜘蛛爬行,儘量不要採用JavaScript當然,在SEO中,JavaScript有一個好處就是站長不希望被收錄的頁面或者友情連結可以採用JavaSc:npt。當然,有一種方法可以消除JavaScript蜘蛛程式陷阱,即使用

  8、採用session id的頁面

有的銷售類站點為了分析使用者的某些資訊,會採用會話ID來跟蹤使用者。訪問站點時,每個使用者訪問都會增加一次:?ssion id而加人到URL中。同樣,蜘蛛的每一次訪問也會被當作一個新使用者。每次蜘蛛訪問的URL中都會加入一個。Ession id,產生同一個頁面但URL不同的情況,這種情況會產生複製內容頁面,造成高度重複的內容頁,同時也是最常見的蜘蛛陷阱之一。