黑帽seo排名軟件-黑帽seo程序論壇

網站存在大量404死鏈接,而又不主動去刪除,長期下去搜索引擎就會降低對該站點的信任度,導致該站點被降權,下面黑帽百科來給大家分享網站404鏈接是如何產生的,對網站有哪些影響?網站404鏈接該如何解決才不會導致網站被搜索引擎降權。

1、死鏈接對于網站來說是避免不了的,但如果死鏈接過多,會影響搜索引擎對于網站的評分;
2、搜索引擎每天對于每個站點的抓取頻次是有限制的,如果站點死鏈接太多,是會流費掉搜索蜘蛛每天抓取配額的,還會影響正常頁面的抓取。
3、太多有404死鏈接對于用戶來說,體驗也是不好的。
1、網站內部錯誤鏈接
由于網站編輯或程序員的大意,導致網站產生不存在的鏈接頁面。
2、網站短暫無法訪問
由于網站程序、空間或服務器的問題,導致網站產生大量以5開頭的錯誤狀態碼頁面。
3、外部鏈接錯誤
用戶或站長自己在站外發布了錯誤鏈接頁面,搜索蜘蛛在抓取了這些頁面后產生了404錯誤頁面,別人采集復制了你站點含有錯誤鏈接的頁面,還有就是有些垃圾站點自動生成靜態頁面搜索結果,這些都會導致網站產生404錯誤頁面。
4、抓取了不完整URL鏈接
有些搜索蜘蛛在抓取網站URL鏈接時,只抓取部分URL鏈接或者將正常URL鏈接后面的文字也抓取進去了。
5、網站改版
在網站改版過程中,將老頁面刪除后未做301跳轉到對應頁面,或者在做了301跳轉后,部分老頁面仍然無法正常訪問。
6、管理員刪除頁面
站長刪除被黑、廣告、過時、灌水頁面時,未做301跳轉,導致網站產生了大量死鏈接。
7、下架過期商品頁面
電商網站平臺,下架過期商品信息產生的404死鏈接。
1、修復錯誤頁面
由于網站編輯或程序員的大意產生的錯誤頁面,此種情況,我們要及時對程序進行修復,來保證本應該是正常的頁面恢復訪問。
2、提交死鏈接
網站404錯誤鏈接頁面URL地址該如何獲取?黑帽百科給大家分享以下三種方法:
(1) 使用百度站長工具,點擊數據統計中的“抓取異常-找不到的頁面”,復制下面的所有鏈接地址,這就是近段時間我們網站的404死鏈接,此處鏈接不需要我們另外向百度提交了,百度已經自動幫我們提交了;
(2) 在刪除網站頁面時,手動保存好被刪除的頁面URL地址;
(3) 使用爬蟲軟件,例如Xenu,爬取網站中所有鏈接地址獲取死鏈接。
通過HTTP狀態碼來批量篩選網站所有鏈接中的404死鏈接,排除非404狀態碼的頁面。
整理好所有404狀態碼的鏈接頁面,將保存為一個TXT格式的文件文件,將此文本文件上傳至網站根目錄中,再將此文本文檔提交給百度站長平臺。如何將死鏈接提交給百度,可參考《如何將404死鏈接提交給百度》這篇文章。
3、在robots中屏蔽抓取
如果你的網站存在大量404死鏈接,而且還具有一定的規律,那么你可以在robots文件中寫一個規則禁止蜘蛛抓取此類鏈接,前提是不要把正常頁面給誤傷了,例如你的網站全部是html靜態頁面,如果錯誤頁面鏈接中含有?的話,robots文件規則可以寫成Disallow:/*?*,如果錯誤頁面鏈接中含有/id…html,則robots規則可以寫成Disallow:/*…* 。
robots文件規則創建完成后,再去百度站長平臺robots工具校驗一下,將封禁的錯誤頁面放進去,看看是否封禁成功了,再將正常的頁面放進去,看看是否被誤封了。
1、在向百度站長平臺提交網站404死鏈接之前,一定要先確保這個鏈接是否是活鏈接,否則將將無法成功提交,導致死鏈接無法刪除。
2、由于某些網站程序問題,導致網站很多打不開的頁面狀態碼并不是404,這種問題對于用戶體驗是極不友好的,例如有些頁面明明打不開,但返回碼卻是301、200、500,這種問題建議大家盡快處理好。
3、找到網站所有404錯誤頁面后找到相同特征,與正常頁面進行區分,寫成一個robots文件規則禁止搜索蜘蛛抓取,就算提交了死鏈接,也建議robots封禁此類頁面。
4、robots規則只能讓蜘蛛不再抓取此類頁面,不能刪除已經收錄的頁面快照,如果你的網站有些頁面被黑,而且這些頁面還被刪除了,我們除了要將這些頁面進行robots封禁外,還需要向百度搜索提交死鏈接,這也是刪除被黑頁面快照的最快辦法。
來源:黑帽工具網(/QQ號:25496334),轉載請保留出處和鏈接!
本文鏈接:http://www.dtflighting.com/fuzhuruanjian/1683.html
本站內容來源于合作伙伴及網絡搜集,版權歸原作者所有。如有侵犯版權,請立刻和本站聯系,我們將在三個工作日內予以改正。
Copyright ?黑帽軟件網 All Rights Reserved.