robots禁止后還能索引收錄,是什么原因?
SEO優化中很多細節容易被人忽略,比方說robots文件。如果網站的robots協議文件禁止了搜索引擎蜘蛛,那么無論你怎么優化都不會被收錄。
專注于為中小企業提供成都網站設計、成都做網站服務,電腦端+手機端+微信端的三站合一,更高效的管理,為中小企業六盤水免費做網站提供優質的服務。我們立足成都,凝聚了一批互聯網行業人才,有力地推動了近1000家企業的穩健成長,幫助中小企業通過網站建設實現規模擴充和轉變。
有時候不希望搜索引擎抓取某些內容可以寫robots.txt文件放到根目錄,按理蜘蛛會首先讀取這個文件,按照robots協議抓取相應的內容。
但很多時候搜索引擎抓取收錄了你 robots.txt 不允許抓取的內容,不是因為機器人不遵守,而是從抓取到索引到展現這個過程需要一段時間,當搜索引擎已經抓取了,你才更新,那么之前抓取的是不會那么快刪掉的,刪除周期并不規律,一般是算法更新后生效的情況多些。但是許多站長們發現,蜘蛛并不太遵守這個協議。
下面說下幾個新手可能會需要的信息。
1、robots.txt 怎么寫?
各大搜索引擎的站長平臺(英文叫 webmasters )都有詳細說明,也有生成工具。
2、怎樣確定 robots.txt 有效?
站長平臺都有抓取 robots.txt 的工具,也會有“抓取工具”來確認某個頁面是不是可以正確抓取。
3、怎樣通知搜索引擎 robots.txt 已更新?
和上面的一樣,通過站長平臺的抓取工具重新抓?。ㄓ械氖恰案隆保┘纯?。
4、讓搜索引擎抓取了不應該抓取的內容怎么辦?
5、整站禁止抓取,如何操作更有效?
有的搜索引擎索引是不遵守 robots.txt 的,只有在展現的時候遵守,也就是說,就算你 robots.txt 寫明了禁止抓取,你會發現還是有機器人來爬。
所以如果是大目錄或者是整站禁止抓取,建議在服務器軟件(如 nginx)的代碼段中直接判斷搜索引擎 UA 并返回錯誤代碼。這樣一方面可以減輕服務器壓力,一方面可以真正禁止抓取。
新聞名稱:robots禁止后還能索引收錄,是什么原因?
本文網址:http://www.xueling.net.cn/article/ejcpds.html