搜索引擎蜘蛛抓取份額是什么?抓取份額是由什么決定的?怎樣節省抓取份額?對大中型網站來說,這是個頗為重要的seo問題,有時候會成為網站自然流量的瓶頸,今天我們就一一為大家介紹一下。
強調一下,以下這些概念對百度同樣適用。
顧名思義,抓取份額是搜索引擎蜘蛛花在一個網站上的抓取頁面的總的時間上限。對于特定網站,搜索引擎蜘蛛花在這個網站上的總時間是相對固定的,不會無限制地抓取網站所有頁面。
抓取份額的英文Google用的是crawl budget,直譯是爬行預算,我覺得不太能說明是什么意思,所以用抓取份額表達這個概念。
抓取份額是由什么決定的呢?這牽扯到抓取需求和抓取速度限制。
抓取需求
抓取需求,crawl demand,指的是搜索引擎“想”抓取特定網站多少頁面。
決定抓取需求的主要有兩個因素。一是頁面權重,網站上有多少頁面達到了基本頁面權重,搜索引擎就想抓取多少頁面。二是索引庫里頁面是否太久沒更新了。說到底還是頁面權重,權重高的頁面就不會太久不更新。
頁面權重和網站權重又是息息相關的,提高網站權重,就能使搜索引擎愿意多抓取頁面。
抓取速度限制
搜索引擎蜘蛛不會為了抓取更多頁面,把人家網站服務器拖垮,所以對某個網站都會設定一個抓取速度的上限,crawl rate limit,也就是服務器能承受的上限,在這個速度限制內,蜘蛛抓取不會拖慢服務器、影響用戶訪問。
服務器反應速度夠快,這個速度限制就上調一點,抓取加快,服務器反應速度下降,速度限制跟著下降,抓取減慢,甚至停止抓取。
所以,抓取速度限制是搜索引擎“能”抓取的頁面數。
抓取份額是由什么決定的?
抓取份額是考慮抓取需求和抓取速度限制兩者之后的結果,也就是搜索引擎“想”抓,同時又“能”抓的頁面數。
網站權重高,頁面內容質量高,頁面夠多,服務器速度夠快,抓取份額就大。
小網站沒必要擔心抓取份額
小網站頁面數少,即使網站權重再低,服務器再慢,每天搜索引擎蜘蛛抓取的再少,通常至少也能抓個幾百頁,十幾天怎么也全站抓取一遍了,所以幾千個頁面的網站根本不用擔心抓取份額的事。數萬個頁面的網站一般也不是什么大事。每天幾百個訪問要是能拖慢服務器,SEO就不是主要需要考慮的事了。
大中型網站可能需要考慮抓取份額
幾十萬頁以上的大中型網站,可能要考慮抓取份額夠不夠的問題。
抓取份額不夠,比如網站有 1 千萬頁面,搜索引擎每天只能抓幾萬個頁面,那么把網站抓一遍可能需要幾個月,甚至一年,也可能意味著一些重要頁面沒辦法被抓取,所以也就沒排名,或者重要頁面不能及時被更新。
要想網站頁面被及時、充分抓取,首先要保證服務器夠快,頁面夠小。如果網站有海量高質量數據,抓取份額將受限于抓取速度,提高頁面速度直接提高抓取速度限制,因而提高抓取份額。
怎樣節省抓取份額?
當然首先是降低頁面文件大小,提高服務器速度,優化數據庫,降低抓取時間。
然后,盡量避免上面列出的浪費抓取份額的東西。有的是內容質量問題,有的是網站結構問題,如果是結構問題,最簡單的辦法是robots文件禁止抓取,但多少會浪費些頁面權重,因為權重只進不出。
某些情況下使用鏈接nofollow屬性可以節省抓取份額。小網站,由于抓取份額用不完,加nofollow是沒有意義的。大網站,nofollow是可以在一定程度上控制權重流動和分配的,精心設計的nofollow會使無意義頁面權重降低,提升重要頁面權重。搜索引擎抓取時會使用一個URL抓取列表,里面待抓URL是按頁面權重排序的,重要頁面權重提升,會先被抓取,無意義頁面權重可能低到搜索引擎不想抓取。