seoer一般都會動手為自己搭建一個網站,一般以個人博客類為主流。對于剛剛入行的SEOer來說,搭建個人博客的目的大致相同。一方面是作為學習總結經驗使用,也就是拿來練練手,熟悉作業學習經驗;一方面也是想能夠把關鍵詞優化上首頁,從而獲取流量并最終達到獲取利益的結果。但不管出于何種目的,新網站搭建完畢之后首要面臨的就是收錄問題。那么,新網站上線之后如何實現快速收錄呢?
網站快速收錄
入行從事seo優化工作已經有幾年時間,搭建過的網站不敢用多不勝數來形容,但絕對也是不少的了。就本文的以往的經驗總結,收錄的快與慢,無非是蜘蛛的爬行量(此處的量具有雙語義,指的是質量和數量)的多與寡問題。這里可能大家有個疑問,蜘蛛不都是一樣的嗎?怎么還有質量優劣之分?這個問題就不在這里解釋了。大家可以百度去了解一下。
回到主題,如何提高新站上線后快速收錄問題。很多人都在說提高收錄的技巧和方法,網上去搜,也可以找到很多的方法論和技巧論之類的帖子。對于這些帖子講解的方法是否有效,本文不多做評論。今天這篇文章也不是要教大家提高快速收錄的方法,而是告訴大家為什么能夠提高快速收錄。只有理解透徹收錄的原理,才能夠找到有效的提高收錄的方法。畢竟網上提供的方法都是別人提供的,這些方法和技巧也許真的有用,很可能是前輩們的智慧結晶。但到今時今日,是否依舊仍有可行性,還需自己去檢驗真理。
說了這么多,如果讀者覺得自己已經懂了這些基礎理論的知識,或者是覺方法技巧比理論更重要的,可以直接忽略下文。因為在本文看來,沒有扎實的理論基礎,就無法有精妙的SEO優化技巧和方法的誕生。只知道拾取別人用的東西而不去實現自主創造的SEOer,永遠也不會成為SEO大神。所以,如果讀者依舊想要技巧和方法,放棄閱讀下文吧。
以下是本文對搜索引擎蜘蛛爬行原理的一些淺薄見知,寫來供大家作個參考,如果有不同見解可以在下方留言,還請諸君不要吝嗇指教一番。來看看搜索引擎蜘蛛蜘蛛是如何作業的原理吧?
從事SEO工作的應該都清楚,一個網頁想要被收錄,就必須有蜘蛛過來爬行,只有蜘蛛過來爬行,你的網站才有可能被搜索引擎收錄。那么,蜘蛛是怎么爬行的呢?他的爬行習慣是怎樣的呢?
原理
搜索引擎蜘蛛通過url鏈接爬行到達網頁頁面,按照從上到下,從左到右的習慣對網頁內容爬行抓取,然后通過鏈接爬行進行到另一個頁面,按照從上到下,從左到右爬行抓取,如此重復。那么,既然蜘蛛是通過鏈接爬行抓取頁面信息的,是不是只要把網站上線了就一定會被爬行抓取呢?答案是:未必。想要正常訪問網站進行抓取,還需具備以下幾個條件:
服務器
想要能夠正常的訪問網站,首先要保證服務器的穩定性。網站就好比是搭建在地面上的樓房,而服務器就是承載樓房的地基。沒有牢固結實的地基,那么建立在其上的樓房就有隨時倒塌的危險。如果服務器不穩定,蜘蛛在抓取的時候就隨時有可能面臨樓房坍塌的危險,就會導致爬行抓取失敗,對這樣的網站蜘蛛是非常不友好的。
域名
新域名一般是不會有問題的,但如果使用的域名是老域名就必須無任何不良記錄,如果域名被計入黑名單,有過作弊行為,被k過,這樣的域名來建站是很難被收錄的。
協議
每一個網站就好像是站長自己的私密房間,既然是私密的,那么當有人要來拜訪的時候就必須得遵守主人的協議了,至少也得先敲敲門、打聲招呼吧。一樣的道理,蜘蛛到達網站之后,首先也是要和網站打聲招呼的,這個就是robots.txt協議了。每一個站長都必須在網站添加一份robots協議,告訴蜘蛛網站方不方便訪問,如果是robots是禁止的寫法,蜘蛛就不會再繼續訪問,如果是同意的寫法,蜘蛛將按照協議進行爬行。雖然只是一份很簡單的協議,卻也是尤其重要的,這直接關系到網站能不能收錄的問題,新站長們尤其要特別關注一下。至于robots的寫法和堅持方法,網上有很多教程,大家自己去搜索一番即可得到想要的。
以上就是蜘蛛的爬行規則,了解了蜘蛛的爬行規則,我們再來看看哪些是對收錄有幫助的。
內容
保證了蜘蛛能夠正常訪問和抓取的問題之后,自然是頁面內容豐富的問題。一個網站如果沒有任何內容,就算來再多的蜘蛛爬行,也抓取不到任何的信息,更加不會被收錄。蜘蛛比較喜歡新鮮的原創性的文字內容,對于圖片視頻的抓取目前還是比較困難,所以對網站增加原創文章的方法是快速收錄的不二之選。
HTML靜態頁面
我們發現動態URL鏈接其實也是可以收錄的,像很多的論壇鏈接都是動態的,收錄一樣不錯。實際上動態頁面是可以收錄,只是相比較靜態頁面比較繁雜一些。相對而言,蜘蛛更加喜歡簡潔的HTML頁面,爬行抓取會更加輕松不費什么力氣。
URL層級
層級優化很多人都建議三級欄目,即首頁--欄目頁--內容頁。這樣的層級是最簡潔的,簡潔簡短的URL是受蜘蛛青睞的,會更加容易爬行。這里建議層級命名盡量簡短好記,層級盡量縮短,減少蜘蛛爬行困難。當然并非是說一定要是三級層級,根據網站需求調整,看到有一些網站也是四級欄目,收錄也是挺好的,這并不是取決收錄的唯一標準。
sitemap網站地圖
顧名思義,網站地圖就是站長為搜索引擎蜘蛛制作的一份網站URL鏈接爬行地圖指南。有了這份地圖,蜘蛛爬行會更新方便簡單,不會出現迷路的情況,對網站也就會生出更多的好感。
看到這里,不知道讀者們有無了解清楚,要如何做才能夠提高網站的收錄問題。想要新網站能夠快速的被收錄,就必須要了解收錄的原理。從穩定的服務器,域名的選擇,robots協議的正確寫法等等,再到對網站內容、頁面、層級、sitemap的優化,都是為了使網站能夠得到搜索引擎蜘蛛的青睞,讓更多的搜索引擎蜘蛛能夠來爬行網站,這樣才能提高網站的收錄。
當然,除了以上所提到的,還有更多是未提高到。但這些都不是最重要的,方法總是有的,關鍵在于你能不能發現。