外貿新網站要怎么做推廣優化呢?seo其實早就已經被琢磨的差不多,新網站就是先做站內的優化,然后再進行外部的引流,套路基本上都這樣,只是做起來的話到底是個什么順序呢?
一、關鍵詞
網站是做什么用的在開始之前肯定規劃好了吧?接下來無論是利用工具還是什么手段找到需要的核心關鍵詞,最簡單的辦法就是找到同行靠前的網站,把他們的標題和關鍵詞全都挖下來,記錄在表格里進行篩選。
再根據核心關鍵詞收集同義詞、近義詞、縮寫、用戶常用詞匯等等長尾詞匯,一切可以通過搜索引擎找到核心關鍵詞的詞匯,你總得放點和競爭對手不一樣的元素在網站里頭,搜索引擎就是喜歡不一樣。
關鍵詞放在網站的標題和描述,網站的首頁權重是最高的,但是不要在首頁堆砌關鍵字,只需放上幾個核心的就好,其他的長尾詞、次一級的關鍵詞可以放在分類頁面里,讓網站整體權重更加平衡。
二、原創文章
Google為什么收錄你的網站?因為你能夠給用戶提供有用的信息,前期不用太著急想要考偽原創文章大量鋪蓋各種關鍵詞,原創文章還是很重要,搜索引擎也很喜歡新鮮的內容。
要提高用戶的體驗內容就要圍繞用戶來寫,或者向用戶提供高質量高格調的原創文章,這樣不僅在瀏覽量有所幫助,也會給用戶帶來較好的體驗度。
三、網站內頁
標題優化,頁面中的關鍵詞布局、Alt標簽、加粗、斜體,這些元素每篇文章中都可以適當出現,用來突出主題、強調重點,不僅是給用戶看,目的也是為了讓蜘蛛多關注這些被“特殊對待”的內容。
四、內部鏈接
檢查網站內部各個鏈接有沒有死鏈接、有沒有404頁面、網址是否規范、網頁URL設置是否正確,robots文件是合理相互精準鏈接,同時記住頁面內不能同一個錨文本進行鏈接,要多樣化。
五、網站地圖
網站地圖的主要作用是幫蜘蛛正確快速的對網站進行檢索和爬行,而robots.txt文件的作用是輔助網站地圖來提高蜘蛛在網站上的爬行效率,告訴蜘蛛哪些內容是重要,哪些內容無關緊要,這兩個文件對網站的收錄有關鍵作用,所以對于新站來說這兩個文件需要我們用心去編寫。
六、切忌頻繁改動
網站上線蜘蛛過來爬行之后,正在對你的網站進行觀察,結果你一番動刀從頭到尾又改一遍,蜘蛛又得重新觀察,如此反復只能帶來惡性循環。
很多人做新站就是這樣的狀態,為什么Google還不收錄我的網站,是不是哪里出問題,要不要改一改呢?一旦有了這樣的念頭就會如同前邊所說的一樣進入死循環。
七、外部鏈接
經過一段時間優化后,收錄開始穩定便可以考慮開始引入外鏈,但是還是注重質量而不是數量,千萬不要為了多點點曝光什么垃圾外鏈都接受,前期最好還是在論壇、博客等高權重的地方放外鏈。
搜索引擎對網站的要求其實并不苛刻,它非常歡迎有新網站、新內容加入互聯網里,然而搜索引擎最終的目的還是為用戶服務,如果你不能保證提供對用戶友好、有搜索引擎友好的優質內容,最終還是會被判定為質量較差的網站,而得不到展示。