天天看點

SEO排名下降, 該如何審查網站?

在SEO工作中,我們偶爾會遭遇,網站沒有任何原因,排名便開始下降,甚至消失,面對這個問題,很多站長會第一時間認為,它可能是百度算法在調整。

而根據以往的

SEO實戰

案例,我們發現:導緻網站排名下降的原因,并非是多麼複雜的算法,也許就是日常工作中的一個小細節。

SEO排名下降, 該如何審查網站?

那麼,SEO排名下降,該如何審查網站?

1、标題關鍵詞堆徹

對于标題

關鍵詞堆徹

的問題,為什麼舊事重提,這是近期,站長普遍反應,網站排名消失的主要原因,特别是一些站長認為:早前,我的标題一直是這樣的,怎麼現在突然出問題。

實際上,搜尋算法是不斷在改變的,早在清風算法,就已經強調,禁止在标題堆徹關鍵詞。

而百度針對B2B網站,近期有進行了一波整改。

2、死連結檢測

對于站長而言,相信很多人并沒有養成每日審查網站日志的習慣,特别是對于一些中型以上的網站,定期審查百度蜘蛛通路404狀态碼,顯得格外重要。

如果網站内部産生大量的

死連結

,那麼它會阻斷蜘蛛有效的爬行與統計頁面之間的關系,如果長時間出現這個問題,勢必影響排名。

3、重複URL檢測

如果你經常會使用site:domain這個指令,你偶爾會發現,相同的文章可能會重複收錄多個URL,它往往是由于網站結構設計沒有标準化的問題,是以,你需要:

① 利用

301重定向

這部分連結。

② 修正網站結構設計,比如:首選域的標明,確定URL唯一性。

4、Robots.txt錯誤設定

通常而言,Robots.txt這個檔案是被放在網站根目錄,用于百度蜘蛛更好的了解網站哪些頁面是允許抓取與禁止抓取。

但有的時候對于新站長而言,通常他并不是十厘清楚這個檔案具體規則的寫法,進而很容易産生錯誤,屏蔽重要的頁面。

為此,當你生成robots.txt檔案以後,你需要在百度資源平台,驗證robots協定,確定相關目錄與URL是可以被抓取的。

5、頁面加載速度不穩定

如果你的伺服器頁面加載速度有問題,并且經常性的通路不到,那麼很可能被搜尋引擎降低抓取頻率,長時間如此的話,很容易導緻相關排名,大幅度下降。

為此,你可能需要做

網站打開速度優化

① 減少特定的JS調用,應用到所有頁面。

② 確定網站的特殊字型,在相關伺服器可以順利加載,比如:iis下的svg/woff/woff2字型。

③ 提高網站實體加載速度,嘗試開啟伺服器緩存,配置MIP,CDN雲加速。

④ 定期更新安全防護軟體,提高網站安全級别,盡量減少DDOS的攻擊。

總結:當網站關鍵詞排名開始下降的時候,你需要首選學會檢測上述幾個基本配置,發現問題,及時解決。

繼續閱讀