天天看點

關于SEO優化方案(網上整理的資料)

1.title标簽網站标題

      一般格式:文章名 – 分類名 – 網站名

      如果太長的話,就隻要文章名 – 網站名

       搜尋引擎隻考慮标題标簽中有限的字數,比如說前十到前十五個字。是以很長的充滿關鍵詞的title tag,隻能使你的網站看起來更像垃圾。

2.meta标簽

       标題标簽不要超過十到十二個字。描述标簽也不要超過三十到三十五個字。關鍵詞标簽隻要列出确實和你的網站有關的重要關鍵詞

        在這所有的三個标簽裡,都切忌重複和堆砌關鍵詞。meta不要每個頁面都千篇一律。

3.URL中的關鍵詞

      對英文網頁來說,關鍵詞出現在URL中,多少會有點幫助。對搜尋引擎相關性算法的幫助可能很小,但其實對使用者幫助蠻大的。因為搜尋結果列在搜尋引擎中時,使用者可以從你的檔案名就判斷出這個網頁是讨論什麼的。

       關鍵詞可以在域名裡,也可以在目錄名裡,也可以是檔案名,不過切忌關鍵詞堆砌在URL中。

4.文章長度有利于SEO

      首先,文章最短也應該在200字左右以上。原因有兩個:

      1)如果隻有幾十個字,搜尋引擎不容易判斷出文字的主題是什麼,也就判斷不出與什麼關鍵詞最相關。

       2)正文太短的話,有可能比導航系統,菜單,版權聲明等雜七雜八的東西加起來的字數還少,被懷疑是複制内容。如果這樣的文字過少的頁面大量存在,可能造成網站内部複制網頁增多。因為你的網頁之間相似性太高,有差別的文字太短。

      長文章容易吸引連結。看過很多很長的文章,甚至長到幾十頁。雖然讀的時候拉來拉去有點兒不友善,但這樣的文章其實是比較容易吸引連結的。

5.robots.txt使用

      robots.txt是搜尋引擎中通路網站的時候要檢視的第一個檔案。Robots.txt檔案告訴蜘蛛程式在伺服器上什麼檔案是可以被檢視的。

       文法:最簡單的 robots.txt 檔案使用兩條規則:

        User-Agent: 适用下列規則的漫遊器 

       Disallow: 要攔截的網頁

  1. 每當使用者試圖通路某個不存在的URL時,伺服器都會在日志中記錄404錯誤(無法找到檔案)。每當搜尋蜘蛛來尋找并不存在的robots.txt檔案時,伺服器也将在日志中記錄一條404錯誤,是以你應該在網站中添加一個robots.txt。

2. 網站管理者必須使蜘蛛程式遠離某些伺服器上的目錄——保證伺服器性能。比如:大多數網站伺服器都有程式儲存在“cgi-bin”目錄下,是以在robots.txt檔案中加入“Disallow: /cgi-bin”是個好主意,這樣能夠避免将所有程式檔案被蜘蛛索引,可以節省伺服器資源。一般網站中不需要蜘蛛抓取的檔案有:背景管理檔案、程式腳本、附件、資料庫檔案、編碼檔案、樣式表檔案、模闆檔案、導航圖檔和背景圖檔等等。

User-agent:

該項的值用于描述搜尋引擎robot的名字。在"robots.txt"檔案中,如果有多條User-agent記錄說明有多個robot會受到"robots.txt"的限制,對該檔案來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效,在"robots.txt"檔案中,"User-agent:*"這樣的記錄隻能有一條。如果在"robots.txt"檔案中,加入"User-agent:SomeBot"和若幹Disallow、Allow行,那麼名為"SomeBot"隻受到"User-agent:SomeBot"後面的Disallow和Allow行的限制。

Disallow:

該項的值用于描述不希望被通路的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空字首,以Disallow項的值開頭的URL不會被robot通路。例如"Disallow:/help"禁止robot通路/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"則允許robot通路/help.html、/helpabc.html,不能通路/help/index.html。"Disallow:"說明允許robot通路該網站的所有url,在"/robots.txt"檔案中,至少要有一條Disallow記錄。如果"/robots.txt"不存在或者為空檔案,則對于所有的搜尋引擎robot,該網站都是開放的。

Allow:

該項的值用于描述希望被通路的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的字首,以Allow項的值開頭的URL是允許robot通路的。例如"Allow:/hibaidu"允許robot通路/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個網站的所有URL預設是Allow的,是以Allow通常與Disallow搭配使用,實作允許通路一部分網頁同時禁止通路其它所有URL的功能。

需要特别注意的是Disallow與Allow行的順序是有意義的,robot會根據第一個比對成功的Allow或Disallow行确定是否通路某個URL。

使用"*"和"$": 

Baiduspider支援使用通配符"*"和"$"來模糊比對url。

"$" 比對行結束符。

"*" 比對0或多個任意字元。

6.建立sitemap站點地圖

      XML地圖可以讓搜尋引擎更迅速地了解你站點的更新。Google和yahoo都已經使用sitemap xml地圖加速收錄服務了。

本文轉自 netcorner 部落格園部落格,原文連結: http://www.cnblogs.com/netcorner/archive/2009/12/30/1635963.html  ,如需轉載請自行聯系原作者