1.title标簽網站标題
一般格式:文章名 – 分類名 – 網站名
如果太長的話,就隻要文章名 – 網站名
搜尋引擎隻考慮标題标簽中有限的字數,比如說前十到前十五個字。是以很長的充滿關鍵詞的title tag,隻能使你的網站看起來更像垃圾。
2.meta标簽
标題标簽不要超過十到十二個字。描述标簽也不要超過三十到三十五個字。關鍵詞标簽隻要列出确實和你的網站有關的重要關鍵詞
在這所有的三個标簽裡,都切忌重複和堆砌關鍵詞。meta不要每個頁面都千篇一律。
3.URL中的關鍵詞
對英文網頁來說,關鍵詞出現在URL中,多少會有點幫助。對搜尋引擎相關性算法的幫助可能很小,但其實對使用者幫助蠻大的。因為搜尋結果列在搜尋引擎中時,使用者可以從你的檔案名就判斷出這個網頁是讨論什麼的。
關鍵詞可以在域名裡,也可以在目錄名裡,也可以是檔案名,不過切忌關鍵詞堆砌在URL中。
4.文章長度有利于SEO
首先,文章最短也應該在200字左右以上。原因有兩個:
1)如果隻有幾十個字,搜尋引擎不容易判斷出文字的主題是什麼,也就判斷不出與什麼關鍵詞最相關。
2)正文太短的話,有可能比導航系統,菜單,版權聲明等雜七雜八的東西加起來的字數還少,被懷疑是複制内容。如果這樣的文字過少的頁面大量存在,可能造成網站内部複制網頁增多。因為你的網頁之間相似性太高,有差別的文字太短。
長文章容易吸引連結。看過很多很長的文章,甚至長到幾十頁。雖然讀的時候拉來拉去有點兒不友善,但這樣的文章其實是比較容易吸引連結的。
5.robots.txt使用
robots.txt是搜尋引擎中通路網站的時候要檢視的第一個檔案。Robots.txt檔案告訴蜘蛛程式在伺服器上什麼檔案是可以被檢視的。
文法:最簡單的 robots.txt 檔案使用兩條規則:
User-Agent: 适用下列規則的漫遊器
Disallow: 要攔截的網頁
1. 每當使用者試圖通路某個不存在的URL時,伺服器都會在日志中記錄404錯誤(無法找到檔案)。每當搜尋蜘蛛來尋找并不存在的robots.txt檔案時,伺服器也将在日志中記錄一條404錯誤,是以你應該在網站中添加一個robots.txt。
2. 網站管理者必須使蜘蛛程式遠離某些伺服器上的目錄——保證伺服器性能。比如:大多數網站伺服器都有程式儲存在“cgi-bin”目錄下,是以在robots.txt檔案中加入“Disallow: /cgi-bin”是個好主意,這樣能夠避免将所有程式檔案被蜘蛛索引,可以節省伺服器資源。一般網站中不需要蜘蛛抓取的檔案有:背景管理檔案、程式腳本、附件、資料庫檔案、編碼檔案、樣式表檔案、模闆檔案、導航圖檔和背景圖檔等等。
User-agent:
該項的值用于描述搜尋引擎robot的名字。在"robots.txt"檔案中,如果有多條User-agent記錄說明有多個robot會受到"robots.txt"的限制,對該檔案來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效,在"robots.txt"檔案中,"User-agent:*"這樣的記錄隻能有一條。如果在"robots.txt"檔案中,加入"User-agent:SomeBot"和若幹Disallow、Allow行,那麼名為"SomeBot"隻受到"User-agent:SomeBot"後面的Disallow和Allow行的限制。
Disallow:
該項的值用于描述不希望被通路的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空字首,以Disallow項的值開頭的URL不會被robot通路。例如"Disallow:/help"禁止robot通路/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"則允許robot通路/help.html、/helpabc.html,不能通路/help/index.html。"Disallow:"說明允許robot通路該網站的所有url,在"/robots.txt"檔案中,至少要有一條Disallow記錄。如果"/robots.txt"不存在或者為空檔案,則對于所有的搜尋引擎robot,該網站都是開放的。
Allow:
該項的值用于描述希望被通路的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的字首,以Allow項的值開頭的URL是允許robot通路的。例如"Allow:/hibaidu"允許robot通路/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個網站的所有URL預設是Allow的,是以Allow通常與Disallow搭配使用,實作允許通路一部分網頁同時禁止通路其它所有URL的功能。
需要特别注意的是Disallow與Allow行的順序是有意義的,robot會根據第一個比對成功的Allow或Disallow行确定是否通路某個URL。
使用"*"和"$":
Baiduspider支援使用通配符"*"和"$"來模糊比對url。
"$" 比對行結束符。
"*" 比對0或多個任意字元。
6.建立sitemap站點地圖
XML地圖可以讓搜尋引擎更迅速地了解你站點的更新。Google和yahoo都已經使用sitemap xml地圖加速收錄服務了。
本文轉自 netcorner 部落格園部落格,原文連結: http://www.cnblogs.com/netcorner/archive/2009/12/30/1635963.html ,如需轉載請自行聯系原作者