天天看點

網站建好剛上線需要做好的一些設定

第一,網站url設定必須簡短有意義.此類設定經常用于cms搭建的網站,我們經常看到的有之夢的cms,當我們在建立一個欄目的時候,預設的是以該欄目的生成時間以及名稱作為欄目和文章的url位址,這個位址非常長,并且對于搜尋引擎及其不友好,其他站點也是一個道理,是以在進行内容更新之前我們首先要做到欄目和文章路徑的url優化,要修改的地方在dedecms的背景,系統——系統基本參數.

欄目管理裡文章命名規則{typedir}/{y}/{m}{d}/{aid}.html改為{typedir}/{aid}.html删除中間的日期或者把中間部分改為欄目的簡拼或者全拼的方式,清單清單命名規則{typedir}/list_{tid}_{page}.html改為{typedir}/list_{page}.html删除中間生成的tid縮小文章頁的路徑.

網站建好剛上線需要做好的一些設定

第二,網站的404頁面設定.404頁面主要為一些失效的無法打開的網站連結準備的,很多網站由于改版或者資料庫的更新導緻url出現無法打開的情況發生。404頁面的作用是什麼?一旦出現網頁無法打開,這個時候我們就要通過404頁面進行友好的提示使用者傳回到我們網站的首頁,這樣引導使用者繼續通路其他的頁面,增加了我們網站體驗度和使用者浏覽時間,大家可以根據自己喜好選擇頁面布局方式,但是注意底部的傳回首頁是必須要保留的.

第三,網站的301永久重定向.我們知道新上線的站點一般同帶www的域名和不帶www的域名,但是這兩個域名對使用者打開看到的首頁沒有什麼差別,但是百度會認為兩個域名,權重會分散,是以作為seoer我們要做的就行對應url進行永久的重定向,方法是把不帶www的位址跳轉到帶www的域名,以防權重分散.

第四,網站robots協定設定.robots協定全稱是“網絡爬蟲排除标準”(robots exclusion protocol),網站通過robots協定告訴搜尋引擎哪些頁面可以抓取,哪些頁面不能抓取.當一個搜尋蜘蛛通路一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜尋機器人就會按照該檔案中的内容來确定通路的範圍.具體的設定方法,筆者在這裡舉例說明:其他更多的知識可以通過百度搜尋了解.

1)、禁止所有搜尋引擎通路網站的任何部分

user-agent:*

disallow:/

2)、允許所有的robot通路(或者也可以建一個空檔案“/robots.txt”file)

allow:/

3)、禁止某個搜尋引擎的通路

user-agent:baiduspider

第四,網站地圖的設定方法.常見的網站地圖一般包含2種,一種是html靜态地圖,一種是xml格式的地圖,xml格式的地圖主要是站在搜尋引擎角度以一種索引的方式搜尋引擎可以了解的形式告知搜尋引擎,以提高網站的收錄.另外一種是html格式的,這種一般是對網站的結構欄目為呈現方法,将網站的首頁以及各級重要的欄目頁和清單頁以連結的方式展示出來,友善使用者檢視網站内容.這些細節都是為了提升網站對于搜尋引擎的友好度,提升搜尋引擎抓取重點頁面的效率而進行的基礎優化.原文:http://www.szweb.cn/knowledge/5468.html