歡迎來到合肥浪訊網(wǎng)絡科技有限公司官網(wǎng)
  咨詢服務熱線:400-099-8848

網(wǎng)站優(yōu)化中不要走入外鏈的誤區(qū)

發(fā)布時間:2015-05-11 文章來源:  瀏覽次數(shù):3560

重復內(nèi)容通常是指域內(nèi)或多個域之間存在的、與其他內(nèi)容完全匹配或大致類似的內(nèi)容。也就是說一個網(wǎng)站中可能存在很多重復的頁面,好比內(nèi)容頁、產(chǎn)品的搜索列表頁、不同的url指向統(tǒng)一頁面等,這就都是屬于重復范圍。表面看起來沒什么關系,對網(wǎng)站無害。但對蜘蛛而言就是滅頂之災。當然大多數(shù)情況下也不是故意的頁面重復.


能夠天生用于移動設備的常規(guī)和簡化網(wǎng)頁的論壇


通過多個不同網(wǎng)址顯示或鏈接的存儲項目


網(wǎng)頁的可打印版本


URL的重復


不同url指向統(tǒng)一頁面,這個也算重復頁面。蜘蛛爬行是按照鏈接來爬行的,在爬行之前蜘蛛并不知道這些不同的url指向統(tǒng)一個頁面。它會慢慢的去爬行,爬過之后才會知道竟然是重復的頁面,在進行相應的處理,表面上看起來也是沒有什么題目。實際上蜘蛛已經(jīng)花了相稱大的力氣來解析這幾個重復的url,這就即是是寬帶的鋪張一樣。


http://www.***.net/


***.net


http://www.***.net/index.html


訪問的都是首頁,何不如我們做做好事,用301重定向把他轉到指定的url。


筆者選擇http://www.***.net/這個地址,采用Apache服務器設置方法是,在.htaccess文件中加入以下代碼


 






RewriteEngine on


RewriteCond %{http_host} ^***.net[NC]


RewriteRule ^(.*)$ http://www.***.net/$1 [L,R=301]


RewriteEngine on


RewriteCond %{http_host} ^http://www.***.net/index.html [NC]


RewriteRule ^(.*)$ http://www.***.net/$1 [L,R=301]


 


具體方法請查看百度百科里的具體先容http://baike.baidu.com/view/2173220.htm


打印文本的重復


一般網(wǎng)站都會有一個可供瀏覽的頁面,還有一個可以打印的文本。這個打印文本一般是看不出來的,只有需要打印才能看到文本,但內(nèi)容都和頁面文本一樣,這就形成了和網(wǎng)頁文本的重復。對用戶無所謂,但對蜘蛛就不一樣了。我們應該避免這個情況泛起,解決方法是用robots.txt來禁止蜘蛛抓取打印文本。


底部版權的重復


每個網(wǎng)站都有自己的版權說明,有的網(wǎng)站在底部些了良多關于版權方面的文字,非常的多。實在這個完全沒有必要。把一切關于版權,公司動態(tài),法律聲明的東西都放到一個獨立頁面去,只用文本鏈接過去。這樣也大大降低了樣板文字的重復度。


404頁面的重復


一個大型網(wǎng)站無可厚非有良多404頁面。但這些404頁面也是一種資源上的重復。最好是用robots.txt來禁止抓取。


網(wǎng)站搜索的重復


現(xiàn)在的網(wǎng)站都有一個用戶喜歡的工具,那就是網(wǎng)站搜索條。對用戶而言能更快的找到自己想要的內(nèi)容,但對蜘蛛不是這么回事,也會增加重復度,所以也要屏蔽它。


一般可以在robots.txt文件里加入Disallow: /search.php$(/search.php)文件要根據(jù)你網(wǎng)站系統(tǒng)來定,也就是你網(wǎng)站搜索采用哪個文件來執(zhí)行搜索的)


Robots.txt文件的應用


我發(fā)現(xiàn)好多可以禁止重復頁面的方法都可以用robots.txt文件來解決,所以我們一定要把握robots.txt使用的準確方法,施展它強盛的威力。


百度robots.txt說明 http://www.baidu.com/search/robots.html


無論是做seo仍是做網(wǎng)站,每一個細節(jié)都是決定成敗的樞紐,你比別人多付出一點,你就可以穩(wěn)操勝券。重復頁面臨蜘蛛而言非常的耗時耗力,我們也該為蜘蛛減減壓了。

上一條:網(wǎng)站優(yōu)化中需要留意的幾地...

下一條:關于網(wǎng)站搜索引擎優(yōu)化 高...