網站文章需要每天都進行基本的維護和添加,但是文章添加過多了,就會出現網站文章相似度過高的現象,從長遠角度來說,這對網站的優化是十分不利的。后期搜索引擎蜘蛛會減少對網站的收錄。因此網站文章寫作需要有新意,才能有效的避免網站文章相似的問題。今天上海珍島SEO培訓和大家探討的內容就是重復內容產生的原因以及解決方法。
1,網址規范化問題
網站的網址規范化,主要是指網站的主域名和頁面的URL地址。首先網站的主域名需要和網站產品緊密相連,這樣可以很好的吸引搜索引擎蜘蛛過來抓取。而頁面的UTL規范化,主要是指網站的頁面進行偽靜態頁面的處理。但是很多的情況下,一般的網站偽靜態之后,原始的動態URL依然存在并能夠訪問,這樣就造成了多個URL訪問相同網址。
2,內容的其他版本
很多的站長對網站添加的文章,沒有很好的做到取舍。比如很多網站除了提供正常的版本之外還提供一些其它的瀏覽版本,比如打印版本或者簡版,卻并沒有禁止搜索引擎去抓取這些頁面,而這些頁面也因此變成了重復內容頁面。網站頁面的重復自然是文章的添加不當造成的,自然也會影響網站的正常收錄和更新。
3,網站結構
網站除了對網站內容進行基本的設置外,還需要對網站的結構進行基本的設置。很多網站在結構設計之初并沒考慮SEO方面的因素,結果是導致造成各種頁面版本,比如產品按價格,評論,時間排序等,特別是一些電子商務網站,這種頁面重復現象尤為嚴重。對網站的結構可以做到規范化,這樣就會減少蜘蛛對不利優化的頁面的抓取。
4,URL任意加字符還是返回200狀態碼
一些網站是因為網站程序和技術的原因,用戶在URL參數后面隨意加上一些字符都能夠正常訪問,并且頁面是和沒加之前的完全重復。檢查頁面是否有重復版本有一個比較簡單的方法,就是將內容隨機選擇一句話加雙引號后進行搜索,從結果中就可以看到有多少個重復的頁面。因為通常來說隨機選一句話進行搜索完全生命的機率是比較小的。
如何消除復制內容的方法
1,301重定向
301能夠傳遞頁面的權重,目前來說主流搜索引擎都支持301重定向,可以將復制內容的頁面全部通過301永久重定向的方式跳轉到原版頁面。
2,robots文件禁止
通過在robots.txt文件中禁止復制內容被搜索引擎抓取,也能有效的解決網址重復問題。這樣可以很好的解決網站蜘蛛對不利頁面的抓取。一般網站在上線之初,都會進行robots文件設置。這對網站后期的優化也是非常好的。
3,canonical標簽
canonical 標簽可以為搜索引擎指明當前頁面權重的側重點在于哪個鏈接,從而有助于 SEO。canonical標簽是由谷歌,雅虎在2009年共同發布的一個新的標簽,目前百度也表示支持canonical標簽,這個標簽也可以用于解決網址重復的問題。
添加了以上標簽后,也就相當于告訴搜索引擎哪個網址是最規范原創的版本,其它復制內容都是指向這一個唯一的網址,有一點頁面301傳遞權重的意思,但是301是頁面直接跳轉,而加這個標簽后,頁面還是停留在原始地址。
(責任編輯:黑帽百科(www.790079.com))