• SEO優化:文件優化

    發布時間:2018-04-18 22:13:59訪問人數:作者:元大叔

    Robots.txt對于任何一個從事SEO研究工作的人都是至關重要的,因為透過 Robots.txt 我們可以直接與搜索引擎蜘蛛進行對話,告訴他們哪些可以抓取,哪些不可以抓取。
    一、為什么設置Robots.txt?
    在進行SEO操作的時候,我們需要告訴搜索引擎哪些頁面重要哪些頁面不重要,重要的頁面讓蜘蛛進行抓取,不重要的頁面進行屏蔽可以減少網站服務器的負擔。
    二、一些常見的問題和知識點
    1、蜘蛛在發現一個網站的時候,第一步是抓取網站的Robots.txt文件(當然官方上是這么說的,有時候也會出現不遵守的情況);
    2、建議所有的網站都要設置Robots.txt文件,如果你認為網站上所有內容都是重要的,你可以建立一個空的robots.txt文件;
    三、在robots.txt文件中設置網站地圖
    你可以在robots.txt中添加網站的地圖,告訴蜘蛛網站地圖所在的地址。
    四、Robots.txt的順序
    在蜘蛛協議中,Disallow 與 Allow是有順序的,這是一個非常重要的問題,如果設置錯誤可能會導致抓取錯誤。
    引擎蜘蛛程序會根據第一個匹配成功的Allow或Disallow行確定是否訪問某個URL,一個例子可以讓你更清楚明白:
    1.User-agent: * 2.Allow: /seojc/bbs 3.Disallow: /seojc/  這個情況下,蜘蛛/seojc/bbs目錄可以正常抓取,但/seojc/目錄的文件無法抓取。通過這種方式可以允許蜘蛛訪問特定目錄中的部分url。
    我們對調下位置觀察一下。
    1.User-agent: * 2.Disallow: /根目錄下的文件夾/ 3.Allow: /seojc/bbs  /seojc/目錄出現在第一行,禁止抓取目錄下的所有文件,那么第二行的Allow就無效,因為第一行中已經禁止抓取seojc目錄下的所有文件,而bbs目錄正好位于seowhy目錄下。因此匹配不成功。
    五、Robots.txt路徑問題
    在蜘蛛協議中,Allow和Disallow后面可以跟兩種路徑形式,即絕對鏈接、相對鏈接。絕對鏈接就是完整的URL形式,而相對鏈接只針對根目錄。這是重點記住。
    六、斜杠問題
    Disallow: /seojc表示禁止抓取seoic這個目錄下的所有文件,如:seojc.1.html、seojc/rmjc.php都不允許抓取;
    Disallow: /seojc/ 表示禁止抓取seojc這個目錄下的文件,即允許抓取seojc.1.html,但是不允許抓取seojc/rmjc.php。

    贊+1
    分享:

    版權:【注明為本站原創的文章,轉載請注明出處與原文地址!本站部分轉載文章能找到原作者的我們都會注明,若文章涉及版權請發至郵箱:345920555@qq.com,我們以便及時處理,可支付稿費。向本站投稿或需要本站向貴司網站定期免費投稿請加QQ:345920555】

    本文標簽:文件優化、網站地圖、Robots.txt、SEO優化
    上一篇
    下一篇
    SEO按天計費
    域名注冊
    網站建設

    華夕網絡 Copyright ? 2014-2028. 未經許可,不可拷貝或鏡像  滬ICP備15005556號

    友情鏈接:
  • QQ
  • 電話
  • 首頁
  • 留言
  • 返回頂部
  • 羞羞午夜爽爽爽爱爱爱爱人人人