• 
    

      <address id="upfr9"><pre id="upfr9"><strike id="upfr9"></strike></pre></address>
      1. <address id="upfr9"><tr id="upfr9"></tr></address><dl id="upfr9"></dl>

        最詳細的robots文件的寫法解析(符合搜索需求)

        2020-11-12    分類: 網(wǎng)站建設

        做SEO的朋友基本都了解點robots,但是在實際SEO網(wǎng)站優(yōu)化中robots.txt文件具體應該如何編寫恐怕是一堆SEO的困擾,瞎寫,亂寫robots規(guī)則直接影響網(wǎng)站優(yōu)化的成果。robots.txt文件具體要怎么寫?今天創(chuàng)新互聯(lián)把最詳細的robots文件的寫法告知大家。
        robots.txt是什么

        一、robots.txt文件它的作用是什么,為什么要寫?


        robots.txt是用來告訴搜索引擎網(wǎng)站上哪些內(nèi)容可以被訪問、哪些不能被訪問。當搜索引擎訪問一個網(wǎng)站的時候,它首先會檢查網(wǎng)站是否存在robots.txt,如果有則會根據(jù)文件命令訪問有權限的文件。
        每個網(wǎng)站需要根據(jù)自身的要求寫好robots.txt文件,robots.txt文件長什么樣子?我們可以看看幾個網(wǎng)站的robots.txt文件。
        淘寶robots.txt文件

        淘寶robots.txt文件

        百度robots.txt文件

        百度robots.txt文件

        而一個網(wǎng)站為什么要寫robots.txt,主要有四點:

        1、保護網(wǎng)站安全

        2、節(jié)省流量

        3、禁止搜索引擎收錄部分頁面

        4、引導蜘蛛爬網(wǎng)站地圖

        二、robots.txt的寫法與步驟

        1、定義搜索引擎

        用User-agent:來定義搜索引擎,其中*表示所有,Baiduspider表示百度蜘蛛,Googlebot表示谷歌蜘蛛。

        也就是說User-agent:*表示定義所有蜘蛛,User-agent:Baiduspider表示定義百度蜘蛛。
        常用搜索蜘蛛規(guī)則分解如下:
        User-agent: Baiduspider
        User-agent: Baiduspider-image
        User-Agent: Googlebot
        User-agent: Bingbot
        User-Agent: 360Spider
        User-Agent: Yisouspider
        User-Agent: Sogouspider
        User-agent: Sogou web spider
        User-agent: Sogou inst spider
        User-agent: Sogou spider2
        User-agent: Sogou blog
        User-agent: Sogou News Spider
        User-agent: Sogou Orion spider
        User-agent: ChinasoSpider
        User-agent: Sosospider
        User-Agent: Yahoo! Slurp
        User-agent: MSNBot
        User-agent: YoudaoBot
        User-agent: EasouSpider

        2、禁止與允許訪問

        Disallow: /表示禁止訪問,Allow: /表示允許訪問。

        在寫robots.txt時需特別注意的是,/前面有一個英文狀態(tài)下的空格(必須是英文狀態(tài)下的空格)。

        3、禁止搜索引擎訪問網(wǎng)站中的某幾個文件夾,以a、b、c為例,寫法分別如下:

        Disallow: /a/

        Disallow: /b/

        Disallow: /c/

        4、禁止搜索引擎訪問文件夾中的某一類文件,以a文件夾中的js文件為例,寫法如下:

        Disallow: /a/*.js

        5、只允許某個搜索引擎訪問,以Baiduspider為例,寫法如下:

        User-agent: Baiduspider

        Disallow:

        6、禁止訪問網(wǎng)站中的動態(tài)頁面

        User-agent: *

        Disallow: /*?*

        7、只允許搜索引擎訪問某類文件,以htm為例,寫法如下:

        User-agent: *

        Allow: .htm$

        Disallow: /

        8、禁止某個搜索引擎抓取網(wǎng)站上的所有圖片,以Baiduspider為例,寫法如下:

        User-agent: F

        Disallow: .jpg$

        Disallow: .jpeg$

        Disallow: .gif$

        Disallow: .png$

        Disallow: .bmp$

        三、robots.txt文件存放位置

        robots.txt文件存放在網(wǎng)站根目錄下,并且文件名所有字母都必須小寫。

        四、特別注意事項

        在寫robots.txt文件時語法一定要用對,User-agent、Disallow、Allow、Sitemap這些詞都必須是個字母大寫,后面的字母小寫,而且在:后面必須帶一個英文字符下的空格。

        網(wǎng)站上線之前切記寫robots.txt文件禁止蜘蛛訪問網(wǎng)站,如果不會寫就先了解清楚寫法之后再寫,以免給網(wǎng)站收錄帶來不必要的麻煩。

        robots.txt文件生效時間在幾天至一個月之間,站長自身無法控制。但是,站長可以在百度統(tǒng)計中查看網(wǎng)站robots.txt文件是否生效。

        本文標題:最詳細的robots文件的寫法解析(符合搜索需求)
        當前路徑:http://www.jbt999.com/news45/89595.html

        成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站制作、搜索引擎優(yōu)化、網(wǎng)站改版、小程序開發(fā)、靜態(tài)網(wǎng)站、全網(wǎng)營銷推廣

        廣告

        聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:[email protected]。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

        猜你還喜歡下面的內(nèi)容

        營銷型網(wǎng)站建設

        網(wǎng)站建設知識

        各行業(yè)網(wǎng)站

      2. 
        

          <address id="upfr9"><pre id="upfr9"><strike id="upfr9"></strike></pre></address>
          1. <address id="upfr9"><tr id="upfr9"></tr></address><dl id="upfr9"></dl>
            国产中文日韩人妻精品 | 精品视频日韩 | 呦香一区二区三区 | 久久伊人大香蕉 | 亚洲足交视频 | 亚洲AV无码18日韩 | 人人妻人人躁人人DVD | 亚洲女人AV | 中文字幕综合在线观看 | 久久久久久久久免费观看完整版 |