欧美性视频在线丨人人看片人人看特色大片丨成人看片资源丨国产三级精品三级在线专区1丨国产69精品久久久久999天美丨免费专区丝袜调教视频丨免费观看性生交大片女神丨夜夜爽妓女8888888视频丨国产综合色视频丨清清草在线视频丨国产亚洲毛片丨成人在线播放av丨中文字幕在线视频免费观看丨亚洲日韩欧洲无码a∨夜夜丨国产黄色高清视频丨黄色网战大全丨偷窥目拍性综合图区丨97人人澡人人深人人添丨性欧美videos另类艳妇3d丨欧美一级a俄罗斯毛片

深圳SEO

Robots 文件設置和技術細節

        Robots.txt文件放在網站的根目錄下,主要用于通知蜘蛛在該網站上的抓取范圍,SEO可以在這個文件中聲明該網站中不想被搜索引擎收錄的部分,或者指定搜索引擎只收錄特定的部分。

        1.經常使用到Robots.txt 文件的情況

        ●    網站升級,老版本網站的很多頁面在新版本網站中去掉了,在這種情況下,可以通過Robots文件 告訴蜘蛛不再抓取這些已經被去掉的頁面。

        ●    網站存在很多重復的內容,比如一個網站同時存在動態頁面和已經經過靜態化處理的頁面,這些頁面在內容上都是完全重復的內容,為了解決重復的問題,可以在Robots文件中禁止蜘蛛抓取動態頁面。

        ●    網站內部有些內容不便于公開發布,但是需要允許內部查閱。遇到這種情況,可以在Robots中告訴蜘蛛不要抓取。


        2. Robots文件的基本寫法

        User-agent :                                           *

        Allow :                                                     /cgi-bin/see

        Allow :                                                    /tmp/hi

        Allow :                                                    /~joe/look

        Disallow :                                               /cgi-bin/

        Disallow :                                               /tmp/

        Disallow :                                               /~joe/

        Allow是允許蜘蛛爬行的頁面,而Disallow后面則是不允許蜘蛛訪問的路徑和文件。

        3. Robots的使用示例

        (1)僅允許訪問某目錄下某個后級的文件。這里僅允許訪問帶“'s" 符號的網址,如下。

        User-agent: *

        Allow : .asp$

        Disallow : /


        (2)禁止索引網站中所有的動態頁面。

        這里是限制訪問帶“? ”的網址,例如,index.asp?id=1。

        User- agent : *

        Disallow : /*?*

        (3)使用“*”限制訪問帶某 個后綴的域名。

        這里是禁止訪問admin目錄下所有htm文件,如下。

      User- agent :
*

      Disallow :/admin/* .htm網站式新聞動態
本文地址:http://www.66myw.cn/article/8156.html
?