合肥網(wǎng)站建設(shè)
文章閱讀
網(wǎng)建技巧
優(yōu)化技巧
網(wǎng)建問題
謹(jǐn)宸新聞
行業(yè)新聞

首頁 > 合肥網(wǎng)站建設(shè) > 正文

網(wǎng)站的Robots文件的使用!

發(fā)布時(shí)間:2011/09/02字體:
摘要:網(wǎng)站的Robots文件的使用!,網(wǎng)站的Robots文件的使用,我們做優(yōu)化的人,很多看的就是看的是別人網(wǎng)站的收錄情況,從來不關(guān)心別人網(wǎng)站的禁止情況!但有時(shí)我們要考慮網(wǎng)站的Robots文件的使用!
我們做優(yōu)化的人,很多看的就是看的是別人網(wǎng)站的收錄情況,從來不關(guān)心別人網(wǎng)站的禁止情況!呵呵,合肥網(wǎng)絡(luò)公司小編也很少關(guān)心這個(gè)情況,可能我們在觀察一個(gè)網(wǎng)站的質(zhì)量時(shí),我們更多的看的是別人站的收錄情況,和外鏈情況!我們也沒必要去了解太多的有關(guān)別人禁止的情況!不過,在建站的初期我們的應(yīng)該更多的關(guān)心我們哪些東西能給人看,哪些東西禁止人看!這時(shí),我們就要考慮我們的網(wǎng)站的Robots文件的使用!

針對(duì)Robots文件的創(chuàng)建,之前合肥網(wǎng)絡(luò)公司小編有說過,今天之所以再次拿出來講講,第一是給自己一次再次認(rèn)識(shí)和學(xué)習(xí),第二是希望對(duì)看到這篇文章的朋友對(duì)認(rèn)識(shí)Robots文件有所幫助!

我們也都知道,在和別人換鏈接時(shí),最怕的就是別人用JS,flash鏈接,使用nofollow等方法,這樣和你鏈接對(duì)你沒有多大作用!但如果你想限制你的不想要被搜索引擎收錄的網(wǎng)站網(wǎng)頁,也使用這種方法時(shí),恐怕會(huì)達(dá)不到你要的效果!robots文件,就可以達(dá)到你要限制被搜索引擎收錄的效果!

搜索引擎蜘蛛訪問網(wǎng)站時(shí)通常會(huì)查看一下網(wǎng)站的根目錄下是否有一個(gè)以“robots.txt”命名的純文本文件,robots.txt的作用是用于指令搜索 引擎禁止抓取網(wǎng)站的某些內(nèi)容或者允許抓取某些制定的內(nèi)容。由于有的服務(wù)器設(shè)置有點(diǎn)問題,robots文件不存在時(shí)會(huì)返回202狀態(tài)碼及一些錯(cuò)誤信息,而不 是404狀態(tài)碼,這有可能導(dǎo)致搜索引擎錯(cuò)誤解讀robots文件信息,所以就算你要允許蜘蛛抓取所有信息,也要建一個(gè)空的 !
下面我們把有關(guān)robots文件的注意事項(xiàng)說上幾點(diǎn)!
robots.txt文件放在根目錄下,注意如下幾點(diǎn):
1.必須命名為:robots.txt,并且字母都是小寫,robot后面加”s”。
2.robots.txt必須放置在一個(gè)網(wǎng)站的根目錄下。如:通過http://www.fn9c.com/robots.txt 可以成功訪問到,則說明設(shè)置成功。
3.Robots文件由記錄組成,記錄行之間必須以空行分開。
一般情況下,robots.txt里只寫著兩個(gè)函數(shù):User-agent和 Disallow。一般格式如下:
User-agent:* Disallow:/
以上表示robots文件禁止所有搜索引擎抓取任何信息。當(dāng)然如何設(shè)置你禁止的內(nèi)容,還要看你的具體網(wǎng)站,小編這里只是點(diǎn)到為止!希望對(duì)你在以后建robots文件時(shí),有所幫助!
本文標(biāo)題:網(wǎng)站的Robots文件的使用!
本文網(wǎng)址:http://www.fn9c.com/wangjianjiqiao/387.html
原創(chuàng)網(wǎng)址:合肥網(wǎng)絡(luò)公司<謹(jǐn)宸科技> 版權(quán)所有,轉(zhuǎn)載請注明出處,并以鏈接形式鏈接網(wǎng)址:www.fn9c.com
文章標(biāo)簽:robots文件 搜索引擎 收錄 禁止
 上一篇:網(wǎng)站的Robots文件的使用!
 下一篇:合肥網(wǎng)站建設(shè)教你如何經(jīng)營好一個(gè)團(tuán)購網(wǎng)站!