【robots.txt】 文件的具體寫法和作用
一般來說,學(xué)做SEO優(yōu)化,對于robots.txt文件還是需要了解的,這個(gè)文件在某些特殊的地方會(huì)發(fā)揮非常重要的作用,今天臺州網(wǎng)絡(luò)公司的SEO顧問就來和朋友說說robots.txt文件的具體寫法和相對應(yīng)的作用,內(nèi)容如下:
robots.txt文件的具體寫法和作用
禁止搜索引擎收錄的方法
一.什么是robots.txt文件?
臺州網(wǎng)絡(luò)公司小編告訴您搜索引擎通過一種程序robot(又稱spider),自動(dòng)訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。
您可以在您的網(wǎng)站中創(chuàng)建一個(gè)純文本文件robots.txt,在這個(gè)文件中聲明該網(wǎng)站中不想被robot訪問的部分,這樣,該網(wǎng)站的部分或全部內(nèi)容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內(nèi)容。
二. robots.txt文件放在哪里?
臺州網(wǎng)絡(luò)公司小編告訴您robots.txt文件應(yīng)該放在網(wǎng)站根目錄下。舉例來說,當(dāng)robots訪問一個(gè)網(wǎng)站(比如http://www.abc.com)時(shí),首先會(huì)檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個(gè)文件,如果機(jī)器人找到這個(gè)文件,它就會(huì)根據(jù)這個(gè)文件的內(nèi)容,來確定它訪問權(quán)限的范圍。
網(wǎng)站 URL 相應(yīng)的 robots.txt的 URL
http://www.w3.org/ http://www.w3.org/robots.txt
http://www.w3.org:80/ http://www.w3.org:80/robots.txt
http://www.w3.org:1234/ http://www.w3.org:1234/robots.txt
http://w3.org/ http://w3.org/robots.txt
三. robots.txt文件的格式
"robots.txt"文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:
":"。
在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow行,詳細(xì)情況如下:
User-agent:
該項(xiàng)的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多條User-agent記錄說明有多個(gè)robot會(huì)受到該協(xié)議的限制,對該文件來說,至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則該協(xié)議對任何機(jī)器人均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。
Disallow :
該項(xiàng)的值用于描述不希望被訪問到的一個(gè)URL,這個(gè)URL可以是一條完整的路徑,也可以是部分的,任何以Disallow 開頭的URL均不會(huì)被robot訪問到。例如"Disallow: /help"對/help.html 和/help/index.html都不允許搜索引擎訪問,而"Disallow: /help/"則允許robot訪問/help.html,而不能訪問/help/index.html。
任何一條Disallow記錄為空,說明該網(wǎng)站的所有部分都允許被訪問,在"/robots.txt"文件中,至少要有一條Disallow記錄。如果"/robots.txt"是一個(gè)空文件,則對于所有的搜索引擎robot,該網(wǎng)站都是開放的。
四. robots.txt文件用法舉例
例1. 禁止所有搜索引擎訪問網(wǎng)站的任何部分
下載該robots.txt文件 User-agent: *
Disallow: /
例2. 允許所有的robot訪問
(或者也可以建一個(gè)空文件 "/robots.txt" file)
User-agent: *
Disallow:
例3. 禁止某個(gè)搜索引擎的訪問
User-agent: BadBot
Disallow: /
例4. 允許某個(gè)搜索引擎的訪問 User-agent: baiduspider
Disallow:
User-agent: *
Disallow: /
例5. 一個(gè)簡單例子
在這個(gè)例子中,該網(wǎng)站有三個(gè)目錄對搜索引擎的訪問做了限制,即搜索引擎不會(huì)訪問這三個(gè)目錄。
需要注意的是對每一個(gè)目錄必須分開聲明,而不要寫成 "Disallow: /cgi-bin/ /tmp/"。
User-agent:后的* 具有特殊的含義,代表"any robot",所以在該文件中不能有"Disallow: /tmp/*" or "Disallow: *.gif"這樣的記錄出現(xiàn).
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
五. robots.txt文件參考資料
robots.txt文件的更具體設(shè)置,請參看以下資料:
· Web Server Administrator's Guide to the Robots Exclusion Protocol
· HTML Author's Guide to the Robots Exclusion Protocol
· The original 1994 protocol description, as currently deployed
· The revised Internet-Draft specification, which is not yet completed or implemented
說明
本站采取了一些簡單的防盜設(shè)置,如果您對本站的文章感興趣,請聯(lián)系:youwen@gmail.com
評論
在你的主頁中為Web Robot設(shè)計(jì)路標(biāo)
Internet越來越酷,WWW的知名度如日中天。在Internet上發(fā)布公司信息、進(jìn)行電子商務(wù)已經(jīng)從時(shí)髦演化成時(shí)尚。作為一個(gè)Web Master,你可能對HTML、Javascript、Java、 ActiveX了如指掌,但你是否知道什么是Web Robot?你是否知道Web Robot和你所設(shè) 計(jì)的主頁有什么關(guān)系?
Internet上的流浪漢--- Web Robot
有時(shí)你會(huì)莫名其妙地發(fā)現(xiàn)你的主頁的內(nèi)容在一個(gè)搜索引擎中被索引,即使你從未與他 們有過任何聯(lián)系。其實(shí)這正是Web Robot的功勞。Web Robot其實(shí)是一些程序,它可以 穿越大量Internet網(wǎng)址的超文本結(jié)構(gòu),遞歸地檢索網(wǎng)絡(luò)站點(diǎn)所有的內(nèi)容。這些程序有時(shí)被叫 “蜘蛛(Spider)” , “網(wǎng)上流浪漢(Web Wanderer)”,“網(wǎng)絡(luò)蠕蟲(web worms)”或Web crawler。一些Internet網(wǎng)上知名的搜索引擎站點(diǎn)(Search Engines)都 有專門的Web Robot程序來完成信息的采集,例如Lycos,Webcrawler,Altavista等,以及中文搜索引擎站點(diǎn)例如北極星,網(wǎng)易,GOYOYO等。
Web Robot就象一個(gè)不速之客,不管你是否在意,它都會(huì)忠于自己主人的職責(zé),任勞 任怨、不知疲倦地奔波于萬維網(wǎng)的空間,當(dāng)然也會(huì)光臨你的主頁,檢索主頁內(nèi)容并生成它所需要的記錄格式?;蛟S有的主頁內(nèi)容你樂于世人皆知,但有的內(nèi)容你卻不愿被 洞察、索引。難道你就只能任其“橫行”于自己主頁空間,能否指揮和控制Web Robot的行蹤呢?答案當(dāng)然是肯定的。只要你閱讀了本篇的下文,就可以象一個(gè)交通 警察一樣,布置下一個(gè)個(gè)路標(biāo),告訴Web Robot應(yīng)該怎么去檢索你的主頁,哪些可以檢索,哪些不可以訪問。
其實(shí)Web Robot能聽懂你的話
不要以為Web Robot是毫無組織,毫無管束地亂跑。很多Web Robot軟件給網(wǎng)絡(luò)站點(diǎn)的 管理員或網(wǎng)頁內(nèi)容制作者提供了兩種方法來限制Web Robot的行蹤:
1、Robots Exclusion Protocol 協(xié)議
網(wǎng)絡(luò)站點(diǎn)的管理員可以在站點(diǎn)上建立一個(gè)專門格式的文件,來指出站點(diǎn)上的哪一部分 可以被robot訪問, 這個(gè)文件放在站點(diǎn)的根目錄下,即robots.txt." target="_blank">http://.../robots.txt.
2、Robots META tag
一個(gè)網(wǎng)頁作者可以使用專門的HTML META tag ,來指出某一個(gè)網(wǎng)頁是否可以被索 引、分析或鏈接。
這些方法適合于大多數(shù)的Web Robot,至于是否在軟件中實(shí)施了這些方法,還依賴于 Robot的開發(fā)者,并非可以保證對任何Robot都靈驗(yàn)。如果你迫切需要保護(hù)自己內(nèi)容,則應(yīng)考慮采用諸如增加密碼等其他保護(hù)方法。
使用Robots Exclusion Protocol協(xié)議
當(dāng)Robot訪問一個(gè) Web 站點(diǎn)時(shí),比如http://yidnid.com/,它先去檢查文件robots.txt" target="_blank">http://yidnid.com/robots.txt。如果這個(gè)文件存在,它便會(huì)按照這樣的記錄格式去分析:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
以確定它是否應(yīng)該檢索站點(diǎn)的文件。這些記錄是專門給Web Robot看的,一般的瀏覽 者大概永遠(yuǎn)不會(huì)看到這個(gè)文件,所以千萬不要異想天開地在里面加入形似 類的HTML語句或是“How do you do? where are you from?”之類假情假意的問候語。
在一個(gè)站點(diǎn)上只能有一個(gè) "/robots.txt" 文件,而且文件名的每個(gè)字母要求全部是小 寫。在Robot的記錄格式中每一個(gè)單獨(dú)的"Disallow"行表示你不希望Robot訪問的URL, 每個(gè)URL必須單獨(dú)占一行,不能出現(xiàn) "Disallow: /cgi-bin/ /tmp/"這樣的病句。同時(shí)在一個(gè)記錄中不能出現(xiàn)空行,這是因?yàn)榭招惺嵌鄠€(gè)記錄分割的標(biāo)志。
User-agent行指出的是Robot或其他代理的名稱。在User-agent行,'*' 表示一個(gè)特殊的含義---所有的robot。
下面是幾個(gè)robot.txt的例子:
在整個(gè)服務(wù)器上拒絕所有的robots:
User-agent: *
Disallow: /
允許所有的robots訪問整個(gè)站點(diǎn):
User-agent: *
Disallow:
或者產(chǎn)生一個(gè)空的 "/robots.txt" 文件。
服務(wù)器的部分內(nèi)容允許所有的robot訪問
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /private/
拒絕某一個(gè)專門的robot:
User-agent: BadBot
Disallow: /
只允許某一個(gè)robot光顧:
User-agent: WebCrawler
Disallow:
User-agent: *
Disallow: /
最后我們給出 http://www.w3.org/站點(diǎn)上的robots.txt:
# For use by search.w3.org
User-agent: W3Crobot/1
Disallow:
User-agent: *
Disallow: /Member/ # This is restricted to W3C Members only
Disallow: /member/ # This is restricted to W3C Members only
Disallow: /team/ # This is restricted to W3C Team only
Disallow: /TandS/Member # This is restricted to W3C Members only
Disallow: /TandS/Team # This is restricted to W3C Team only
Disallow: /Project
Disallow: /Systems
Disallow: /Web
Disallow: /Team
使用Robots META tag方式
Robots META tag 允許HTML網(wǎng)頁作者指出某一頁是否可以被索引,或是否可以用來查找更多的鏈接文件。目前只有部分robot實(shí)施了這一功能。
Robots META tag的格式為:
象其他的META tag一樣,它應(yīng)該放在HTML文件的HEAD區(qū):
...
Robots META tag指令使用逗號隔開,可以使用的指令包括 [NO]INDEX 和[NO]FOLLOW。INDEX 指令指出一個(gè)索引性robot是否可以對本頁進(jìn)行索引;FOLLOW 指 令指出robot是否可以跟蹤本頁的鏈接。缺省的情況是INDEX和FOLLOW。例如:
最后臺州網(wǎng)絡(luò)公司小編總結(jié)一下:一個(gè)好的SEOer、一個(gè)好的Web 站點(diǎn)管理員應(yīng)該將robot的管理考慮在內(nèi),使robot為自己的主頁服務(wù), 同時(shí)又不損害自己網(wǎng)頁的安全。今天有關(guān)robots.txt文件的內(nèi)容就到此為止,希望對朋友們有所幫助。
「網(wǎng)站優(yōu)化」電話:13357671511
(備注:出于傳播知識、信息的目的,本站部分文章、圖片來源于網(wǎng)絡(luò),如有侵權(quán)請第一時(shí)間告知,小編核實(shí)后會(huì)立刻刪除,不接受、不回復(fù)任何形式的惡意索賠。)
- 網(wǎng)站打開速度的測試與優(yōu)化秘籍
- 「百度優(yōu)化」如何讓搜索引擎認(rèn)可···
- 百度搜索引擎與外匯交易網(wǎng)站:屏···
- 百家號排名優(yōu)化介紹
- 即夢 AI 制作的小狗視頻
- 「亮劍被刪除后十集」《亮劍》原···
- 全面提升網(wǎng)站優(yōu)化效果的關(guān)鍵策略···
- 專業(yè) SEO 公司的關(guān)鍵詞與長···
- “百度信風(fēng)算法“:全面解析與深···
- 「百度指數(shù)」深度解析百度指數(shù):···
- “丈育” 是個(gè)什么鬼???“丈···
- “天網(wǎng)算法” 守護(hù)網(wǎng)絡(luò)安全,警···
- 「抖音SEO入門」用網(wǎng)站 SE···
- 詳細(xì)聊聊2024 SEO 領(lǐng)域···
- 「SEO基礎(chǔ)入門」深入剖析百度···
- 「SEO基礎(chǔ)入門」你了解H標(biāo)簽···
- 「SEO基礎(chǔ)入門」再談網(wǎng)站為什···
- 「SEO基礎(chǔ)入門」常見搜索引擎···
- 「SEO基礎(chǔ)入門」巧用技巧,增···
- 「SEO基礎(chǔ)入門」關(guān)鍵詞疊加:···