歡迎來(lái)到合肥浪訊網(wǎng)絡(luò)科技有限公司官網(wǎng)
  咨詢服務(wù)熱線:400-099-8848

內(nèi)容為王、外鏈為皇的搜索引擎優(yōu)化理念

發(fā)布時(shí)間:2015-05-05 文章來(lái)源:  瀏覽次數(shù):3784

有效使用robots.txt


一個(gè)robots.txt文件可以告訴搜索引擎你網(wǎng)站的哪些部門(mén)答應(yīng)它去抓取。而這個(gè)文件不旦必需命名成”robots.txt”,還得放在你網(wǎng)站的根目錄上。 

Google SEO官方《搜索引擎優(yōu)化指南》(9): 有效使用robots.txt

所有的遵循這一規(guī)則的搜索引擎爬蟲(chóng)(按照通配符*指示的那樣)不應(yīng)該進(jìn)入并抓取/images/或者任何以/search開(kāi)頭的url里的內(nèi)容。


你也許并不但愿你網(wǎng)站的一些頁(yè)面被抓取到,由于假如它們泛起在搜索結(jié)果里對(duì)用戶可能是沒(méi)多大意義的。假如你想阻止搜索引擎爬取你的網(wǎng)頁(yè),Google網(wǎng)站治理員工具有一個(gè)很好用的robots.txt天生器來(lái)匡助你創(chuàng)建這個(gè)文件。另外假如你但愿子域名里的一些內(nèi)容不被爬取,你需要在子域名的目錄下再新建一個(gè)robots.txt文件。你也可以在我們的網(wǎng)站治理員匡助中央獲得更多關(guān)于robots.txt的信息。


這里也有其它更便捷的方式來(lái)阻止你的內(nèi)容泛起在搜索結(jié)果里,好比說(shuō)在robots meta標(biāo)簽里添加”NOINDEX”,使用htaccess來(lái)為一些目錄加密或者使用Google網(wǎng)站治理員工具來(lái)移除某些已經(jīng)被索引的內(nèi)容。Google工程師 Matt Cutts一個(gè)匡助視頻里粗略地先容了各種URL排除原理的留意事項(xiàng)。


robots.txt實(shí)踐經(jīng)驗(yàn)


為那些敏感的內(nèi)容使用更加安全的方案——通過(guò)robots.txt來(lái)阻止一些敏感或者秘要的內(nèi)容。之所以這樣做的是由于假如那些你在robots.txt里阻止的鏈接泛起互聯(lián)網(wǎng)上(好比說(shuō)來(lái)源記實(shí)),搜索引擎就很可能引用這些URLs(不外僅難是URL,不會(huì)含有標(biāo)題或者內(nèi)容片斷)。還有一些不遵守機(jī)器人排除尺度的流氓搜索引擎則會(huì)違反robots.txt上的指令。最后一些好奇的用戶就會(huì)去查看你robots.txt是聲明阻止的目錄或者子目錄,并預(yù)測(cè)那些你不想被看到的內(nèi)容。所以對(duì)內(nèi)容加密或者通過(guò) .htaccess實(shí)現(xiàn)密碼保護(hù)會(huì)是更安全的選擇。當(dāng)然你需要避免:


1.答應(yīng)看起來(lái)像搜索結(jié)果一樣的頁(yè)面被爬取。(用戶并不喜歡扔給自己一張搜索頁(yè)面,全是一些沒(méi)有多大意義的結(jié)果。)


2.答應(yīng)大量的自動(dòng)天生的頁(yè)面被抓取,而里面大多都是相同或者差異甚微的內(nèi)容。“像這些100000張幾乎像復(fù)制的頁(yè)面被搜索引擎索引了有多大意義呢?”


3.答應(yīng)代辦代理服務(wù)器創(chuàng)建的URLs被爬取.
知識(shí)增補(bǔ):Robots.txt


robots.txt(同一小寫(xiě))是一種存放于網(wǎng)站根目錄下的ASCII編碼的文本文件,它通常告訴網(wǎng)絡(luò)搜索引擎的周游器(又稱網(wǎng)絡(luò)蜘蛛),此網(wǎng)站中的哪些內(nèi)容是不能被搜索引擎的周游器獲取的,哪些是可以被(周游器)獲取的。 由于一些系統(tǒng)中的URL是大小寫(xiě)敏感的,所以robots.txt的文件名應(yīng)同一為小寫(xiě)。robots.txt應(yīng)放置于網(wǎng)站的根目錄下。假如想單獨(dú)定義搜索引擎的周游器訪問(wèn)子目錄時(shí)的行為,那么可以將自定的設(shè)置合并到根目錄下的robots.txt,或者使用robots元數(shù)據(jù)。


Robots.txt協(xié)議并不是一個(gè)規(guī)范,而只是商定俗成的,所以并不能保證網(wǎng)站的隱私。留意Robots.txt是用字符串比較來(lái)確定是否獲取URL,所以目錄末尾有和沒(méi)有斜杠“/”這兩種表示是不同的URL,也不能用"Disallow: *.gif"這樣的通配符。


 


這個(gè)協(xié)議也不是一個(gè)規(guī)范,而只是商定俗成的,通常搜索引擎會(huì)識(shí)別這個(gè)元數(shù)據(jù),不索引這個(gè)頁(yè)面,以及這個(gè)頁(yè)面的鏈出頁(yè)面。

上一條:網(wǎng)站優(yōu)化過(guò)程中百度快照對(duì)...

下一條:網(wǎng)站優(yōu)化過(guò)程中軟文的寫(xiě)作...