php robots.txt,robots.txt的写法
生活随笔
收集整理的這篇文章主要介紹了
php robots.txt,robots.txt的写法
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
robots.txt的寫法是做seo的人員必須知道的(什么是robots.txt),但該如何寫,禁止哪些、允許哪些,這就要我們自己設定了。
百度蜘蛛是一機器,它只認識數字、字母和漢字,而其中robots.txt就是最重要也是最開始和百度“對話”的內容。
當我們的網站在沒有建好的時候,我們不希望百度來抓取我們的網站,往往有人會禁止百度來抓取。但是,這種做法是非常不好的,這樣會讓百度蜘蛛很難再來到你的網站了。所以,我們必須現在本地搭建網站,等一切都搞好以后,再去買域名、空間,要不,一個網站的反復修改,會對你的網站有一定的不利影響。
我們的網站起初的robots.txt寫法如下:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
User-agent: * 的意思是,允許所以引擎抓取。
而Disallow: /wp-admin/和Disallow: /wp-includes/,則是禁止百度抓取我們的隱私,包括用戶密碼、數據庫等。這樣的寫法既保護了我們的隱私,也讓百度蜘蛛的抓取最大化。
如果,你想禁止百度蜘蛛抓取某一個頁面,比如123.html,那就加一句代碼“Disallow: /123.html/”即可。
robots.txt寫好后,只需要上傳到網站的根目錄下即可。
總結
以上是生活随笔為你收集整理的php robots.txt,robots.txt的写法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: vba单元格批量赋值,EXCEL——VB
- 下一篇: 更改oracle 端口,Oracle数据