
資訊中心
robots.txt:如何讓搜索引擎不要抓取沒用的頁面
來源:南寧網站建設公司 作者:云尚網絡 發(fā)布日期:2022-01-15????瀏覽次數(shù):1471
| 什么是robots文件?
Robots是站點與spider溝通的重要渠道,是網站與搜索引擎爬蟲之間的協(xié)議,告知哪些可抓取哪些不允許。
| 為什么要做robots文件?
網站上總有一些頁面是禁止蜘蛛抓取的。例如:搜索頁面、篩選頁面、后臺登錄地址等。
| 如何制作 robots文件?
編寫robots.txt文件并上傳到網站根目錄。
| 制作 robots.txt注意事項
●?所有搜索引擎則用星號表示
●?Allow(允許)和Disallow(不允許)優(yōu)先級
●?至少屏蔽一個,可以屏蔽:搜索結果頁面/404頁面
●?記得將sitemap放到Robots文件中
●?可以陸續(xù)放入更多,而不是一次性決定所有
●?網站后臺地址/圖片地址/下載文件地址/錯誤鏈接
評論(0 條評論)