ช่วยเหลือ

ความช่วยเหลือของ GoDaddy

Blocking pages from scans

If you do not want Search Engine Visibility to analyze your entire website, you can block specific pages using your site's robots.txt file. This is useful if you have admin pages or forums that you don't want to optimize.

To prevent Search Engine Visibility from scanning a page, update your site's robots.txt file with the following, where page is the specific page in your site:

User-agent: trafficblazer
Disallow: /page.html

You can also block entire directories with the following, where directory is the name of the directory or folder you want to block:

User-agent: trafficblazer
Disallow: /directory/

For more information about building a robots.txt file for your site, see Selecting website pages .


บทความนี้มีประโยชน์หรือไม่
ขอบคุณสำหรับคำติชมของคุณ หากต้องการพูดคุยกับตัวแทนฝ่ายบริการลูกค้า โปรดใช้หมายเลขโทรศัพท์ฝ่ายสนับสนุนหรือตัวเลือกแชทข้างบนนี้
ยินดีมากที่เราได้ช่วยเหลือ! ยังมีอย่างอื่นที่เราสามารถช่วยคุณได้หรือไม่
เสียใจด้วย บอกเราว่าอะไรที่ทำให้คุณสับสนหรือเหตุใดการแก้ไขนี้จึงไม่ช่วยคลี่คลายปัญหาของคุณ