Robots.txt คืออะไร

Robots-txt-คืออะไร

ไฟล์ Robots.txt เป็นไฟล์ที่แจ้งให้ทาง Google bot หรือ Bot จาก Search engine ทราบว่าควรอนุญาติให้เก็บข้อมูลในหน้าหนึ่ง ๆได้หรือไม่  คุณสามารถใช้ไฟล์ robots.txt เพื่อจัดการวิธีที่โรบ็อตไฟล์เหล่านี้โต้ตอบกับเว็บไซต์ของคุณได้ ยกตัวอย่างเช่น คุณอาจต้องการให้ทุกหน้าบนเว็บไซต์ของคุณรวบรวมข้อมูลเพื่อให้ search engine สามารถบ่งชี้ถึงทิศทางสำหรับเนื้อหาของคุณได้ หรือคุณอาจต้องการรวบรวมข้อมูลเพียงไม่กี่หน้าในเว็บไซต์ของคุณเพื่อไม่ให้ข้อมูลในเว็บถูกนำมาเผยแพร่สู่สาธารณะ ไฟล์ robots.txt จะอยู่ที่path ลำดับแรกของเว็บไซต์ของคุณ (เช่น www.example.com/robots.txt) เมื่อโรบ็อตไฟล์เยี่ยมชมเว็บไซต์ของคุณ อันดับแรกมันจะตรวจสอบไฟล์ robots.txt จากนั้นอ่านคำแนะนำในไฟล์นั้นเพื่อตัดสินใจว่าจะรวบรวมข้อมูลหน้าใดบนเว็บไซต์ของคุณและหน้าใดบ้างที่ควรเลี่ยง เป็นต้น

จุดประสงค์ของไฟล์ Robots.txt คืออะไร?

โรบ็อตเหล่านี้มักถูกนำมาใช้โดย search engine เพื่อบ่งชี้หรือขออนุญาติเว็บไซต์ แต่ยังสามารถใช้เพื่อวัตถุประสงค์อื่นได้ด้วย เช่นการเข้าถึงข้อมูล ซึ่งมันมีประโยชน์ในการบ่งชี้ปัญหาในหน้าเว็บไซต์ของคุณยกตัวอย่างเช่น หน้าที่มีข้อมูลที่ละเอียดอ่อน ไฟล์ robots.txt ยังใช้เพื่อช่วยจัดการเซิร์ฟเวอร์โดยบอกโรบ็อตว่าควรเยี่ยมชมเว็บไซต์ของคุณเมื่อใดและควรรวบรวมข้อมูลบ่อยเพียงใด หรือหน้าไหนควรหลีกเลี่ยง โดยรวมแล้วไฟล์ robots.txt ถือเป็นเครื่องมือที่มีประโยชน์ในการจัดการกับเว็บไซต์ของคุณ

สามารถใช้ไฟล์ Robots.txt อย่างไรได้บ้างไฟล์ robots.txt เป็นไฟล์ข้อความที่สั่งให้โรบ็อต (หรือที่รู้จักในชื่อโรบ็อต เป็นรูปแบบการอนุญาติผ่านการเขียนโค้ดให้ Bot ต่างๆมา crawling ในแต่ละหน้านั้น ๆได้) ทราบถึงวิธีการรวบรวมข้อมูลและบ่งชี้ถึงปัญหาของเว็บไซต์คุณ เมื่อใดที่มีไฟล์ robots.txt อยู่ในเว็บไซต์ โรบ็อตจะตรวจสอบไฟล์ robots.txt ก่อนรวบรวมข้อมูลไฟล์อื่นๆ บนเว็บไซต์ หากไฟล์ robots.txt มีคำสั่งที่บอกโรบ็อตไม่ให้รวบรวมข้อมูลไฟล์หรือไดเร็กทอรีบางไฟล์ โรบ็อตจะปฏิบัติตามคำแนะนำเหล่านั้นทันที ตัวอย่างเช่น หากคุณมีคำสั่ง “ไม่อนุญาต” ในไฟล์ robots.txt ที่บอก Google ไม่ให้รวบรวมข้อมูลไดเรกทอรีในบล็อกของคุณ Google ก็จะไม่รวบรวมข้อมูลไฟล์ใดๆ ในไดเรกทอรีนั้น ๆ เป็นต้น

ไฟล์ robots.txt สามารถใช้ในการทำสิ่งต่างๆ ได้ดังต่อไปนี้

  1. บล็อกโรบ็อตไฟล์ทั้งหมดจากไฟล์บนเว็บไซต์ของคุณ
  2. บล็อกโรบ็อตไฟล์บางตัวจากไฟล์หรือไดเร็กทอรีบางตัว
  3. อนุญาตให้โรบ็อตไฟล์บางตัวรวบรวมข้อมูลบนเว็บไซต์ของคุณ
  4. แจ้งโรบ็อตไฟล์เมื่อพวกมันสามารถรวบรวมข้อมูลเว็บไซต์ของคุณได้
  5. แจ้งโรบ็อตไฟล์ว่าพวกเขาควรรวบรวมข้อมูลเว็บไซต์ของคุณบ่อยแค่ไหน

ไฟล์ robots.txt เป็นวิธีที่ง่ายต่อการควบคุมว่าส่วนใดของเว็บไซต์ของคุณควรได้รับการจัดการโดย search engine และสามารถใช้เพื่อช่วยป้องกันปัญหาเกี่ยวกับเนื้อหาที่ซ้ำกัน อย่างไรก็ตาม แม้ว่าไฟล์ robots.txt อาจเป็นวิธีที่มีประโยชน์ในการควบคุมวิธีการช่วยจัดการเว็บไซต์ของคุณ แต่ก็ไม่ได้หมายความว่ามันจะทำงานได้ราบรื่นไปทั้งหมด ดังนั้นอย่าลืมตรวจสอบประสิทธิภาพของเว็บไซต์ใน search engine ก่อนเพื่อให้แน่ใจว่าไฟล์ robots.txt จะทำในสิ่งที่คุณต้องการได้อย่างมีประสิทธิภาพได้

หมวดหมู่ :

บทความที่เกี่ยวข้อง

การใช้ AI เป็นอีกหนึ่งกลยุทธ์ของการทำ SEO มีประโยชน์หรือไม่ ? อย่างไร ?

AI (Artificial Intelligence) เป็นคำที่คุ้นหูเป็นอย่างมากในโลกของการทำการตลาดในปัจจุบัน โดยเฉพาะอย่างยิ่งในการทำการตลาดออ

ออกแบบเว็บไซต์

บริการออกแบบเว็บไซต์ ตรงใจทุกธุรกิจ TBS Marketing บริการรับทำเว็บไซต์ รับออกแบบเว็บไซต์ พัฒนาระบบ ครบวงจร โดยทีมงานมืออา

BACKLINK คืออะไร

บริการรับทำ Backlink คุณภาพโดยทีม SEO มืออาชีพ TBS Marketing คือ บริษัทรับทำ SEO (Search Engine Optimization) ที่มีประสบ

Scroll to Top
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.