Robots.txt — это текстовый файл, принадлежащий группе веб-протоколов, называемой протоколом исключения роботов или REP. Этот файл дает команду роботам поисковых систем, таким как Googlebots, определять, какие страницы сканировать и индексировать. Robot.txt помогает веб-сайтам избежать слишком большого количества запросов. Это играет огромную роль в получении хорошего рейтинга SEO.