Генератор Clean-param для robots.txt
Популярные вопросы по работе инструмента
Сервис собирает все параметры URL по списку страниц и формирует директиву Clean-param с этими параметрами для указания в файле robots.txt.
Указание Clean-param в файле robots.txt позволяет избежать появления технических дублей страниц в Яндексе, подклеивает их к основным страницам (без этих параметров в URL).
Дополнительно это позволяет уменьшить сканирование поисковым роботом Яндекса страниц с перечисленными параметрами, что может снизить нагрузку на сервер (где расположен сайт), а также позволяет поисковому роботу расходовать краулинговый бюджет на более ценные для продвижения страницы.
Получите список страниц своего сайта с параметрами в Яндекс Вебмастере: в разделе «Страницы в поиске» выберите сайт и нажмите на вкладку «Исключенные страницы» под графиком. Скачайте эту таблицу (XLS или CSV) по кнопке внизу и скопируйте из неё полученный список страниц в наш инструмент.
Если ваш сайт только создан или только добавлен в Яндекс Вебмастер, то вы можете просто ввесть его адрес в качестве страниц с параметрами и затем использовать расширенный вид директивы с популярными параметрами.