Новые правила обработки директив Allow и Disallow в файлах robots.txt 8.03.2012

Письмо от яндекса:

Добрый день!

Уведомляем вас об изменениях в обработке директивы ‘Allow’ файла robots.txt, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.

По новым правилам, если страница сайта попадает под действие нескольких директив ‘Allow’ и/или ‘Disallow’, то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол ‘*’ не учитывается.

Если на вашем сайте в robots.txt совместно используются директивы ‘Allow’ и ‘Disallow’, пожалуйста, проверьте их на соответствие новым стандартам. В этом вам поможет наша форма проверки robots.txt.

Подробнее об использовании директив вы можете прочитать в Помощи.


С уважением,
Яндекс.Вебмастер
http://webmaster.yandex.ru

ЭТО ПИСЬМО ОТПРАВЛЕНО ПОЧТОВЫМ РОБОТОМ, ПОЖАЛУЙСТА, НЕ ОТВЕЧАЙТЕ НА НЕГО.

Результаты проверки robots.txt на uvivu:






комментариев 5 к “Новые правила обработки директив Allow и Disallow в файлах robots.txt 8.03.2012”

  1. mihey:

    Очередная бредятина яндекса ) ) )

  2. mihey:

    User-agent: Yandex
    Allow: /
    Disallow: /
    # без расширений все запрещалось так как ‘Allow: /’ игнорировалось,
    # с поддержкой расширений все разрешается

    Сейчас яндекс нашарит что нибудь интересное!…) ) )

  3. да,но это еще и не все…

  4. Вы знаете редко сейчас кто пишет по данной тематике, очень приятно читать, я бы советовала картинок добавить еще!

Оставить комментарий