Автоматические шлагбаумы и болларды http://www.dom-stroy.com.
SEO блог
Facebook SEO блог о поисковой оптимизации и продвижении сайтов Twitter SEO блог о поисковой оптимизации и продвижении сайтов RSS
SEO блог о поисковой оптимизации и продвижении сайтов
SEO блог о поисковой оптимизации и продвижении сайтов
SEO блог о поисковой оптимизации и продвижении сайтов
Правильный robots.txt для CMS wordpress

Правильный robots.txt для CMS wordpress

Всем привет! За свою “вебмастерскую” карьеру я встречал не один десяток вариантов составления правильного по мнению автора robots.txt для wordpress. Поэтому я решил выложить свой вариант этого файла. За все 3-4 года, что я работаю с этой CMS проблем с индексацией изза роботс.тхт не возникало.

Если у вас нет до сих пор этого файла, то самое время создать его в блокноте и посетить в корень сайта. Правильный robots.txt для яндекса и гугла спешл фор CMS wordpress выглядит так:

User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: ( здесь указывается основной домен, с www или без, например, www.sayt.ru

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments

Sitemap: http://vasha-karta-sayta.ru/sitemap.xml ( тут указывается адрес карты сайта )

Также часто можно встретить немного измененные варианты этого файла. Чаще всего изменения касаются удаления строчек ( Disallow: /wp-comments и Disallow: */comments ) для индексации комментариев поисковыми системами. Вот в этой статье подробно описано о важности комментариев. Скажем для этого блога открытие к индексации текста комментариев ( ссылка уже давно открыта, так как блог dofollow) дало прирост трафика +10-15%, так как в комментариях по сути тот же контент и он несет ценность для поисковых машин.

Вторым частым изменением является добавление еще 1 строчки, связанной с картой сайта. Sitemap: http://vasha-karta-sayta.ru/sitemap.xml.gz , но это условие совсем не обязательное.

Страдать извращениями и добавлять User-agent: YandexBlog я смысла не вижу. Вообще robots.txt для вордпресс надо писать индивидуально под свой проект, но в качестве основы то, что я привел выше Вам вполне сгодится.

Всем хорошего дня!


SEO блог о поисковой оптимизации и продвижении сайтов
1st Ноя 2012
Теги:
SEO блог о поисковой оптимизации и продвижении сайтов

Есть 115 коммент. к “Правильный robots.txt для CMS wordpress”

  1. Герман пишет:

    Вот кэш, конечно, зря от индексации закрыли – оттуда могут стили и скрипты подгружаться, которые гугл бот не увидит. Из-за разницы в том, как сайт выглядит для пользователя и для него, он делает выводы. Обычно пессиместические.
    Можно ещё автора закрыть от индексации

  2. Nightt08 пишет:

    Спасибо, а то по первой поре написал кривого робота

  3. Олег пишет:

    Здравствуйте,уважаемые. Я то же когда-то пользовался подобным robots. Но в одно время заменил на другой, менее насыщенный строками. При этом пропали периодически возникающие ошибки и предупреждения. Теперь все в норме. Открыл доступ к скриптам,картинкам. Что-то пытался закрыть через робот,но гуглу все равно обычно. Яндекс более законопослушный. Пришлось вносить некоторые изменения в .htaccess. С уважением

  4. Илья Михайлович пишет:

    Я немного другой делал для себя robots.txt
    Категорию с темами открывал, а то google ругался что стили закрыты

  5. Максим пишет:

    Я на свой сайт просто с нэта скачал robots готовый. Запариватся не стал. Не знаю хорошо это или плохо

  6. Вячеслав пишет:

    Всем добрый день! Прочитал статью, очень полезно и информативно! Раньше, поначалу, вобще знать не хнал что существует какой то там робот)) но после прочтения этой статьи можно понять, насколько важен этот файл для сео продвижения в частности. Для каждого сайта я так понял – свой уникальный роботс должен быть?

  7. mighty_dollar пишет:

    Спасибо за инфу, попробую запилить свой робот))

  8. Иван пишет:

    Не давно тоже переделал свой роботс, так как Гугл ругался на то, что запрещал доступ к JavaScript файлам.

  9. Дмитрий пишет:

    У меня почти такой-же роботекс. Лично моё мнение, этот файлик самый важный для продвижения сайта.

  10. Димитрий пишет:

    Спасибо, магистр! :D

SEO блог о поисковой оптимизации и продвижении сайтов
 

SEO блог о поисковой оптимизации и продвижении сайтов
Все права защищены © 2012 SEO блог

Пользовательское соглашение и политика конфиденциальности
SEO блог о поисковой оптимизации и продвижении сайтов