Идеальный robots.txt для wordpress.
Денис Болтиков ищет идеальный robots.txt для wordpress. На своем блоге Денис выкладывает уже не первый вариант robots.txt.
Приведу его здесь. Чтобы самому не забыть и Вам показать. Этот robots.txt, с некоторыми изменениями, был применен и на этом блоге. Посмотрим какие изменения в индексации блога повлечет за собой его использование.
User-agent: YandexBlog
Disallow:User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content
Disallow: /tag/
Disallow: /page/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Allow: /wp-content/uploads/
Sitemap: http://domain/sitemap.xml
Я не со всеми командами этого robots.txt согласен. А некоторые из них с успехом заменяются плагинами. Но кому то ( в том числе и мне) использование для таких целей robots.txt кажется более удобным и правильным.
_
Блог создается из отдельных элементов: темы, плагины, файлы… Так же, как любое строение, включает в себя отдельные стройматериалы: профнастил, забор и другие.
Похожие материалы:
Бухгалтерский блог Reply:
февраля 6, 2009 at 12:41
Господа, все понятно конечно…
1. первая треть списка — все грамотно!
2. вторая вызывает вопрос — если запрещать индексацию страниц, комментариев, потока и ключевых слов, тогда зачем вообще вести блог?
3. третья часть — все правильно, только есть смысл добавить еще
Disallow: /?xid=
для более полной защиты от XSS-атак.
Ответить комментатору
hawot Reply:
февраля 8, 2009 at 7:38
Вторая часть приведенного robots.txt исключает дублированный контент. Но вопросы есть конечно.
«Disallow: /?xid=» это интересно, надо обязательно разобраться и попробовать где то. Спасибо за наводку на тему.
Ответить комментатору