Сайт дня (как попасть): Продвижение сайта популярными новостями.
Дорогие друзья, я рад представить вашему вниманию свой бесплатный видеокурс WordPress SEO. Я увлекаюсь WordPress с 2007 года и этот блоговый движок мне очень нравится. Я часто пишу о нем в рубрике WordPress на своем блоге shakin.ru.
Примечание - видеоурок лучше смотреть в полноэкранном режиме в качестве 720.
Сначала я хотел создать несколько статей о поисковой оптимизации WordPress, но решил, что нужно развиваться и осваивать новые направления, поэтому сделаю серию видеоуроков о WordPress SEO, которые объединю в видеокурс. Вы можете посмотреть мои предыдущие видеоуроки на различные темы.
Видеокурс, естественно, будет бесплатным. Сам люблю, когда авторы выкладывают нужную мне информацию в свободном доступе на своих сайтах и блогах, поэтому буду продолжать эту славную традицию.
Все материалы видеокурса будут доступны на этом блоге. По мере публикации видеоуроков я буду дополнять страницу видеокурса, на которой в итоге можно будет найти все материалы. Вот ее адрес: https://shakin.ru/wordpress-seo.
Я создал блог на локальном компьютере для того, чтобы показывать все моменты на примере. Для блога я установил WordPress последней версии на русском языке с официального сайта https://ru.wordpress.org/.
Файл robots.txt
Начну видеокурс с внутренней оптимизации. Сегодняшний видеоурок будет посвящен файлу robots.txt.
Robots.txt - это текстовый файл, который содержит инструкции для поисковых роботов. Находится он в корневой папке.Перед обращением к страницам вашего блога поисковые роботы сначала ищут файл robots.txt, который запрещает им доступ к указанным вами разделам вашего ресурса.
Ограничение определенных разделов своего сайта для индексации поисковыми роботами не означает, что вы прячете что-то запрещенное 🙂 , нет. Просто на любом сайте часть информации не несет никакой ценности для поисковиков и посетителей, поэтому нет смысла, чтобы ее индексировали роботы.
Примеры такой информации - страницы логина, регистрации, RSS лент у каждого поста и т.д.
🔥 Кстати! Я провожу платный курс по продвижению англоязычных сайтов SEO Шаолинь seoshaolin.com. Для читателей блога я делаю хорошую скидку. По прокомоду "блог" тариф Про стоит не 50, а 40 тыс. рублей. Тариф Лайт не 25, а 20 тыс. рублей. Тариф Команда не 75, а 60 тыс. рублей. Пишите мне в Telegram @mikeshakin.Кроме этого, файл robots.txt служит для того, чтобы указывать правильное зеркало вашего домена (с www или без), а также можно указывать адрес карты сайта.
По умолчанию в WordPress нет файла robots.txt. Самый простой способ это исправить - создать в обычном блокноте (или лучше в Notepad++) текстовый файл, поместить в него нужный код, сохранить с названием robots.txt и загрузить на хостинг в корневую папку вашего блога.
Вы можете посмотреть содержимое файла robots.txt на любом сайте, если после его адреса напишете robots.txt, вот так (приведу пример этого файла на своем блоге):
User-agent: * Disallow: /wp-login.php Disallow: /wp-register.php Disallow: /webstat/ Disallow: /feed/ Disallow: /trackback Disallow: */trackback Disallow: */feed Disallow: */comments Disallow: /*?* Disallow: /*? Disallow: /category/*/* Disallow: /wp-content/ Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /comments User-agent: Yandex Disallow: /wp-login.php Disallow: /wp-register.php Disallow: /webstat/ Disallow: /feed/ Disallow: /trackback Disallow: */trackback Disallow: */feed Disallow: */comments Disallow: /*?* Disallow: /*? Disallow: /category/*/* Disallow: /wp-content/ Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /comments Host: shakin.ru Sitemap: https://shakin.ru/sitemap.xml
Идеального файла robots.txt не существует. Я пробовал различные варианты, и в итоге пришел к такому содержимому этого файла. Время от времени я дополняю и редактирую этот файл.
Также с помощью этого файла можно рекомендовать роботам поисковиков соблюдать определенный временной интервал между скачиванием документов с сервера. Например, на моей практике бывали случаи, когда робот Yahoo (называется Slurp) при индексации сайта оказывал повышенную нагрузку на хостинг, поэтому приходилось задавать ему паузу. Делается этот вот так:
User-agent: Slurp Crawl-delay: 20
Данный код сообщает поисковому роботу Slurp при индексации делать паузу в 20 секунд. Обычно делают 5 или 10 секунд, но этот робот меня тогда очень сильно разозлил 🙂 , так как и с паузой в 10 секунд он сильно грузил хостинг. Впрочем, я уже пару лет не встречал подобных случаев.
Для роботов Яндекса и Google делать задержку не советую, так как это может привести к проблемам с индексацией вашего сайта.
Важный момент - между директивами User-agent и Disallow не должно быть пустых строк, так как это будет означать конец правил для поискового робота.
Звездочка * в файле robots.txt означает последовательность любых символов.
Директива host поддерживается только Яндексом. При этом она сообщает поисковому роботу Яндекса о том, какое из двух зеркал сайта главное - с www или без.
Плагины WordPress для создания robots.txt
Чувствую, скоро будут вопросы «А как же плагины для создания robots.txt? Ведь в WordPress многие вещи можно сделать плагинами!» Чтобы меня не закидали помидорами 🙂 , я подготовил несколько плагинов.
Сам я предпочитаю простые и эффективные решения. Я считаю, что для создания файла robots.txt не нужны плагины, ведь все, что нужно, это создать текстовый файлик с нужным кодом и загрузить его в корень блога. По возможности лучше обходиться без плагинов, так как избыточное их количество создает повышенную нагрузку на хостинг и негативно сказывается на скорости работы вашего блога.
Итак, вот плагины.
Этот плагин позволяет редактировать содержимое файла robots.txt прямо в панели управления вашего блога.
Еще один плагин для работы с файлом robots.txt со схожим функционалом.
Другие плагины WordPress для robots.txt можно найти прямо в админке вашего блога, если зайти в пункт Плагины - Добавить новый и ввести в поле поиска запрос «robots.txt».
Дополнительные материалы по robots.txt
По файлу robots.txt есть полезный сайт https://robotstxt.org.ru/, на котором можно найти всю необходимую информацию.
Вы также можете почитать раздел о robots.txt в Яндекс Помощи для вебмастеров и воспользоваться анализатором robots.txt от Яндекса.
Кроме этого, можно посмотреть информацию об этом файле в разделе помощи для вебмастеров от Google - Блокировка и удаление страниц с помощью файла robots.txt.
Желаю вам хорошего настроения! А я пойду готовить следующий видеоурок 🙂 .
Постовой (как попасть): «Было – стало» - амбициозный стартап о течении времени.
Изготовление наружной рекламы, а также создание баннеров для сайта предлагает вам www.bandesign.ru.
Качественное и профессиональное продвижение сайтов в Туле.
Десерт на сегодня - классная реклама, которую даже хочется смотреть. Все сделано очень стильно:
Подпишитесь на рассылку блога с полезными материалами по SEO
На 95% у меня Роботс.тхт совпадает:) Единственное, что я сначала пишу правила для яндекса, а потом для всех остальных, то есть по сути меняются местами записи.
В твоем примере поисковики кроме Яндекса будут видеть директиву sitemap? или то, что она через пробел считается "для всех"?
Вопрос насчет Disallow: /category/*/* - разве это не то же самое что и /category/ ?
Спасибо! Хорошую рубирки открыли - ждем-с пополнение видеоуроков.
Так так. А что это за проблемы с индексацией от Crawl-Delay для яши к примеру? пруфлинк?
А для чего информация в Вашем роботс.тхт дублируется отдельно для Яндекса?
Спасибо, вы прочли мои мысли на расстоянии))
Михаил,
у Яндекса есть сервис проверки robot.txt.
Загнал Ваш файл - получил ошибки:
18-34
User-agent: Yandex
Disallow: /wp-login.php
...
Host: shakin.ru
36-36
Sitemap: https://shakin.ru/sitemap.xml
Аналогичные ошибки на моем файле, созданном одним из плагинов. В чем криминал? Не доделан сервис яндекса?
Михаил, спасибо! Очень полезная задумка - сделать такой курс. Буду следить и применять на практике!
А как песня называется, та, что в начале. Я её слышал в видео-обзорах игр и приложений для виндовс пхоне 7.
И ещё, разве не во́рдпресс?
Михаил, благодарю за начало серии уроков по WordPress. Буду следить с удовольствием. И первый урок был весьма полезен.
Недавно создал блог на WordPress и использовал Ваш роботс.тхт для создания своего. Спасибо!
Михаил, большое спасибо за статью и видео. Буду наблюдать за новыми публикациями.
Скажите, пожалуйста, нужно ли запрещать от индексации страницы вида:
/page/ - постраничная навигация на всем блоге + навигация в отдельной категории и в отдельном теге.
/tag/ и подобные - страницы тегов.
В вашем роботс запрета таких страниц нет.
Ведь такие страницы создают дублирование контента, а это плохо сказывается на продвижении.
Tod, Александр, директива sitemap будет учитываться и через пустую строку. /category/*/* - это сделано, чтобы не учитывать адреса категорий с добавлениями в конце, как, например, бывает из электронной почты или твиттера.
Shershov, новые видео обязательно будут.
Yury, в интернете таких ситуаций не искал, писал по своему опыту. Было несколько клиентов, у которых значительно менялось число страниц в индексе. Как оказалось, в robots.txt была установлена задержка в 10 секунд. После удаления задержки из robots.txt индексация нормализовывалась.
Владимир, я пришел к выводу, что для робота яндекса лучше дублировать информацию, так как в противном случае он индексировал те разделы, которые были закрыты для всех роботов. Не всегда, но такое бывает, поэтому дублирую.
SkreebL, пожалуйста! 🙂
Михаил, думаю, это временный сбой. Данные строки взяты с инструкции с официального сайта wordpress.org.
Денис, хорошо, планирую делать видеоуроки регулярно.
Алексей, песню не знаю, мне просто мелодия понравилась. Ударение ставлю, так как к русскому варианту произношения все привыкли, англоязычный будет резать слух.
Гришакин, рад, что пригодилось!
Андрей, такие страницы закрывать можно, это широко практикуется. В то же время много блогов, у которых они не закрыты. Мое мнение - многие движки сайтов генерируют определенное количество дублированного контента (архивы, теги и т.д.). Поисковики об этом знают и учитывают эту особенность, индексируя ту информацию, которую считают нужной.
Олег, это не ошибки. Этот сервис показал строки в файле robot.txt, которые учитывает робот Яндекса
А разве плагин All In One SEO Pack выполняет работу за robots.txt?
Михаил, а имеет значение для seo добавление ".html" к концу адреса?
Есть ли разница между:
site.ru/page и site.ru/page.html
Какой вид предпочтительнее?
вот в robots.txt "Disallow: /category/*/*" а в карте сайта есть ссылки на категории =)
Здравствуйте. Скажите, а что за программка использовалась для записи видео?
поправлю свой комментарий под №13:
А разве плагин All In One SEO Pack не выполняет работу за robots.txt?
Ведь благодаря его настройкам, закрываются от индексации дубли, категории, метки и админская часть.
Здраствуте, подскажите нужно ли закрывать от индексации категории Disallow: /category/*/* или нет?! никак не могу разобраться...
Ира, можно сделать проще - поставьте плагин WordPress SEO, в нем есть соответствующие галочки в настройках для закрытия категорий, тегов и архивов от индексации.