Дорогие друзья, сегодня я хочу поделиться своими мыслями о том, чтобы я хотел улучшить в Яндексе и Google.
Я выскажу свое мнение с точки зрения обычного владельца сайта.
Содержание
Определение первоисточника
Многие вебмастера сталкиваются с проблемой, когда поисковые системы некорректно определяют первоисточник.
Например, владелец сайта пишет качественные и интересные статьи, или заказывает их у копирайтера. А другие сайты просто копируют материалы и публикуют у себя, часто без ссылки на первоисточник.
Даже если и размещают ссылку на источник, есть вероятность того, что сайты, скопировавшие статьи, будут находиться выше, чем сайт, на котором этот контент появился впервые.
Да, в Яндекс Вебмастере есть инструмент "Оригинальные тексты". В Гугл подтвердить авторство можно через соцсеть Google+. Можно указать автора с помощью микроразметки schema.org через itemprop="author".
На практике это не решает проблему. Решение должно быть реализовано на уровне алгоритмов поисковых систем.
Большое количество сайтов страдают от несправедливости в плане определения первоисточника. Я встречал много примеров, когда используются "Оригинальные тексты" Яндекса, подтверждено авторство в Гугл Плюсе и сделана микроразметка, но конкуренты, скопировавшие статьи, ранжируются выше первоисточника. Бывает, что даже переписывание оригинальных текстов не помогает.
Другой пример - более трастовый ресурс публикует статью с первоисточника, размещая ссылку на него, и при этом ранжируется выше.
Конечно, можно сказать, что для поисковиков главное, чтобы материал был релевантен, полезен для посетителей и отвечал на их вопрос. Но ситуация, когда на разных сайтах размещен один и тот же текст, и при этом первоисточник находится ниже сайтов, которые просто скопировали с него статью, является неправильной.
Думаю, что сайты, которые публикуют оригинальный и полезный контент, составляют всего несколько процентов от общего числа ресурсов как в рунете, так и в англоязычном интернете. Все остальные либо просто копируют, либо переписывают их материалы.
Я считаю, что если бы сайты, которые производят уникальные и интересные тексты, получали преимущество в ранжировании, а ресурсы, которые размещают копированные или переписанные материалы, пессимизировались, то это было бы одним из самых эффективных решений проблемы с качеством поисковой выдачи.
Естественно, сама по себе уникальность текстов не является гарантией, что материал действительно интересен и полезен, так как тексты могут просто переписать другими словами.
Но я уверен в том, что для поисковых систем не составляет проблемы определить сайты, на которых публикуются оригинальные тексты.
С учетом анализа поведения посетителей на странице, насколько активно они ее комментируют и делятся в социальных сетях, можно без проблем определять именно те сайты, которые производят действительно полезный и уникальный контент.
🔥 Кстати! Я провожу платный курс по продвижению англоязычных сайтов SEO Шаолинь seoshaolin.com. Для читателей блога я делаю хорошую скидку по промокоду "blog". Тариф Про стоит не 41, а 35 тыс. рублей. Тариф Лайт не 21, а 17 тыс. рублей. Тариф Команда не 58, а 50 тыс. рублей. Для получения скидки пишите мне на globatorseo@gmail.com с темой "Курс" или в Telegram @mikeshakin.Как только схема "Копируешь – не будет посетителей, пишешь качественные статьи – будут посетители", дойдет до широких масс, то это в корне изменит ситуацию с качеством сайтов.
Но пока это не реализовано на уровне алгоритмов Яндекса и Google, проблема будет оставаться.
Техподдержка
Я считаю, что в Яндексе и Google нужна полноценная техподдержка.
В Google вся поддержка осуществляется через форум. Получение ответов может занять несколько дней, некоторые вопросы остаются без ответов.
В Яндексе ситуация намного лучше. Техподдержка у Яндекса есть, но во многих случаях переписка не дает даже приблизительной информации о том, как исправить ситуацию с сайтом.
Я понимаю, что у поисковых систем своя политика, и никто не будет конкретно писать, что именно не так с сайтом и почему на нем понизилась посещаемость, так как особенности алгоритмов ранжирования – тайна за семью печатями. Да и раздувать штат никто не будет.
Но хотя бы приблизительные советы, которые могут исправить ситуацию, вполне можно давать.
Как вариант, чтобы не создавать нагрузку на сотрудников техподдержки и не увеличивать штат, для многих случаев можно создать ботов техподдержки, как примерно это реализовано у ботов в Telegram.
Например, с помощью цепочки вопросов бот может давать вебмастеру адрес страницы на его сайте, которая вызвала проблему с попаданием под фильтр. А дальше вебмастер изучит проблемную страницу и исправит ее, о чем сможет сообщить боту техподдержки через цепочку вопросов. Это значительно ускорит и выход сайтов из-под фильтров.
В Яндексе нужен аналог DMCA жалоб
Такой инструмент необходим, чтобы владельцы сайтов могли сообщать о нарушении своих авторских прав.
Например, написали вы книгу или создали видеокурс. Хотите заработать на своем труде. Ваши материалы воруют и размещают на разных форумах и варезниках для бесплатного скачивания, или в виде складчин.
В Google в таких случаях можно подать DMCA жалобу, и сайт, который своровал ваш материал, перестанет отображаться в результатах поиска по нужному запросу. Этот процесс занимает немного времени, бывает, что через 4 часа сайт удаляют из выдачи.
Причем для каждого ресурса Google мониторит число DMCA жалоб. Если их много, то сайт вполне может попасть под фильтр за многократное нарушение авторских прав, вплоть до полного удаления из индекса.
В Яндексе очень не хватает такого инструмента. Было бы замечательно, если бы он появился.
В Яндексе нужен инструмент отклонения ссылок
В свете борьбы с некачественными ссылками в Яндексе очень нужен инструмент для отклонения ссылок, по аналогии с Google Disavow Tool, в который вебмастера могли бы загружать списки ссылок на свои сайты, которые они хотели бы не учитывать.
Бывают ситуации, когда конкуренты или недоброжелатели размещают на сайт множество ссылок с мусорных ресурсов (заспамленных форумов, комментариев, гостевых книг и т.д.
Алгоритм Google Penguin уже не учитывает такие ссылки.
Для полной уверенности вебмастеров, что их сайты не пострадают от некачественных ссылок, в Google несколько лет назад реализовали инструмент Disavow Tool.
Было бы здорово, если бы в Яндексе сделали такой же инструмент.
К тому же это отличная возможность – по сути, вебмастера будут добровольными асессорами, которые будут формировать большую базу некачественных ссылок, которая может пригодиться для обучения поисковых алгоритмов. Конечно, определенный процент ссылок в такой инструмент будет добавлен недоброжелателями или конкурентами, и они будут качественными, но этот вопрос можно решить.
Без этого инструмента в Яндексе у многих владельцев сайта остается проблема, что делать с некачественными ссылками. Удалять ссылки – за это многие вебмастера требуют деньги. На мой взгляд, это вообще нонсенс – сначала брать деньги за размещение ссылки, потом за ее удаление.
Да и удалить ссылки с некачественных ресурсов можно далеко не всегда.
Дубли и малоинформативные страницы
Многие движки сайтов генерируют дубли страниц, а также малоинформативные страницы (архивы по годам, месяцам, архивы категорий, тегов и т.д.).
Поисковые системы знают об этих особенностях.
Но почему тогда поисковые роботы сами не определяют дубли страниц популярных движков и во многих случаях продолжают их индексировать?
Ведь на это затрачиваются огромные ресурсы – тратится краулинговый бюджет при индексации сайта, базы данных поисковиков значительно увеличиваются в размерах за счет ненужной информации, плюс малоинформативные страницы могут попадать в результаты выдачи вместо нормальных страниц с полезной информацией.
Почему вебмастерам надо самим заботиться о том, чтобы поисковые роботы не индексировали ненужные страницы и разделы? Для роботов поисковых систем не составляет никаких проблем сделать это нужным образом.
Для многих владельцев сайтов и блоггеров закрыть дубли и ненужные страницы от индексации - не такая уж простая задача. Многие просто не могут проделать необходимые действия.
В тех случаях, когда владелец сайта захочет открыть для индексации определенные страницы или разделы, это можно реализовать через панели вебмастеров.
Яндексу не хватает рейтинга звезд в выдаче
У некоторых сайтов звезды рейтинга, реализованные через микроразметку schema.org/AggregateRating, в выдаче Яндекса уже выводятся:
Но пока вывод звезд рейтинга встречается очень редко. Даже если сделать все правильно, то вероятность того, что звезды будут выводиться в выдаче Яндекса, очень мала.
А ведь оценка страницы пользователями является отличным показателем того, насколько им понравился материал. И такую информацию имеет смысл выводить в результатах поиска почаще.
Год назад техподдержка Яндекса отвечала, что пока это лишь эксперимент и такие рейтинги отображаются не у всех сайтов. Со временем списки сайтов будут расширяться, одни сайты будут добавляться, другие - отключаться.
С того времени ситуация не изменилась. Было бы замечательно, если бы звезд в выдаче Яндекса стало больше.
https
Переход сайтов на защищенный протокол https часто связан с различными проблемами.
Даже если сделать все правильно, то у многих сайтов наблюдается понижение позиций и посещаемости. В большинстве случаев это имеет временный характер, и затем все восстанавливается.
Конечно, есть сайты, которые переходят без каких-либо проблем, но случаев с негативными последствиями намного больше.
Я считаю, что при массовом переходе сайтов на https поисковым системам имеет смысл подкорректировать свои алгоритмы таким образом, чтобы версии сайта на http и https не были разными ресурсами.
Это позволит свести к минимуму возможные потери трафика для сайтов, которые переходят на защищенный протокол.
Вот такие у меня мысли по поводу того, что можно улучшить в поисковых системах 🙂 .
Если у вас есть свои мысли, то буду рад, если поделитесь ими в комментариях.
Михаил Шакин
На десерт сегодня видео о том, как собирают Порше 911. Никакой музыки или закадрового голоса, что сейчас редкость. Настоящее видео для релаксации 🙂 :
Подпишитесь на рассылку блога с полезными материалами по SEO