Здравствуйте друзья! Наверное, вы уже слышали, что вышел новый алгоритм Яндекса. На самом деле поиск обновили еще летом, но объявили об этом только сейчас. По всей видимости сделано это было для того, чтобы оптимизаторы и вебмастера вдосталь наудивлялись странным скачкам страниц в выдаче. Но, вот об изменениях объявили, и легче от этого не стало. Вопросы, чем это грозит людям, занимающимся продвижением в сети, все же остались. Давайте разберемся, что это такое и к чему может привести сей новый алгоритм и так измученных нарзаном и поиском вебмастеров. Также предположим, чем это обернется для моих коллег копирайтеров.
Новый алгоритм Яндекса работает по принципу нейронных сетей. Это современная методика машинного обучения, которая появилась сравнительно недавно. По идее, такая система должна обеспечивать надежное понимание всех редких и невнятных запросов.
Что это
Большая часть запросов, которые делают пользователи интернета уникальны. Причем настолько уникальны, что даже внятную статистику по ним не сделаешь. Образно говоря, все запросы можно подразделить на 3 группы:
• Точные запросы – Яндекс, купить. Таких запросов меньше всего;
• Запросы с ключевыми словами, но достаточно часто повторяющиеся. В качестве примера можно упомянуть недавний пример «Трамп и Клинтон»;
• Длинный хвост уникальных запросов, которые встречаются в поиске Яндекса крайне редко. К таким можно отнести попытки найти фильм по сюжету или ассоциациям, детские запросы.
Вообще, в общей массе запросов третья группа занимает не менее 40%. Это очень большое количество запросов, ответы на которые важно получить пользователям.
Для оценки редких запросов в конце концов было решено использовать принцип нейронной сети. Но, при разработке выяснилось, что академический способ построения такой сети не дает должного эффекта. Изначально специалисты из Microsoft Research предложили использовать для поиска разложение слов на триграммы, что позволяло оцифровывать запросы, и производить поиск среди определенного количества вариантов. В случае с русским языком триграмм всего около 30000. К сожалению, такая схема не могла учитывать все ошибки и опечатки пользователей в полном объеме. В результате, для алгоритма Палех использовали вариант, который использовал сочетание биграмм, слов, триграмм. Это позволило увеличить количество вариантов входного слоя до 2000000. При этом, между всеми рядами поиска (биграммами, словами, триграммами) имеются как линейные, так и нелинейные связи.
После процесса обучения, который включал в себя скармливание системе большого количества различных запросов реальных людей с положительными и отрицательными результатами, новый алгоритм смог показать более высокий показатель поиска релевантных заголовков.
Чем грозит
Итак, мы немного разобрались с особенностями нового алгоритма и принципом его работы. Теперь осталось понять, чем это грозит оптимизаторам и вебмастерам. И на основании анализа нового алгоритма сделать вывод в какую сторону бежать. Хочу отметить, что изложенное далее мое личное мнение, и не является истиной в последней инстанции.
Новый алгоритм по задумке разработчиков будет оценивать страницу по заголовку. То есть правильно прописанные title будут приносить больше пользы, чем это было до этого. Для упрощения разбора последствий разобьем сайты на три группы:
• Коммерческие сайты. Для них ничего не поменяется. Большая часть клиентов приходит по конкретным запросам. Вероятность, что на вас выйдет и сделает покупку клиент, который задал запрос «купить фигню, которая не помню, как называется», ничтожно мала;
• Информационные сайты. Тут нужно будет извращаться и сочинять более релевантные заголовки. Вероятнее всего, ныне действующие сайты просядут по определенным запросам, по другим наоборот возможен рост;
• Сайты, посвященные кино и музыке. Вот тут будет явный выигрыш. Сейчас, на любой запрос (в том числе и бредовый) Яша выдает три страницы форумов и коммерческих страниц. Если алгоритм Яндекса будет работать так, как заявлено, то в первую очередь будут показываться именно нужные человеку сайты. Соответственно, на сайты этой тематики попадет больше поискового трафика.
Вот собственно, как на данный момент я вижу последствия выходки Яндекса.
Копирайтерам
Как и обещал в самом начале упомяну возможные последствия для копирайтеров. Первое, что можно отметить – большая востребованность людей знакомых с LSI. По идее, данный алгоритм должен косвенно поднимать в выдаче сайты, оптимизированные таким методом. Вот собственно и все, чем работа Яндекса грозит пишущей братии.
Хотя, возможно некоторое нашествие на биржах неадекватных заказчиков с ключами, которые «оптимизированы» под новый алгоритм. Но, тут имеется очень эффективный способ борьбы с явлением – просто не брать такие заказы.
Выводы
Собственно, проблем у вебмастеров и оптимизаторов новый алгоритм Яндекса вызвать не должен. Да, возможно придется немного подправить заголовки, ну а новые писать по-другому. Но, все кто работает с поисковой оптимизацией уже привыкли, что правила игры меняются достаточно регулярно.
Спасибо автору за хорошую и полезную статью!!!
Спасибо за отклик! Заходите еще!
Pingback: Что такое Королёв и что он сулит пользователям? | Блог Envybox