+7(343) 344-34-20
г. Екатеринбург, ул. Горького,
дом 65, офис 296
Online-заказ

Как Яндекс и Google «мешают» SEO: нейронные сети, персонализация и поиск смысла

19 Июля 2017

В стремлении предоставить пользователям наиболее точные ответы на любые запросы поисковые системы совершенствуют алгоритмы, борются со спамом и усложняют путь в ТОП-10. Какие идеи развивают Яндекс и Google, и что необходимо учитывать уже сейчас, расскажем в статье.

Семантический поиск: найти все

Появление этой технологии напрямую связано с бурным развитием сети Интернет. Когда-то для поиска нужного документа достаточно было слов. Но документов становилось все больше, и возникла необходимость определять их значимость. Далее, с появлением возможности продавать в сети и с ростом числа мошенников, умеющих манипулировать поиском, пришлось разрабатывать алгоритмы, умеющие отделять зерна от плевел на основании множества факторов.

Но и пользователи оценили возможности сети и захотели узнавать все больше и больше. По данным Яндекса, до 40% запросов уникальны, то есть задаются кем-то один раз и не повторяются в течение статистически значимого периода. Разнообразие точных и неоднозначных формулировок, желание получить краткую справку или подробную информацию, наличие в языке омонимов – эти проблемы призван решить алгоритм семантического поиска.

Концепция сущностей

Суть в том, что нейронная сеть обучается понимать смысл слов и выявлять связь вещи и ее характеристик. Не будем вдаваться в технические подробности, скажем только, что для правильной оценки сайта машинным интеллектом крайне важно структурировать данные о нем и использовать микроразметку Schema.org.

Это нужно для того, чтобы предоставить пользователю точные ответы на запросы, даже если во введенной в строку поиска фразе нет ни одного ключевого слова. Также алгоритм используется для предложения информации, связанной с предыдущим запросом. На сегодняшний день для этого созданы:

  • Граф знаний Google (Knowledge Graph). Алгоритм был представлен в 2012 году. Его задача – найти наиболее точный ответ на запрос. Как правило, это определение или описание вещи, и чаще всего оно взято из Википедии. В результате пользователь сразу узнает нужную информацию, и ему уже не нужно переходить на сайт. С одной стороны, дана возможность создать страницу, которая может попасть в блок Графа знаний и таким способом попасть на позицию над первой строкой ТОП. С другой стороны, по ряду информационных запросов шансов победить Википедию почти нет.
  • RankBrain. В 2015 году алгоритм стал частью основного алгоритма ранжирования, но его задача – понимать неоднозначные запросы пользователей, а не формировать ТОП. Тем не менее, его присутствие игнорировать не стоит: если алгоритм соотносит содержание запроса и текста, значит, косвенно влияет на шансы страницы попасть в список ответов.
  • «Палех». В 2016 году Яндекс представил собственную разработку на основе машинного обучения нейронной сети. Этот алгоритм призван находить ответы на самые разные запросы, в том числе на уникальные и содержащие только описание вещи, но не ее название. К слову, Google тоже способен отвечать на подобные запросы.
  • Голосовой поиск. Такая система не смогла бы работать без технологии распознавания естественного языка, формулировки которого порой существенно отличаются от привычных ключевых фраз.

Благодаря развитию семантического поиска и совершенствованию алгоритмов оценки контента, стало возможным убрать с высоких позиций переоптимизированные страницы и спам, заполнив ТОП полезными ссылками и предлагая ответы даже на запросы вида [штука которой в кино чистили  ковер от кофе под музыку нирваны].  По крайней мере, в теории.    

Очевидна и обратная сторона медали: привычный метод наполнения страницы ключевыми словами для продвижения в ТОП стал бесполезным. Имеет значение не только привлекательный заголовок, но и содержание страницы, не просто ссылка, а ее соответствие контенту. И, разумеется, «побег» пользователя с нерелевантной страницы не окажется незамеченным.

Персонализация: найти для каждого

Поисковые системы знают о нас достаточно много, чтобы формировать индивидуальную выдачу. Разумеется, это сделано исключительно для нашего удобства, и зачастую действительно срабатывает. Например, сложно отрицать пользу автоматического определения геопривязки, когда нужно найти кафе или салон связи. Имеет значение и история поиска. Алгоритм понимает, что по запросу «гладиолус» домохозяйка, скорее всего, ищет цветок, а любитель юмора – выступление команды КВН.

Поэтому при оценке позиций сайта важно понимать, что на разных компьютерах и даже для разных учетных записей в одном браузере выдача будет различаться. Об этом стоит помнить и при продвижении: отсутствие информации, которая может пригодиться при формировании персональной выдачи, снизит шансы на попадание в ТОП по определенным запросам.

Что делать?

Поисковые системы планомерно подводят каждого владельца сайта к мысли о необходимости честного продвижения и создания полезного и интересного контента. Творческих вопросов в этой статье мы касаться не будем, а вот техническим нужно уделить внимание:

  • Заполнение метатегов, карты сайта и файла robors.txt, использование микроразметки Schema.org. и грамотная расстановка редиректов помогут поисковым роботам правильно оценить качество сайта и быстро его проиндексировать.
  • Ключевые слова, конечно, нужны, но в разумном количестве. Поисковики учатся понимать содержание текста, оценивая наличие синонимов и терминов, устоявшихся для тематики словосочетаний. Поэтому на первое место выходит написание полезных, информативных текстов и статей, по методу LSI-копирайтинга или просто для людей (но все-таки с заполнением метатегов, о которых подробно рассказано здесь: http://promoteh.ru/articles/_aview_b422).
  • Ссылки с авторитетных ресурсов по-прежнему актуальны, равно как и ссылки, которыми честно делятся пользователи в социальных сетях и в обсуждениях.
  • Информация о компании должна быть максимально полной: важны геопривязка, время работы, наличие бесплатной или срочной доставки и другие сведения, которые могут использоваться при выборе.

И, конечно, не стоит забывать про пользовательский опыт: сайт сам по себе должен быть удобным и приятным во всех отношениях.

Вывод: и снова СДЛ

«Сайты для людей, а не для поисковиков» – главная идея, которую не первый год пропагандируют Яндекс и Google. И с каждым днем все важнее следить за нововведениями, чтобы не попасть под санкции, не потерять позиции и опередить конкурентов в ТОП.


Как Яндекс и Google «мешают» SEO: нейронные сети, персонализация и поиск смысла

 
ссылка на эту статью:

Обратная связь

Нажимая "отправить" я соглашаюсь на обработку моих персональных данных
Положение об обработке персональных данных