+7(343) 344-34-20
г. Екатеринбург, ул. Горького,
дом 65, офис 296
Online-заказ

От «ключей» до «Минусинска»: 20 лет SEO-продвижения

4 Января 2016

Уходящий год был богат на обновления, заставившие оптимизаторов искать новые пути в ТОП. В ностальгически-новогодней статье расскажем, как изменялись алгоритмы поисковых систем в прошлом, и каким может стать продвижение будущего.

В начале времен

Создатели первых сайтов вряд ли предполагали, с какими трудностями столкнутся их последователи. Количество сайтов неуклонно росло, каталогов стало недостаточно, а желающих рассказать о себе миру не становилось меньше. Но поисковые системы, появившиеся в середине 90-х годов прошлого века, были призваны всего лишь структурировать информацию и облегчить ее поиск. В 1994 году таким помощником стал Yahoo, в 1997 году к нему присоединились Google и Яндекс.

В те годы поисковые системы принимали во внимание только ключевые слова и мета-теги title и description. При этом индексация проводилась редко и медленно, так что сайт, рекламирующий «самые коньковые коньки из всех коньков», мог держаться в ТОП довольно долго. Учитывались и внешние ссылки – чем больше их было, тем выше ранжировался сайт. Словом, почва для будущих методов продвижения и вызванных ими фильтров поисковых систем была подготовлена сразу.

Долго это продолжаться не могло. В начале 2000-х Google вышел на тропу войны с недобросовестными владельцами сайтов и оптимизаторами и начал понижать позиции страниц, изобилующих ключевыми словами. Но внешним  ссылкам поисковик по-прежнему придавал большое значение – первый и единственный на тот момент алгоритм PageRank Google оценивал только количество ссылок. О качестве пока речи не шло.

Яндекс заметно отставал от своего зарубежного собрата, но и ситуация на просторах русскоязычного интернета была не столь плачевной. В будущем, когда доступ в сеть стал возможен почти для всех, настало время для обновлений и этого поисковика. С 2008 года развитие Google и Яндекса шло разными темпами, но в одном направлении.

Google: «Панда» и другие «звери»

Борьбу с нерелевантными текстами поисковик начал еще в 2003 году, обновив алгоритм Florida. Под фильтр попали тысячи сайтов – алгоритм не только обнаруживал страницы, изобилующие «ключами» и анкорами, но и распознавал измененные и написанные с ошибками слова. Следующие обновление – Ostin – было нацелено против невидимых текстов и ссылок (белые буквы на белом фоне). Дальше – больше. Новые алгоритмы формировали поисковую выдачу по смежным тематикам запроса, учитывали при ранжировании сайта негативные отзывы, ужесточали оценку релевантности текста.

И вот, в декабре 2011 года около 12% сайтов неожиданно потеряли позиции в поисковой выдаче – был запущен новый алгоритм ранжирования «Панда». Поскольку Google никогда не афишировал схемы работы системы, cначала многим показалось, что санкции накладываются за обилие посторонних ссылок, но впоследствии стало ясно, что алгоритм учитывает больше факторов. «Панда» оценивала качество контента по многим параметрам  - уникальность, ценность, релевантность запросу. Следующие четыре года Google регулярно обновлял алгоритм, и последний апдейт, по словам представителей поисковой системы, был проведен в октябре 2014 года. В помощь «Панде» в 2012 году была разработана технология Page Layot, созданная для оценки количества полезного текста на странице.

Решив проблему контента, Google взялся за внешние ссылки. 24 апреля 2012 года появился алгоритм «Пингвин» - и позиции потеряли уже около 25% коммерческих сайтов. Теперь оценивалось не количество ссылок, а качество ресурса-источника. Параметры оценки озвучены не были, но и без комментариев представителей Google стало понятно: время покупных ссылок закончилось. Впрочем, у русскоязычного сегмента интернета еще оставалось три года до запуска «Минусинска».

И, наконец, в сентябре 2014 года на поиск ресурсов «вылетела» «Колибри». Этот алгоритм умеет искать сайты, отвечающие на длинные запросы, не всегда содержащие точную ключевую фразу. В результате запуска новинки изменились позиции почти всех сайтов (около 90%), и оптимизаторам пришлось вплотную заняться тщательной проработкой семантического ядра.

Яндекс: игра «в города»

Введение новых алгоритмов, начавшееся в 2008 году, было нацелено на улучшение поисковой выдачи. Поисковик планомерно работал над максимальным соответствием результатов поиска запросу пользователя. Такие нововведения не приводили к наложению фильтров, но порой значительно затрудняли путь в ТОП по определенным запросам.

Первым стал алгоритм «Магадан» (2008 год), умеющий распознавать формы слов, аббревиатуры и англоязычные запросы. Теперь система находила страницы по многословным запросам, не учитывая расположение слов в тексте – они могли быть значительно удалены друг от друга. В результате по одному запросу могло быть найдено большое количество информационных и коммерческих сайтов, при этом первые позиции порой занимали не релевантные, а авторитетные ресурсы. Продвижение по высокочастотным запросам затруднилось, и ссылочный вес стал играть большую роль. Расширять результаты поиска продолжил алгоритм «Находка».

Уже в следующем, 2009 году, появился «Арзамас». Теперь запросы стали разделяться на гео-зависимые и гео-независимые. С одной стороны, продвижение сайтов стало проще – пропала необходимость конкурировать с московскими сайтами, занимающими первые позиции выдачи. С другой – путь в ТОП для молодых сайтов усложнился, и для того, чтобы Яндекс заметил и оценил ресурс, снова приходилось активно наращивать ссылочную массу.

Дело предшественников продолжил алгоритм «Снежинск», объединивший все доступные на тот момент факторы ранжирования. Далее Яндекс продолжал выпускать алгоритмы, призванные сделать выдачу наиболее релевантной, хотя от некоторых нововведений оптимизаторы коммерческих сайтов были не в восторге: информационные ресурсы часто занимали высокие позиции, а представители Яндекса, хотя и говорили о необходимости учитывать качество предлагаемых товаров и услуг, на деле продвижению не помогали.

Прорыв случился в 2011 году. Новый алгоритм «Рейкьявик», почему-то названный в честь исландской столицы, начал формировать персонализированную выдачу, основываясь на предыдущих запросах пользователя. Алгоритм выбирал и язык сайтов. В результате ресурсы, продвигавшиеся по английским ключевым словам, внезапно стали конкурентами зарубежных сайтов. Подстраивать результаты выдачи под интересы пользователя продолжили алгоритмы  «Калининград» и «Дублин», выпущенные в 2012 и 2013 годах. Теперь система учитывала недавние запросы и меняла результаты выдачи в реальном времени.

Наконец, в 2015 году Яндекс добрался до внешних ссылок и ударил по сайтам алгоритмом «Минусинск». Конечно, качество ссылочной массы и до этого оценивалось обновлениями фильтра АГС, но новинка уходящего года резко изменила подход к продвижению сайтов. Логичным дополнением к «Минусинску» выступило обновление АГС «минус минус». Теперь от покупных ссылок страдали все – и покупатели, и продавцы.

Взгляд в будущее

В том, что поисковые системы продолжат начатую борьбу за полезные сайты, сомневаться не приходится. Уже сейчас ясно – без релевантного контента, удобной навигации и адаптивного дизайна коммерческим сайтам рассчитывать не на что.

Какие нововведения предложат Яндекс и Google – неизвестно. Российский поисковик пока экспериментирует с рандомной выдачей, искусственно поднимая и понижая позиции страниц по собственной схеме. Google по-прежнему крайне неохотно раскрывает тайны ранжирования и планы на будущее. По осторожным предварительным прогнозам, ждать нужно ужесточения отношения к неудобным и неадаптированным к мобильным устройствам сайтам с неуникальными текстами (а такие все еще существуют!).

Словом, все, кто занимается продвижением сайтов и те, кто заботится о повышении конверсии в ecommerce, в новом году скучать не будут.


От «ключей» до «Минусинска»: 20 лет SEO-продвижения

 
ссылка на эту статью:

Обратная связь

Нажимая "отправить" я соглашаюсь на обработку моих персональных данных
Положение об обработке персональных данных