+38 (063) 506-24-07 info@textroid.com
Блог

Поисковые монстры рунета против доморощенных оптимизаторов


Поисковые монстры

В 2015м, как и в 2014м ... В рунете лидируют поисковые монстры двух конкурирующих государств. Первая машина, это российский «Яндекс», вторая – американский проект нашего бывшего соотечественника Сергея Брина – Google.

Не так давно обе компании заявили о существенных изменениях в работе алгоритмов поиска, которые серьёзно повлияют на весь русскоязычный сегмент глобальной сети в целом.

Первыми начнут действовать изменения, внедрённые американцами. Google понизит в ранжировании те сайты, которые не оптимизированы для работы на мобильных устройствах, а 15 мая 2015 года, начнут действовать «санкции» от «Яндекса». Под них попадут те интернет-ресурсы, которые для продвижения пользуются SEO-ссылками.

Мы решили вспомнить всю историю эволюции алгоритмов поиска, используемых поисковиками. Как шла борьба с SEO-оптимизаторами начиная с 2008 года и до наших дней.


Яндекс - разборка поисковых неймов

Глядя на эту историю со стороны, может показаться, что россияне поступают просто. Вводят что-то революционно новое, называют в честь какого-нибудь города и, усевшись в удобных креслах с чашечкой кофе, наблюдают за «паникой в муравейнике».



Магадан

Первым мы вспомним алгоритм «Магадан». Его тесты начались 14 апреля 2008. Поисковик научили понимать аббревиатуры, сокращения, транслитерацию. Это сейчас уже никого не удивляет, что яндекс понимает, что между ГТА и GTA нет разницы. А в те времена, было весьма непросто реализовать такую «способность» для поисковых систем.

Также изменению подверглись и несколько других функций. Яндекс начал распознавать переходы от существительного к глаголу. Этому очень порадовались разработчики веб-сайтов. Ещё бы. Теперь клиенты, вбивая «разработать сайт», получали в выдаче не только прямой запрос, но и ссылки, содержащие слова «разработка сайтов». С выходом «Магадана» появились и некоторые сложности в работе сеошников. К примеру, были проблемы с выдачами по многословным запросам. Это привело к усилению конкурентной борьбы по низкочастотникам.

Ещё заметнее это стало после того, как Яндекс проиндексировал миллиард страниц с ресурсов, находящихся на зарубежных хостингах. Если запрос полностью состоял из слов на латинице, это приводило к тому, что в поисковой выдаче было много иностранных сайтов.

Долгожданный для одних и неприятный для других, релиз этого алгоритма состоялся. Произошло это спустя месяц – в середине мая. С его выходом усилилась и конкуренция по продвижению «слов-переходов». В июле появилось дополнение, в котором изменили ранжирование сайтов с учётом уникальности матариалов и других факторов.



Находка

Пока сеошники думали, как бороться с особенностями новой системы поиска, началась работа над следующим алгоритмом. Ему дали имя «Находка» и он имел массу принципиально новых возможностей.

Связано это было с тем, что россияне решили изменить подход к обучению поисковика. Также изменилось в лучшую сторону ранжирование по стоп-словам, предлогам и союзам. Серьёзно доработали и тезаурус. Словарь связей начал теперь понимать, что, если пользователь вводит в строку поиска «АвтоВАЗ», нужно выдавать и «автоваз». В выдаче появились статьи с «Википедии» и других информационных ресурсов.

Подобные изменения были вызваны необходимостью разбавить коммерческие запросы в выдаче информационными. Интернет по мнению руководства компании должен стать разнообразным и интересным, а не погрязнуть в рекламе и «выгодных коммерческих предложениях». Как итог – новый виток конкуренции за место в «топе». Официальный релиз «Находки» состоялся в годовщину теракта в США – 11 сентября 2008 года. Следующее обновление пришлось ждать долгих семь месяцев.

Именно столько понадобилось сотрудникам компании для того, чтобы запустить алгоритм поиска «Арзамас». А к двадцатому августа появилась вторая версия. Теперь поисковик мог работать с гео-зависимостью поисковых запросов.

Поисковик научился весьма сложным действиям. К примеру, был внедрён новый алгоритм снятия омонимии. Чтобы было понятнее, приведём пример.
Например, вы интересуетесь стрельбой. И вводите запрос «стойка пистолет». Вам выдаст несколько ссылок по техникам и правильным стойкам при спортивной стрельбе.

Региональная привязка выдачи стала намного лучше работать. Теперь москвич не волновался, что при поиске такси, ему выдаст контакты челябинских служб. С этого момента появилась возможность регионального продвижения сайтов. Ведь поиск теперь работал в двух направлениях – общем, гео-независимом, и более узком – гео-зависимом.

Благодаря изменениям, региональные компании поднялись в поиске и перестали уступать московским. Сложнее стало молодым сайтам. Чтобы пробиться в топ, им нужно было ждать, пока Яндекс определит гео-локацию. В течение нескольких месяцев специалисты занимались наращиванием ссылочной массы и ждали рассмотрения «Яндексом» заявки на присвоение сайту региональной принадлежности.



Снежинск

К 10 ноября 2009 года анонсировали очередной алгоритм. Но очередным он был лишь номинально. Ведь важность введённых улучшений сложно переоценить.

Новинка получила название «Снежинск» и представляла собой целый пакет серьёзных изменений в архитектуре ранжирования. Во время поиска учитывались тысячи самых разных параметров. Главной «фишкой» стала новая технология «Матрикснет». Это был принципиально иной уровень машинного обучения. Удалось связать огромное количество показателей, которые характеризуют запросы и сайты. Итогом стало значительное повышение релевантности запросов.

Это был первый серьёзный удар по компаниям, занимающимся SEO оптимизацией. Им становилось всё труднее понять принципы работы алгоритмов.
Недовольны оказались не только сеошники, но и владельцы молодых сайтов. Теперь покупка ссылок даже на самых известных площадках не давала того эффекта, который получали сайты с большим стажем. Сложные зависимости привели к нестабильной релевантности выдачи.

С выходом «Снежинска» вновь изменилась система ранжирования гео–зависимых и в особенности, гео-независимых запросов. В частности, многие информационные ресурсы просто вытеснили с первых позиций сайты коммерческой направленности.

К чему это привело? К тому, что теперь даже крупная компания, имеющая представительство в оффлайне, чьи товары, или услуги востребованы населением, оказывалась вне пределов топ-10. Особенно заметно это было на примере



Конаково

В декабре 2009 появилась следующая версия алгоритма под названием «Конаково». Здесь уже работали гео-зависимые запросы более чем в тысяче городов и девятнадцати регионах России. 2010 год стал знаковым для поисковой системы. Во-первых, появился фильтр, который попросту банил сайты, перенасыщенные ключевыми словами. Это едва не положило конец дешёвому копирайтингу. Теперь ценились качественно написанные тексты, которые
бы не попадали под санкции от «Яндекс».



Обнинск

Сентябрь 2010 – «Обнинск». Теперь этот город был известен не только благодаря ныне остановленной Обнинской АЭС, но и потому, что так назвали алгоритм «Яндекса», который нанес ещё один удар по тем оптимизаторам, которые пользовались покупными ссылками низкого качества.
Поиск по гео-независимым запросам стал работать ещё лучше. Объём формулы ранжирования расширили до 280 мегабайт.



Краснодар

Через три месяца был представлен более совершенный поисковый алгоритм от «Яндекс». Здесь минусов практически не было, зато полезных нововведений хватало с головой.К примеру, появилась такая новинка, как «Спектр». Это была технология так называемого разбавления поисковой выдачи. Появилось 60 отдельных категорий, товары, города и т.д. Алгоритм получил название «Краснодар» и имел массу преимуществ. К тому же, теперь начали выделяться модели, названия, имена и прочие ключевые объекты.

Усовершенствовали сниппеты. В них теперь можно было добавлять телефоны и адреса компаний. Также знаковым стал этот момент потому, что «Яндекс» наконец проиндексировал крупнейшую ныне социальную сеть «Вконтакте». Теперь страницы пользователей можно было увидеть среди результатов выдачи.



Рейкьявик

Следующее обновление «Яндекса» появилось в 2011 году. Его назвали «Рейкьявик». С этим моментом был связан один из самых серьёзных успехов. Теперь каждый пользователь получал персонализированную выдачу. Такого раньше никто и представить себе не мог. Ещё один большой плюс – персонализация по языковому принципу. Если вам нужны сайта на английском, их будет отображать в первую очередь. Если же цель – русскоязычный контент, то ресурсы на русском попадут на первую страницу вашего поиска.

Качественно улучшились подсказки по новостным запросам. Их обновляют каждый час. Также появилась выдача результата при вводе математических формул. Поисковик стал намного удобнее для простого пользователя. Теперь каждый мог найти то, что ищет именно в нужно регионе и на нужном языке.



Калининград

Декабрьский релиз 2012 года принёс пользователям много интересны и действительно полезных возможностей. В алгоритме «Калининград» удалось реализовать следующий уровень персонализации. Теперь учитывались интересы пользователя.

Каждый день поисковая обновляет информацию о том, чем интересуется пользователь. Причём, информация эта делится на постоянные интересы и кратковременные. К примеру, пользователь собирает марки, и, время от времени, интересуется запчастями на грузовики. Также, благодаря этому, улучшилась релевантность в тех случаях, когда у термина могло быть несколько значений (книга, фильм, реальный объект, человек, или явление). Поведение пользователя на сайтах, их тематика – всё это складывалось в единую, общую картину, благодаря которой появилась возможность узнать о человеке ровно столько, чтобы выдавать ему в поиске именно то, что он мог искать.

По тому же принципу стали работать и поисковые подсказки. Что касается поисковой оптимизации, то SEO-мастерам пришлось полностью пересматривать свои стратегии. Теперь для успеха требовалось не только включать ключи и ссылки, но и работать над дизайном сайта, контентом, удобством. С каждым днём услуги таких профессионалов становились всё дороже.



Дублин

По сути, алгоритм «Дублин» стал просто усовершенствованием всего того, что пользователи получили с выходом «Калининграда».
Если последний понимал такую вещь, как кратковременные интересы, то новая версия обновляла интересы пользователя каждые несколько секунд. К примеру, вы искали книгу Солженицына «Архипелаг Гулаг», а через пару секунд решили почитать, что же такое «Гулаг». Последующие выдачи будут уже про лагеря, а не литературу известного диссидента. Вышедший в конце мая 2013 года, этот алгоритм стал одним из наиболее совершенных.



Июль 2013. «Острова»

Это изменение носило чисто интерфейсный характер. Добавились интерактивные блоки сайтов, которые работали прямо в поисковике.

Такая возможность позволила к примеру, вводя название киноленты, получать сразу же кинотеатры с расписаниями даже иногда ценами на билеты. Таким же образом ситуация выглядела и с билетами на авиарейсы. Теперь можно было даже записаться к специалисту по каким-нибудь медицинским вопросам, используя то, что вы получаете в поисковой выдаче. Удобная функция не стала особенно востребованной, хотя и имела большой потенциал.



Минусинск

И вот, мы приблизились к последней на сегодня точке на этом пути. Новый алгоритм получил название «Минусинск». Его изменения направлены на борьбу с теми, кто продвигает сайты исключительно SEO ссылками, а не качеством контента. Теперь деньги, которые тратятся на покупку ссылочной массы должны направляться на улучшение материалов на сайтах.

Нововведения войдут в силу 15 мая этого года. Ранее (в 2014) уже была предпринята попытка испробовать этот метод в рамках московского региона. Изменили ранжирование для некоторых запросов коммерческого характера с гео-привязкой к столице. Как заявляют сами сотрудники «Яндекса», массовое использование ссылок сейчас является одним из главных видов спама в глобальной сети.

Руководство компании с удивлением отнеслось к тому, что владельцы многих крупных ресурсов продолжают массово скупать ссылки, не смотря на постоянную работу «Яндекса» на уменьшение их влияния. По мнению сотрудников поисковой системы, это не лучший способ применения бюджета.
История изменения поисковых алгоритмов Google

В Google никогда не стремились делиться секретами. Все изменения в поисковых алгоритмах являются закрытой для публики информацией. Потому работать SEO-специалистам приходится едва ли не наугад, стараясь вычислить, по каким принципам работает система выдачи поисковых запросов.
Поисковая система Брина и Пейджа начала работу в 1997 году, но мы, справедливости ради, начнём всё с того же 2008. В этом году был выпущен алгоритм под названием «Дьюи». Вслед за ним, год спустя появился Google Suggest – подсказки в поисковике.



06.2010 «Кофеин»

Говорят, что кофеин – единственное, что держит на плаву половину бизнеса и IT-индустрии в мире. Сложно сказать, почему в Google так назвали свой новый алгоритм. Но он содержал массу нововведений и его внедрение привело к обновлению половины всего индекса.

Благодаря этому «глотку ароматного кофе», многие бренды получили в выдаче не одну, а сразу несколько строк. К сентябрю появился «живой поиск» – Google Instant. По сути, он представлял собой систему для формирования выдачи в реальном времени на глазах у пользователя. Ещё через два месяца появилась лупа возле результатов поиска – возможность пользоваться предпросмотром сайта.



Панда

Холодная война с сеошниками продолжалась. Пока последние пытались понять принцип работы «Кофеина», в секретных лабораториях Гугла уже создавался новый инструмент – алгоритм «Панда», направленный на изменение ранжирования для сайтов, пользующихся т.н. «чёрными» SEO-тактиками для продвижения. Так в своё время перестали индексировать известный сайт Overstock.com.

Защита интернета от сео-спама началась в самый подходящий момент – день защитника отечества в России, 23 февраля 2011 года. Запуск «Панды» привёл к тому, что около 12% сайтов потеряли свои позиции. И пострадали не только те сайты, которые массово использовали ссылки. Google в целом взялся за качество контента и сайтов, как таковых.

К примеру, «Панда» определяет уникальность контента, его качество, ценность. Так компания ответила на появление в сети огромных объёмов рекламного спама и материалов, копируемых на других ресурсах.

В марте 2011 появилось небольшое дополнение, которое понравилось владельцам аккаунтов в социальных сетях Фейсбук и Твиттер. Это кнопка «+1». Специалисты Google полагали, что это окажет влияние на результаты органической выдачи. В целом, за 4 года мир увидел более двух десятков обновлений алгоритмов поиска Google. Время от времени появляются какие-то мелкие изменения, хотя сотрудники компании заявляли, что «Панду» не обновляли с осени 2014.



2012 год. «Пингвин»

Гугл известен своей борьбой с накруткой. Для этого была создана Page Layout – технология для определения структуры страниц и объёма полезной информации, которая попадает на экраны пользователей. Ранжирование зависит от того, какую площадь имеет полезная информация. Чем она меньше, тем ниже позиция в поиске.

Затем, к февралю 2012, появляется технология определения гео-позиции «Венеция».

Пингвин, запущенный в конце апреля 2012 года, был создан для того, чтобы бороться с большим количеством объективно неестественных обратных ссылок. Действие фильтра затронуло около четверти всех коммерческих сайтов. Цифра эта приблизительная, но даёт возможность понять, насколько серьёзно повлиял новый алгоритм на выдачу.

Чтобы определить авторитет того, или иного ресурса, Google изучали ресурсы, которые на него ссылались. С выходом «Пингвина» к возможностям поисковика добавилось определение авторитетности каждого источника. Теперь ссылочные оптимизаторы оказались бесполезны. Следующим нововведением стало индексирование страниц в социальных сетях. Теперь они появились в выдаче. Ещё один важный шаг – борьба с ключевиками, используемыми в названиях ресурсов. Теперь сайты в духе «починить-карбюратор-дёшево.рф» понизили в выдаче и их владельцам пришлось задуматься о внесении изменений в свою стратегию продвижения.



Алгоритм «Колибри» 26.09.2013

Если и существует по-настоящему «лояльный к пользователю» алгоритм, то это именно «Колибри». Если вы напишете в строке поиска «в каких местах можно остановиться в Риме», то под словом «места» Google поймёт гостиницы и предложит вам различные варианты. Также осенью того же года Google запустили обновление для важного алгоритма Pirate 2.0. Он занимается наказанием сайтов, которые распространяют пиратский контент, нарушая закон об авторских правах.



Армагеддон мы начнём во вторник

«Mobilegeddon» – так назвали пользователи и SEO специалисты систему проверки на совместимость с мобильными устройствами. Про нововведение было объявлено ещё в середине зимы, но запустили алгоритм во вторник, 21.04.2015 года. Теперь в топ выдачи попадут те сайты, которые имеют адаптивный интерфейс, или мобильную версию, удобны при просмотре с экрана смартфона, не имеют излишеств и технологий, которые не поддерживаются рядом операционных систем для мобильных устройств.

Для проверки Google выбрал четыре критерия:
• Удобство шрифтов для чтения;
• Никакого Flash и прочих технологий, которые «работают не у всех»;
• Применение удобного просмотра, который не требует использования горизонтальной прокрутки;
• Гиперссылки должны быть расположены удобно для нажатия.

Уже сейчас говорится о том, что сайты, которые не соответствуют этим требованиям могут потерять до 15% траффика.

Похожие новости


Copyright © 2014-2016 копирайтинг | рерайтинг | контент
Закрыть