На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Sostav.ru

6 подписчиков

SEO: как эволюционировала текстовая оптимизация?

Полина Старостина – старший специалист по поисковому продвижению Rookee – о том, какими все-таки должны быть тексты на сайтах


 

На фоне разговоров о новых алгоритмах Яндекса и бесчисленных советах о том, какими все-таки должны быть тексты на сайтах, предлагаем небольшой экскурс в историю смены фильтров и алгоритмов поисковых систем.

Итак, все, что вам нужно знать о том, как менялись требования к текстам. После прочтения статьи вы сможете лучше понимать представителей интернет-агентств, которые будут предлагать вам свои услуги, сможете поговорить по душам с SEO-специалистом и быть гораздо более объективными при оценке качества текстов на вашем сайте.

Долой предрассудки и сплетни – смотрим, как все устроено на самом деле.

 

Материал подготовила Полина Старостина, старший специалист по поисковому продвижению Rookee.

 

 

 

 

 

 

В начале было слово

В те времена, когда поисковики, да и интернет в целом, только начинали свое существование, главным параметром для оценки релевантности сайта запросу было простое наличие слов на странице. Так были устроены поисковые системы: они представляли собой базу данных, и поиск страниц по запросу пользователя осуществлялся по принципу картотеки или каталога.

Первые позиции в итоге занимали страницы, в тексте которых больше слов из запроса пользователя. Качество выдачи в те времена оставляло желать лучшего: в борьбе за клиентов владельцы сайтов перенасыщали текст ключевыми словами, контент становился тяжелым для восприятия и был совершенно бесполезным для человека.

 

Вступление в эпоху алгоритмов

Ситуация постепенно менялась, и в 1998 году для улучшения качества выдачи Google выпустил алгоритм PageRank. Он оценивал релевантность страницы заданному запросу не только по текстовому контенту, но и по цитированию на других ресурсах (другими словами, количеству внешних ссылок на страницу). Началась эра ссылочного продвижения.

Качество выдачи улучшилось, но владельцы сайтов ударились в другую крайность – старались заполучить как можно больше внешних ссылок. Работа же над качеством контента и текстовой оптимизацией по-прежнему велась в угоду роботам, а не пользователям: чем больше ключевых слов, тем лучше.

PageRank был пионером среди алгоритмов ранжирования. Почти на десятилетие именно текстовые и ссылочные факторы стали базовыми показателями релевантности, а формулы ранжирования лишь определяли вес этих показателей и дополнялись новыми параметрами оценки (уровень плотности ключевиков, объем текста, качество площадок-доноров). С каждым витком развития алгоритмов поисковики стали учитывать не только текстовую и ссылочную оптимизацию сайта, но и дополнительные факторы, в числе которых поведение пользователя, техническое состояние сайта.

 

Google «закручивает гайки»

Но вернемся в начало 2000-х. На сайтах по-прежнему присутствовало много текстов, больше напоминавших перечисление хештегов в Instagram. Вполне нормальным было встретить что-то вроде: «Ассортимент спортивной одежды постоянно пополняется новыми моделями Nike, Adidas, Reebok. Кроссовки, бутсы Nike, спортивные костюмы Adidas, шорты, штаны Adidas, спортивные штаны Nike, футбольные мячи, футболки Nike Вы можете купить в нашем магазине». Чтобы не шокировать пользователей бессвязным набором ключевиков, их скрывали от посетителей сайта: писали белым шрифтом на белом фоне или маскировали стилями CSS. Роботы по-прежнему индексировали такое заспамленное содержимое страниц.

 

В 2003 году Google был щедр на изменения алгоритмов, два из которых значительно изменили подход к текстовой оптимизации сайта. Алгоритм Cassandra стал первым, наказывающим сайты за скрытый текст. За ним последовал алгоритм Florida, значительно встряхнувший выдачу и понизивший переспамленные страницы и сайты с неуникальным контентом. Такие изменения шокировали SEO-специалистов того времени, заставив пересмотреть подход к текстовой оптимизации. Конечно, тексты не стали вмиг более «человеческими», но плотность ключевых слов уменьшилась, а скрытый контент и вовсе почти перестали использовать.

Последователем Florida стал Austin (начало 2004 года). Вслед за Florida он ужесточил наказания за скрытый контент и ссылки, а также за переоптимизацию метатегов.

 

Первые «умные» алгоритмы

Новые изменения не заставили себя долго ждать. В феврале 2004 запущен Brandy – первый алгоритм поисковых систем, который научился понимать синонимы. Это был настоящий прорыв! 

Данную особенность алгоритма можно считать первыми предпосылками LSI (метода индексирования текстового контента, при котором имеют вес околотематичные леммы, синонимы ключевых слов и т. д.). Теперь при оптимизации приходилось обращать внимание на семантическое разнообразие текстов.

Поисковая система Яндекс тоже начинает выпускать обновления алгоритмов ранжирования, но текстовая оптимизация и качество контента еще не являются решающими факторами определения релевантности сайта запросу пользователя.

Google же продолжает усложнять формулу анализа текстового контента сайта и в 2006 году анонсирует изменение, разработанное на основе алгоритма Orion. Поисковая система научилась определять смежные по тематике запросы и предлагать их пользователю в результатах выдачи в качестве похожих – аналог современного блока «Вместе с <запрос> часто ищут», размещенного внизу страницы результатов поиска. 

Эти преобразования не изменили напрямую подход к текстовой оптимизации, но снова указали на способность поисковика анализировать тематику запроса и его синонимы.

С этого момента частота обновления алгоритмов Google снижается, значительных изменений в оценке текстового контента не наблюдается.

А вот Яндекс активно дорабатывает формулу оценки текстовых факторов, что в 2008 году ознаменовал алгоритм «Магадан», который стал расшифровывать аббревиатуры, перевод слов и транслитерацию. Версия алгоритма «Магадан 2.0» сделала уникальность текстов одним из сильнейших факторов ранжирования. Последовавший затем алгоритм «Находка» стал различать запросы в единственном и множественном числе, а также расширил тезаурус (словарь) поисковой системы: научился устанавливать связь между запросами формата «автоваз» и «авто ваз». Такие изменения разгрузили тексты от излишнего использования всех вариаций брендовых названий латиницей и кириллицей, слитного и раздельного написания и многократного использования расшифровок аббревиатур.

 

Сокращаем тексты

Тем не менее в поисковой выдаче по-прежнему присутствовало большое количество сайтов с «портянками» текста: количество слов превышало несколько тысяч. Такие тексты работали на видимость в поиске, но не были полезны пользователю: длинные и бесструктурные, они отпугивали посетителей сайта. 

Начиная с января 2010 года, Яндекс стал понижать в выдаче страницы со слишком объемными текстами. Специалистам снова пришлось пересмотреть методы текстовой оптимизации: они значительно сократили объем контента и начали уделять больше внимания структуре. С запуском алгоритма «Обнинск» в сентябре 2010 года улучшилось определение авторства, что снова увеличило вес такого фактора, как уникальность текстов. А очередное понижение сайтов с ворованным (неуникальным) контентом повлекло за собой массовый рерайт и его уникализацию.

 

Закат эпохи «черной» оптимизации

В феврале 2011 года Google возвращается к анализу текстов и запускает алгоритм Panda, который стал оценивать контент по взаимодействию пользователя с сайтом. Поисковик решил бороться с текстами, которые никто не читает, и начал определять степень вовлеченности при посещении сайта: процент отказов, время визита, уровень вернувшихся посетителей. В выдаче понизились сайты с бедным либо неуникальным контентом, с шаблонными текстами с множеством ключевых слов, содержащими большое количество рекламы, а также контент-фермы, сателлиты и дорвеи. В результате работы данного алгоритма в выдаче могла просесть как одна страница, так и целый раздел или сайт полностью.

В том же 2011 году Яндекс запустил работу фильтра «Ты спамный», который в очередной раз понизил в выдаче страницы с чрезмерным использованием ключевых слов, выделением текста тегом strong или подчеркиванием. 

В 2012 году Google ужесточает наказание за воровство контента, запуская алгоритм DMCA (Digital Millennium Copyright Act). За ним последовало обновление фильтра EMD (Exact Match Domain). Были наказаны сайты, доменное имя которых соответствовало точному запросу, например www.teeth-whitening-in-new-york.com. Таким образом поисковая система указала оптимизаторам, что возможно наказание за использование спама на любом уровне: в текстах, метаинформации, доменном имени. Для выхода из-под фильтра требовалась максимальная уникализация контента и повышение его качества либо даже переезд на новый домен. И хотя использование ключевых лемм в доменном имени по-прежнему положительно влияло на продвижение, покупка домена с точным вхождением ключа со временем становилась все менее популярной.

Эпоха «черных» методов продвижения заканчивалась: теперь для попадания в ТОП в любом случае необходимо было комплексно работать над качеством сайта и его удобством.

 

Новые технологии

В 2016 году Google подключил к действующему алгоритму самообучающуюся систему RankBrain – эдакий искусственный интеллект. На основе анализа общего смысла контента, а не слов по отдельности, он позволил строить выдачу, более тонко соответствующую запросу пользователя. В этом же году Яндекс запустил алгоритм «Палех», основанный на работе нейронных сетей. Анализируя смысл запроса пользователя, а не отдельные слова, он может ранжировать страницы, у которых нет вхождений ключевых слов в title страниц, но которые, тем не менее, по смыслу ему близки. Например, по запросу «клип с космонавтом на вечеринке» в выдаче будут ссылки на клип песни «Stole the show». Данные изменения Яндекса и Google во многом были связаны с возросшей долей многословных уникальных запросов пользователей, большая часть из которых задается через голосовой поиск.

С этого момента все больше оптимизаторов отходят от привычного заполнения метатегов с использованием максимального количества ключевых слов, а наиболее дальновидные и опытные SEO-специалисты делают ставку на общую релевантность страницы в целом и «человечность» контента.

В 2017 году Яндекс запустил алгоритм «Баден-Баден», который понижает в выдаче страницы или сайт целиком за переспам ключевыми словами и неестественные словосочетания. Произошли значительные перестановки в выдаче. Вероятность понижения всего сайта заставила многих оптимизаторов переработать тексты, отказавшись от точного вхождения многословных ключей и «фальшивых» речевых оборотов, например: «Ознакомившись с ассортиментом, Вы сможете купить недорогие женские сумки в интернет-магазине с доставкой в Москве». В августе этого года Яндекс представил алгоритм «Королев», который вслед за «Палехом» формировал выдачу для многословных запросов на основе семантического анализа всего контента страницы, содержания изображений, запросов, по которым пользователи переходили на страницы, и пр.

Чего нам ждать в ближайшем будущем? С учетом того, какими темпами происходит освоение и внедрение технологий машинного обучения и нейронных сетей, можно с уверенностью говорить, что поисковые системы будут все лучше распознавать содержание сайта и его окружение (переходы, рекламные кампании и пр.) и сопоставлять все это с множеством данных о поведении пользователей.

 

 Подводя итоги

Тенденции последних лет указывают на то, что основным вектором развития сайта должна быть его информативность и польза для человека. Это касается и текстовой оптимизации: прежде всего контент должен быть уникальным, интересным и полезным для того, кто будет его читать. 

Параметры оценки текстовой составляющей значительно изменились, и теперь плотность ключевых слов или объем текста имеют меньший вес. Хотя это, конечно, не значит, что можно абсолютно забыть про анализ плотности ключей и объема текста – это не единственные факторы ранжирования, но по-прежнему одни из ключевых, при этом оптимальные показатели варьируются с учетом тематики, региона или поисковой системы. Определить приемлемые для вашего сайта объемы текстов и плотность ключевых слов позволит анализ конкурентов в ТОПе выдачи.

Тем не менее, приступая к поисковой оптимизации, вы не должны мыслить, как поисковый робот. Важно всегда держать в голове несколько вопросов: а стал бы я сам читать этот текст? Был бы он интересен, легок для восприятия, понятен? Нашел бы я в нем ответ на свой вопрос? Продолжил бы взаимодействие с сайтом? Совершил бы целевое действие?

Текст теперь не просто обязательный элемент сайта, а один из важнейших инструментов улучшения пользовательского опыта. Поэтому не забывайте:

  • заботиться о лексическом разнообразии;
  • использовать визуализацию материала (больше инфографики, изображений, схем);
  • играть со стилем и речевыми оборотами – вовлекать пользователя в чтение, вызывать интерес;
  • создавать действительно познавательный материал, который будет цеплять пользователя.

 

Ссылка на первоисточник

Картина дня

наверх