+7 (915) 573-59-20 info@xn----7sbggftcagghwjeghpl3bh8p.xn--p1ai

Влияет ли установка Яндекс.Метрики на попадание в ТОП поисковой выдачи

В SEO весьма много математики, автоматизации и аналитики, но поисковая оптимизация всё равно иррациональна и располагается в пространстве веры. «Непрерывность SEO-предания» включает, к примеру, зависимость ранжирования от наличия на сайте кодов Яндекс.Директа, Яндекс.Метрики, а также используемой CMS. Кое-что из таких мифов подбрасывает и сам Яндекс: к примеру, о влиянии на выдачу интернет-магазинов карты проезда в офис, указания городского (в смысле немобильного) телефона и т.п. В разрезе «кто получает хороший поисковый трафик» интересно было бы найти (или не найти) корреляцию с заявленными (в первую очередь Яндексом) коммерческими факторами: социальными кнопками, онлайн-консультантами, наличием разных способов связи (Skype, ICQ), телефонов 8-800-…, формы «Обратный звонок».

Инструмент для этого есть: для краулера Openstat не составляет большого труда проверить пяток перечисленных гипотез, а после некоторого дописывания — и всех перечисленных. Краулер Openstat с прошлого лета индексирует весь Рунет, а также Байнет, Уанет и сайты других доменных зон, куда массово ходят российские пользователи. Главное назначение этого «паука» собирать сигнатуры счетчиков, рекламных систем, онлайн-консультантов и прочих систем. И попутно он фиксирует доступные технометрики сайтов. Краулер работает со всеми активными доменами второго уровня и индексирует не только начальные страницы, как другие подобные инструменты, но и внутренние страницы. А, скажем, карты на сайт можно скорее обнаружить на втором уровне сайта, чем на «морде». Но про влияние карт будет другая статья, а первым исследуемым параметром по выбору редакции Searchengines.ru стала Яндекс.Метрика.

По данным Openstat получилось, что в Tоп-50 сайтов из рейтинга seorate.ru (только Яндекс) попадают 70-80% сайтов (зависит от категории), на которых присутствует Яндекс.Метрика. Ниже приводятся Топ-10 сайтов в Яндексе в каждой категории и количество сайтов в них в целом по Рунету (по данным Openstat), а также процентное соотношение сайтов с Яндекс.Метрикой. Доля последних — обычно 25-30%.

Тривиальный вывод: для лидеров коммерческих тематик в поисковой выдаче Яндекса может иметь значение наличие Яндекс.Метрики.

Наиболее осмысленный вывод, который тут получается сделать: размещать Метрику бояться не надо. А более высокий процент, скорее всего, связан с тем, что хорошую видимость получают те сайты, которые над этим работают, в том числе, анализируют статистику.

Побочным результатом этого и другого отраслевого исследования Openstat стала такая таблица: удалось совместить большинство тематик, потому что в том другом исследовании, которое я оставляю за кадром, использовался ашмановский анализатор тематик.

Сайты с первых позиций в Яндексе по некоторым тематикам и Яндекс.Метрика.

С учетом того, что наличие Яндекс.Метрики регулярно разбавляет Википедия, среди лидеров ее хватает.

И если аналитику позволено личное замечание, то скажу, что вот всегдашний пример — мета-теги. Уж сколько лет их якобы не учитывают, а открой сайт из первой десятки, так мета-теги почти всегда аккуратно заполнены, и я тоже всегда заполняю.

Продолжение последует. А поскольку один параметр в аналитике не дает делать однозначные выводы, уместно исследование других факторов.

«8P 2014»: Яндекс, Google, медийная реклама. Неочевидные хитрости

Сегодня, 12 июля 2014 года в Одессе в четвертый раз проходит конференция «8Р: Бизнес в сети», организованная компанией Netpeak, посвященная актуальным тенденциям и трендам интернет-маркетинга.

Открыл конференцию Артем Бородатюк, генеральный директор компании Netpeak, который поприветствовал всех собравшихся и предупредил, что сегодня, в течение одного дня слушателей ждут 33 доклада на 4 потоках конференции: Истории бизнеса, Фишки для специалистов, Кейсы и Мастер классы. Он также рассказал о подготовке мероприятия, о том, как организаторы приложили большое количество усилий для того, чтобы конференция получилась максимально полезной для слушателей, а также пожелал не стесняться и задавать вопросы докладчикам и знакомиться между собой.

В потоке «Фишки для специалистов» участникам предлагалась прикладная информация о нетривиальных и эффективных приемах интернет-маркетинга для специалистов. Это значит, что все доклады содержат какую-то новую информацию о получении максимальной пользы от различных инструментов интернет-маркетинга, то есть, о конкретных фишках, использование которых позволяет увеличивать рентабельность вложений в интернет-маркетинг.

Первым в этом потоке выступил Станислав Ставский, руководитель группы в отделе маркетинга Lamoda, с рассказом о том, что изменилось за последний год в продвижении под Яндекс. Докладчик представил подробный разбор и анализ последних событий в индустрии, а также дал несколько практических советов специалистам. Особое внимание Станислав уделил отключению ссылок, новым (и старым) системам накрутки ПФ, шифрованию рефереров Яндексом и погружению в Я.Метрику.

По словам докладчика, анализ продвижения сайтов в Sape показал, что динамические ссылки не работают. От их снятия не падают проекты, а от простановки не растут.

Статические ссылки-картинки для роста статического веса работают в минус, то есть их снятие приводит к росту видимости. Все идет к тому, что скоро мы будем работать в условиях поиска без ссылок.

Как же быть без информации из текстов ссылок, без статических ссылочных факторов, без trast и spam ранков?

Выход очевиден – замена ссылок на пользовательские характеристики. Однако здесь появляется еще одна проблема – новые сайты. Эксперименты показывают, что покупка трафика, даже некачественного, и социальных сигналов заметно улучшает видимость новых страниц. Если трафик перестать покупать, то видимость падает, но не очень значительно.

Что же касается накрутки поведенческих факторов, то она сейчас существует 3 видов: пользовательские задания, легальный софт с центром управления, ботнеты. И определяется поисковыми системами с разной скоростью. Пользовательские задания отсеиваются очень быстро, ботнеты — чуть сложнее, на это ПС требуется несколько месяцев, а пользовательский софт, который скрыто посещает сайты от имени живого поведенческого профиля, до сих пор фильтруется плохо и долго.

Станислав рассказал о результатах эксперимента, проведенного с целью проверить влияние запросного индекса на ранжирование. Для этого было собрано максимальное количество запросов, близких к топу, был проверена их частотность, а также были просмотрены запросы в Я.Метрике. Затем было рассчитано, на сколько увеличились показатели, и были отобраны наиболее выгодные варианты запросов. В результате – через несколько месяцев был отмечен рост нескольких ВЧ запросов до топ-10.

Накрутка запросного индекса с помощью пользовательского софта по низкочастотным запросам, близким к топу, пока приводит к росту по высокочастотным запросам. Но Станислав не рекомендует экспериментировать с сайтами, которые дороги сердцу вебмастера, так как бан за накрутку ПФ — дело времени.

Выводы. Для максимизации времени до бана антиспамом, важно:

  • Не использовать дорогой кошельку и сердцу домен
  • Не использовать пользовательские задания
  • Не проводить изменений на сайте параллельно с экспериментом
  • Не останавливаться -)

Относительно шифрования запросов в Яндексе и Google Станислав сообщил, что оно значительно усложняет связь статистики с бизнес-показателями. Но Метрика позволяет связывать пользовательские данные логов и метрики.

Нюансы работы с Метрикой:

  • Метрика учитывает только один, первый запрос за сессию пользователя (30мин)
  • Метрика позволяет «пушить» пользовательские переменные в статистику и связывать ее с логами
  • В API 2.0 появилась поддержка конструктора запросов и синтаксиса Google analytics API

Далее Виктор Карпенко, руководитель SeoProfy, рассказал о продвижении под западные рынки и о том, что нужно знать про SEO перед выходом на англоязычный рынок.

Главной задачей продвижения на запад было и остается получение самого дешевого трафика. Однако и здесь не все так просто, потому что стратегия одна, а подходы и методы постоянно меняются. Google диктует свои правила, которые определяются различными фильтрами: Пингвином (обратные ссылки), Пандой (контент сайта) и Колибри (связи).

Сегодня, вместо внутренней анкорной перелинковки теперь нужно пускать трафик на страницы, сделать их хорошо заметными или накрутить. Первое, что приходит на ум – черное SEO. Докладчик утверждает, что дорвеи и покупка ссылок на бирже или в приватных сетях работают быстро, но не долго. Чем меньше ссылочный «взрыв», тем более вероятно, что сайт будет расти медленнее, но останется в топе надолго:

Сегодня в черном SEO популярны:

  • Арендованные ссылки (SAPE)
  • Арендованные – приватные сети
  • Ломы
  • Прогоны (Хрумер, другие)

Большинство боится использовать эти методы (и правильно), поэтому контент сейчас стал основной валютой, и для больших брендов контент-маркетинг сейчас работает очень хорошо, важно уделять большое внимание его подготовке, оптимизации и распространению.

Ссылки тоже нужны и их нужно много. Покупка — это дорого и хороших ссылок не хватает, но есть такие источники, вроде информационных агентств, откуда удачный повод будет скопирован многократно, со ссылками, по которым будет трафик. Так же работают блоги и форумы, социальные сигналы пока работают слабо.

Также докладчик сделал акцент на том, что для того, чтобы писать хороший контент, нужен носитель языка. Даже тот, кто очень хорошо знает иностранный язык, слишком академичен, и за ним нужно хотя бы проверять. И обязательно делать акцент на сильных страницах.

Сильная страница это:

  • Количество слов 2500+
  • Примеры
  • Не стандартный подход

Например, вот такая — http://www.nerdfitness.com/blog/2010/10/04/the-beginners-guide-to-the-paleo-diet

Дмитрий Панасюк, сервис-директор StarLight Digital Sales, рассказал о неочевидных моментах в медийной рекламе. Докладчик просто уверен, что каждый из видов рекламы решает свою задачу, поэтому поисковая реклама никогда не заменит классическую медийную рекламу, основными преимуществами которой являются идентификация бренда и формирование спроса.

Дмитрий считает, что e-commerce игрокам необходимо заботиться о долгосрочной перспективе развития бренда, формировать его положительное восприятие, а в этом, как и в вопросах формирования спроса в целом, медийная реклама по-прежнему остается незаменимым инструментом.

Очень важную роль играет контентное окружение баннера, поэтому, выбирая площадки для размещения медийной рекламы, нужно отдавать предпочтение известным ресурсам с лицензионным контентом, это позволяет повысить уровень доверия к вашему бренду.

Эксперименты с форматами помогают показать товар максимально привлекательно, ведь технически сегодня фантазия мало чем может быть ограничена. Однако исследования показывают, что видеореклама эффективнее более традиционных форматов, но нужно учитывать специфику интернета. Эффективность зависит от креатива, самое важное должно быть в самом начале ролика, ну и конечно важно и нужно, следить за обратной связью.

На данный момент можно сэкономить, используя мобильную рекламу, так как мобильного трафика много, и он пока, в отличие от Запада, продается без наценки по отношению к десктопному.

В Украине сегодня мобильный трафик существенно недооценен. Уже есть довольно приличная мобильная аудитория, но еще нет почти никаких измерений. Поэтому FMCG бренды еще не используют широко этот медиа-канал в своей коммуникации. Для остальных игроков это означает, что есть уникальная возможность воспользоваться незанятой крупными игроками нишей. На рынке Украины, в отличие от мирового опыта, нет наценки на мобильный трафик, и стоимость контакта с мобильной аудиторией пока не отличается от обычной цены.

Следите за нашими дальнейшими публикациями с места событий

Актуальные факторы ранжирования

Эволюция первых приматов в человека заняла миллионы лет. На эволюцию технических новинок уходят десятки лет. А вот эволюция программных продуктов проходит намного быстрее. Не являются исключением и поисковые системы, скорость их развития – поражает «приматов». Поисковики развиваются в разных направлениях, это и скорость, и рекламные инструменты, и дополнительные сервисы, но, пожалуй, самое главное – это качество поиска. Для этого ПС должна находить в сети лучшие связки «запрос-ответ» и выстраивать (ранжировать) сайты от более подходящего (релевантного) к менее подходящему. Если первые алгоритмы ранжирования учитывали только наличие ключевых слов на искомой странице, то сегодня они учитывают сотни факторов.

Как сейчас происходит ранжирование сайтов в ПС

Если упростить модель, то помимо внутренних факторов, таких как релевантность контента ключевому слову на самом сайте, уровень технической подготовленности сайта и т.д., применяется комплексный подход, то есть:

1) Ранжирование страниц по авторитетности (пример — принесший Google популярность алгоритм PageRank)

2) Поведенческие факторы (анализ действий реальных посетителей реальных сайтов)

3) Машинное обучение (пример — «Матрикснет» Яндекса, который обучает алгоритмы оценками выборок специалистов-асессоров, ну и, по сути, увязывает и уравновешивает первые два подхода и внутренние факторы)

В своих докладах Wizard очень много внимания уделяет только первой группе факторов (ссылочным факторам). В этот раз мы решили отойти от этой традиции и с помощью объективных данных рассказать о влиянии поведенческих факторов на ранжирование сайтов. Пожалуй, это один из самых острых вопросов сегодня (особенно в свете последних событий). Для того чтобы немного разобраться в этом вопросе, мы проанализировали следующие данные:

1. Сайты, продвигаемые в системе Wizard от 7 месяцев.

7 месяцев – достаточный срок для наращивания и индексации эффективной ссылочной массы, внесения изменений на сайт и выхода в ТОП по большей части СЧ и НЧ запросов. В связи с тем, что все сайты продвигаются в одной системе – Wizard.Sape, ссылочное у них будет примерно на одном уровне, не смотря на то, что у нас сотни разных стратегий, но источник ссылок один – база SAPE.

Итак, мы условились, что ссылочное одинаковое, но некоторые сайты в ТОПе, а другие нет. Почему? (Один из самых частых вопросов в службу поддержки: «Почему я не в ТОПе?»)

Благодаря тому, что многие сайты подключают системы аналитики и статистики, мы смогли выгрузить некоторые данные поведенческих метрик, о которых и пойдет речь.

В системе Wizard продвигается более 50 тысяч сайтов. У 23% проектов в системе подключены системы статистики и аналитики (Я.Метрика). Более того, многие сайты конкурируют по одним и тем же запросам, но находятся при этом на разных позициях. Всего оценивалось более 250000 поисковых запросов.

Разделение поисковых запросов

Для объективной оценки анализируемых данных, мы разделили запросы на 3 основные группы: ВЧ (высокочастотные), СЧ (среднечастотные) и НЧ (низкочастотные). Дело в том, что в среде оптимизаторов есть мнение, что разные факторы ранжирования имеют разную степень воздействия, в зависимости от типа поискового запроса. Так, например, считается, что в области ВЧ – поведенческие факторы более значимы, а в области НЧ – более значимы внутренние и ссылочные факторы ранжирования. Проверим.

Запросы разделились следующим образом:

• ВЧ – от 10000 показов в месяц.

• СЧ – 1000-10000 показов в месяц.

• НЧ – менее 1000 показов в месяц.

Анализ поведенческих метрик

Возглавляет список поведенческих метрик – CTR. С него и начнем. (CTR – соотношение количества показов и переходов на ваш сайт, иными словами, как часто кликают по вашей ссылке в поисковой выдаче).

Распределение данных по группам поисковых запросов:

В области ВЧ-запросов

Средняя позиция в поисковой выдаче – 5,5

В области СЧ-запросов

Средняя позиция в поисковой выдаче – 4,4

Интересно отметить, что позиция у сайтов увеличилась всего на 1, но CTR вырос более чем в 2 раза. Напрашивается вывод: в этом диапазоне люди больше прокликивают выдачу. Видно, что CTR запросов тех сайтов, которые не находятся на первой странице результатов поиска, так же увеличился. По сравнению с ВЧ запросами, пользователи чаще переходят на следующие страницы результатов поиска.

Глядя на эти цифры, легко моделируется ситуация, когда пользователь по ВЧ-запросу не нашел нужную информацию. Вместо листинга страниц, он предпочитает изменить запрос (уточнить его) до СЧ. И уже тут, не найдя ответ на свой вопрос, посетитель переходит на другие страницы результатов поиска. Ну не научился поисковик еще читать мысли по общим поисковым запросам.

В области НЧ-запросов

Средняя позиция в поисковой выдаче – 4,6

В области НЧ запросов, цифры выросли. По большому чету никаких сюрпризов, и все достаточно закономерно. Но давайте исследовать дальше.

Для анализа влияния CTR на позицию продвигаемого сайта нам необходимо посмотреть на зависимость CTR и позиции в разрезе времени. Один из самых актуальных вопросов:

Как получить позицию без CTR или как получить CTR без позиции?

И действительно, если для получения заветного места на первой странице результатов поиска нам необходимо иметь определенный CTR по запросу, но получить это значение можно только в том случае, если наш сайт уже находится в ТОП-10. Как быть? Не будем гадать, давайте посмотрим на график:

В первую очередь мы должны сравнить показатель CTR во 2 месяц и в 7. Значения сайтов занимающих лидирующие позиции к концу 7 месяца (ТОП) и не занимающие лидирующих позиций (не ТОП), распределились следующим образом:

Если внимательно посмотреть на график, то мы видим, что в первый месяц продвижения из глубин поиска, куда даже самые дотошные «поисковые кроты» не заходят, исследуемые сайты попадают на первую страницу результатов поиска. И уже в третий месяц, 2 группа (не ТОП) из него ВЫЛЕТАЕТ, и на протяжении 5 месяцев им так и не удается вернуться в ТОП. Напрашивается вывод: на ссылках мы резко влетаем в ТОП. Это позволяет поисковой системе получить достаточный уровень переходов и оценить сайт на основании поведенческих метрик. После чего сделать вывод, оставлять сайт в ТОПе или «развивайте сайт». А может, сработал «бонус новичка»?

Крайне интересным будет исследование других поведенческих метрик, а именно:

• Общий трафик на домен.

• Рекламный трафик на домен.

• Трафик из Яндекса.

По прошествии 7 месяцев поискового продвижения сайтов в системе Wizard, общий трафик доменов вырос почти в 2 раза, у сайтов обоих групп. Но абсолютные цифры у сайтов из ТОП выше более чем в 2 раза.

Доменные характеристики

Дальше, мы должны перейти к исследованию поведенческих метрик СЧ и НЧ группы, но давайте сначала ответим на вопрос – какими были доменные характеристики исследуемых сайтов? Потому что, после исследования поведения ВЧ запросов, не укладывающегося в стандартные оптимизаторские рамки, этот вопрос напрашивается сам собой. Но мы решили немного расширить таблицу данных, добавив в нее социальные сигналы. В выбранной группе ВЧ-запросов и сайтов из ТОП средние показатели следующие:

В группе ВЧ-запросов и сайтов НЕ ТОП следующие средние показатели:

VK — лайки ВКонтакте

OKл – лайки Одноклассники

FB – лайки Facebook

TW – Tвиты

Конечно, выборка недостаточная, но даже на этой группе заметны общие тенденции:

• Более молодые сайты скорее попадают в ТОП по ВЧ и, если все ОК с поведенческими, то там и остаются.

• У сайтов из ТОП по ВЧ, больше соц.сигналов.

• Зависимости тИЦ и PR от позиции у продвигаемых сайтов нет.

Перейдем к СЧ-запросам

Посмотрим на динамику роста сайтов этой группы:

Знакомая картина? Второй месяц продвижения оказывается переломным. Только в этой группе среднечастотных запросов сайт не успевает попасть в ТОП. Мы видим, что на позициях около 20 происходит разделение: сайты из ТОП продолжают расти; сайты не из ТОП, прекращают свой рост. Вопрос: на позициях 19-21 невозможно оценить поведенческие метрики сайтов, в нашем случае CTR, так как количество показов и переходов очень низкое. Для ответа на этот вопрос, мы оценили доменные имена и постарались найти их пересечения между ВЧ, СЧ и НЧ группами запросов. Оказалось, что домены пересекаются на – 90%. А вот и ответ на вопрос: поисковая система помещает наш сайт в ТОП по высокочастотным поисковым запросам. Это дает ей достаточно данных для оценки поведенческих метрик сайтов. После этого, можно принимать решение – оставлять сайт в ТОПе или нет, выводить в ТОП по широкому спектру СЧ запросов или нет и т.д. Что бы убедиться в этом, предлагаем посмотреть на динамику сайтов в области НЧ запросов:

Первые 2 месяца: запросы отсутствуют в ТОП 100. И в третий месяц для группы сайтов из ТОП они попадают на первую страницу результатов поиска, и благополучно там остаются. Но не ТОПовые сайты попадают лишь на 20-30 места, и дальше не растут. Отсутствие результатов первые 2 месяца. Скорее всего, это связанно со ссылками, т.к. бюджеты на эти запросы минимальны, и покупается мало ссылок с низкими бюджетами. Поэтому они индексируются дольше.

Понятно, что далее не имеет смысла анализировать все в разрезе ВЧ\СЧ и НЧ. Возвращаемся к анализу ТОПовых сайтов по ВЧ запросам. Интересно посмотреть на другие метрики поведенческих факторов. Так мы поймем, с чем нам надо работать в первую очередь, для достижения заветного ТОПа. Про CTR уже понятно, это значимый фактор.

Время на сайте и глубина просмотра.

Во второй месяц среднее время пребывания посетителя на сайте у сайтов, занимающих лидирующие позиции в будущем, больше почти в 2 раза. Со временем, разница сокращается.

Глубина просмотра также довольно показательный фактор: у лидирующих сайтов она больше в 1,6 раз. Хорошо видно, что с ростом популярности ресурса и улучшения его позиций, трафика становится больше, и глубина просмотра немного сокращается. У второй группы сайтов – этот показатель остается неизменным.

А такси?

Часто можно слышать, что для многих запросов (например, [заказ такси]), показатель отказов и время на сайте не должны являться определяющими. Так ли это?

К сожалению, запроса [такси] в исследуемой группе сайтов не оказалось. Для удовлетворения всех необходимых условий эксперимента, мы выбрали другие запросы, которые по нашему мнению близки по характеристикам ([заказ еды], [эвакуаторы] и т.п.).

Результаты:

Выборка таких сайтов оказалась небольшой, но даже на ней тенденция заметна: с более низкими значениями поведенческих метрик, в сравнении с другими тематиками, сайты успешно занимают лидирующие позиции в рейтингах. Поведенческие метрики – относительная величина и измеряются отдельно для каждой связки «запрос – страница (сайт)».

Внутренняя оптимизация

А куда без нее? Оправданно ли требование оптимизаторов (агентств) – ОБЯЗАТЕЛЬНО оптимизировать сайт? В некоторых случаях доходит до того, что оптимизаторы отказываются от продвижения, когда &

Контекст vs SEO

Контекст или контекстная реклама – это показ объявлений рекламодателя на странице результатов поиска рядом с основной выдачей на платной основе. Основными площадками, размещающими такой тип рекламы, являются Яндекс Директ и Google Adwords.

SEO или поисковое продвижение сайтов – это набор действий, которые совершает оптимизатор для того, чтобы сайт стал появляться на высоких позициях в органических результатах поиска.

В середине 2000х предприниматели, желающие продвигать коммерческие сайты в условиях ограниченного бюджета, стояли перед выбором между этими двумя инструментами.

• Контекст привлекал моментальностью эффекта. При выставлении достаточно высокой ставки, можно было уже через несколько минут увидеть своё объявление в поисковой выдаче. Однако в восприятии рекламодателей, такой способ рекламы имел недостатки: люди боялись, что конкуренты будут «скликивать» их бюджет и полагали, что уж лучше потратить деньги на SEO, чтобы потом иметь постоянный эффект от присутствия в основной выдаче. Многих останавливали сомнения, что на эту рекламу вообще кто-то жмет (кроме конкурентов) и считали этот способ рекламы необоснованно дорогим. В те года контекстная реклама была окутана массой домыслов и мифов. Рекламу многие делали как получится, не проводя детального анализа потраченных средств, и достаточно часто приходили к неудовлетворительным результатам.

• SEO в этот же период, наоборот, переживало свои золотые дни. Существовало много способов манипулировать выдачей, и вся эта область была сродни некоему «шаманству»: зная определенный набор манипуляций можно было «раскрутить» сайт и занять достойные места. Сначала основным способом были прогоны по каталогам, потом начали работать полотнища бессодержательного текста с большим количеством вхождений ключевых слов («Оптимизаторы оптимизировали, оптимизировали тексты, да так и не выоптимизировали.»). Позже заработали покупные ссылки (sape, seopult и т.п.). Все эти года задача сводилась в основном к тому, чтобы купить как можно больше ссылок, написать больше текстов и т.п. По сути, выигрывал тот, кто тратил больше денег на накрутку SEO-факторов. Причем все это шло отнюдь не на пользу общему «здоровью» экосистемы Рунета и никак не способствовало улучшению качества сайтов.

В условиях ограниченного бюджета рекламодателями приходилось выбирать между SEO и контекстом. Причем усилия продажников были направлены по большей части на SEO, в первую очередь потому, что там гораздо более низкая прозрачность и высокая маржинальность. А в случае неудачи, оптимизаторы всегда могли навешать лапши клиенту, ссылаясь на какие угодно технические аспекты непреодолимой силы.

Начиная с 2011 Яндекс и Google стали все больше учитывать поведенческие факторы в ранжировании, измеряя буквально все действия пользователей интернета. Это стало возможно благодаря тому, что Google и Яндекс выпустили свои собственные браузеры (которые отправляют некоторые данные о действиях пользователей в Интернете, с целью дальнейшего анализа поведенческих метрик), а также повсеместному распространению счетчиков Яндекс Метрики и Google Analytics. Сегодня и Яндекс и Google знают все о том, что и как пользователи делают на вашем сайте и могут сравнивать эти данные с сайтами конкурентов.

Измеряется буквально все.

Сначала оцениваются «внешние» поведенческие факторы: какой процент пользователей нажимает на поисковый сниппет в выдаче, сколько из них возвращается обратно в поиск (не нашли, что искали), а сколько не возвращается (нашли). Все это сравнивается с сайтами конкурентов по запросу.

На самом сайте оценивается глубина просмотра, время посещения, показатель отказов, количество повторных визитов и другие паттерны поведения (просмотр страницы контактов, заказ, добавление в корзину, загрузка файлов, запрос калькуляции и многие другие). Все это тоже сравнивается с конкурентами.

И в завершение всего оценивается аудитория сайта: откуда она приходит (только поиск, или есть другие типы заходов – почта, социальные сети, прямые заходы, брендовые запросы в поиске, тематические форумы и сайты). Если сайт получает трафик из разных каналов, значит, скорее всего, им занимаются.

По этим данным можно сделать вывод о том, какие сайты по каким запросам больше нравятся пользователям, что является сильным сигналом, который можно учитывать в ранжировании. Есть один ключевой фактор, который определяет силу поведенческого сигнала – это интересы пользователей. Это может показаться невероятным, но Яндекс знает, чем в целом интересуются люди, посещающие ваш сайт. Вот пример коммерческих интересов посетителей сайта по продаже искусственных растений. Обратите внимание на столбец «Аффинити-индекс»

Аффинити индекс – отношение доли посетителей с заданным интересом на этом сайте к среднестатистической доле посетителей с этим же интересом на всех сайтах интернета.

Как видно, посетителям интересно обустройство дома, семья и дети, а также кулинария. Это неудивительно, ведь основная аудитория сайта – женщины, у которых либо свой мелкий бизнес по оформлению интерьеров, либо им которым просто нужно разово оформить интерьер. Как видно, они весьма далеки от компьютеров, автомобилей, интернета и финансов. Это можно объяснить тем, что больше половины пользователей сайта приходят из регионов.

Яндекс использует эти данные для отсеивания накрутки поведенческих факторов. Сами по себе пользовательские факторы легко накрутить: существуют биржи, где школьники за несколько рублей выполнят любое действие на сайте, которое вы опишите в задании. Но вот аффинити-индекс у них будет явно отличаться от естественной, ненакрученной аудитории, так что такие манипуляции мало что дают.

Напрашивается довольно логичный вывод: «Если эти поведенческие факторы так хороши, то почему они не основной фактор ранжирования?». Ответом может стать опрос, проведенный среди оптимизаторов в январе 2014 года:

По мнению большинства оптимизаторов, основными факторами ранжирования сегодня можно считать поведенческие факторы и качество сайта в целом. Как легко догадаться, если сайт хороший, то и поведенческие факторы будут хорошие. За покупные ссылки высказались лишь 13% людей участвовавших в опросе.

Это совпадает и с позицией Яндекса, который в марте 2014 уже отменил ссылочное ранжирование для половины коммерческих тематик московского региона, причем нет оснований считать, что эксперимент не распространится на другие регионы и тематики.

Возникает справедливый вопрос: «У меня отличный молодой сайт, намного лучше чем у конкурентов! Откуда мне взять эти поведенческие факторы, если на мой сайт никто не приходит, а чтобы приходили, нужны эти факторы?»

Ответом может служить улыбка Александра Садовского, руководителя отдела веб-поиска Яндекса.

Контекст или SEO?

В сегодняшних реалиях вообще сложно сказать, что означает услуга, скрывающаяся за названием SEO. Если раньше все было более-менее понятно и сводилось к набору рутинных действий, то сейчас основная рекомендация – делать хорошие сайты, которые нравятся пользователям. Формулировка расплывчатая и туманная. И уж совершенно непонятно, как ее формализовать в виде договора на SEO-продвижение.

По мнению автора, SEO в классическом его виде уже не существует. Все, кто сейчас гарантируют какие-то позиции за какой-то срок – скорее всего либо шарлатаны и жулики, либо просто пытаются говорить с клиентом в понятных ему терминах и понятиях. На смену классическому SEO пришёл интернет-маркетинг – набор действий, направленный на реальное улучшение сайта для пользователей, и привлечение на него трафика с использованием самых разных каналов. Появление сайта в поиске на высоких позициях должно стать не целью этих действий, а следствием.

Как же понять, что нужно улучшать на сайте, который нравится директору, но не нравится Яндексу? У оптимизаторов интернет-маркетологов сегодня есть в распоряжении огромный набор инструментов, позволяющих оценить действия пользователей на сайте, вплоть до просмотра каждой отдельной сессии в формате видеоролика (Яндекс Вебвизор). Появились возможности анализа конверсий на сайте. Все эти инструменты можно и нужно использовать для того, чтобы понять, что не нравится пользователям, и как улучшить сайт, чтобы пользоваться им стало удобнее.

На рынке контекстной рекламы сегодня наблюдается плавный тренд перехода от простой продажи кликов, как это было раньше, к продаже конверсий (вы платите только за действия пользователя на сайте, а Яндекс и Google уже подбирают аудиторию, которая с большей вероятностью совершит это действие). Оптимизация конверсий немыслима без грамотной аналитики посещаемости сайта с последующими улучшениями самого сайта.

Сегодня с уверенностью и без натяжки можно сказать, что интернет-маркетинг пережил свои «детские болезни», и находится в зрелом возрасте, где под дурачка сайт уже не раскрутишь. Изменились условия. И в этих современных условиях SEO уже не против контекста, а вместе с контекстом.

Лучше всего на вопрос о том, что же лучше выбрать между SEO и контекстом, ответил Михаил Сливинский (руководитель отдела поисковой аналитики в Викимарте): «Маркетинг нужно сделать численным, чтобы на основе этих чисел принимать решение. Если вы не знаете, нужно ли вам SEO, то оно вам точно не нужно. Начните с контекстной рекламы. У вас есть шанс дальше удешивить трафик. Если вы не достигните успеха в контексте, вы не выйдите на нормальную экономику. Контекст позволит протестировать многое на сайте, запросы, документы входа и другое (например, call-центр). Проблемы могут быть сосредоточены в любом секторе бизнеса. Если вы из контекста с честью не выходите, я бы не советовал заниматься SEO, так как это будет то же самое, только долго».

SMX London: Нет смысла говорить о контенте вообще – только о соответствии конкретным целям

На закрытии конференции SMX London 2014 ведущие мировые эксперты в области поискового маркетинга в режиме блиц-диалога с аудиторией поделились своими взглядами на перспективы продвижения в поиске и социальных медиа, перечислили наиболее заметные тенденции в отрасли, дали советы специалистам. Секция получила название «Ask The Search Marketing Experts».

Брэд Геддес (Brad Geddes), основатель Certified Knowledge, эксперт по контекстной рекламе Google, профессионал в области интернет-маркетинга, работающий в отрасли с 1998 года, в формате свободной дискуссии поделился с аудиторией последними тенденциями в области поискового маркетинга.

Прежде всего, Геддес отметил, что сегодня оптимизаторы стараются массово накручивать поведенческие факторы: так, например, 75% контента, которым бренды делятся в Twitter’е, в действительности никогда никем не читается. Аналогичная ситуация наблюдается и в других критически значимых социальных медиа. Вот почему в ближайшее время поисковые системы не планируют использовать социальные сигналы в качестве факторов ранжирования. Социальные сети и сервисы нужны поисковикам только как источники, контента для быстрого индексирования и отображения в результатах по запросам, связанным с конкретными событиями, обсуждениями и т.д.

Если говорить о платном поиске, то важно оптимизировать свои кампании по ключевым словам – в этом плане наиболее эффективным будет использование Google Analytics. В то же время при назначении цены за клик по ключевым словам полезно сравнивать данные со статистикой ключевых слов в Google AdWords и в Webmaster Tools.

Еще одной серьёзной проблемой нашего времени стала забота о приватности данных пользователей: поисковые системы шифруют информацию о переходах пользователей из поиска, предоставляя взамен лишь общую статистику. Сегодня вебмастерам приходится тратить гораздо больше времени на сбор данных. Не исключено, что совсем скоро меньше данных о пользователях начнут предоставлять и социальные сети. В различных странах мы можем наблюдать разную степень доступности персональной информации – во многом это регулируется внутренними законодательствами государств.

В ходе реализации кампаний PPC важно уделять большое внимание уделять созданию посадочных страниц. Не менее важно уметь грамотно интерпретировать показатели Google Analytics, и, исходя из этого, оперативно вносить изменения на сайте.

Профессионалам отрасли необходимо постоянно учиться, нарабатывать практическую базу, расширять свои связи и обмениваться опытом. Это можно делать на внутренних и международных отраслевых форумах, также важно посещать различные обучающие семинары и конференции. Интернет-маркетинг является одной из самых инновационных отраслей, которая быстро развивается, а методы работы в ней стремительно меняются.

Тренды от Кристин Черчилль (Christine Churchill), успешного интернет-маркетолога и президента компании KeyRelevance, выглядели следующим образом:

Сегодня на первый план выходит очень сложная и кропотливая работа по удалению нежелательных входящих ссылок. Как бы это ни было неприятно, но вебмастера и оптимизаторы вынуждены отводить этому огромное количество времени. Простое правило гласит: «все сомнительные и «мёртвые» ссылки должны быть удалены с ресурса в обязательном порядке».

После того, как сайт очищен от нежелательных ссылок – наступает время «собирать камни»: и всеми существующими на сегодняшний день способами владелец ресурса должен привлечь на него новые тематические ссылки с хороших источников. Лучший способ – создавать контент, который будет хорошо расходиться по социальным сетям и публиковаться на других тематических сайтах. На этом этапе полезно позаботиться о таком факторе, как вовлечённость пользователей во взаимодействие с контентом. Поисковые системы уделяют данному аспекту все больше внимания и уже сейчас рассматривают как один из сигналов ранжирования.

Заметно усиливается влияние социальных и поведенческих факторов это также стоит учитывать, работая над продвижением сайта. Сегодня наблюдается следующая тенденция: органический трафик из веб-поиска на сайты несколько уменьшается, в то же время, увеличивает число переходов пользователей на ресурсы из социальных сетей. И в ближайшем будущем данная тенденция будет только усиливаться.

Говоря о контент-наполнении сайта, полезно отметить следующий момент: тематическому сайту вовсе не обязательно гнаться за объёмом новостей – можно даже не публиковать новостные заметки каждый день. Лучше уделить силы и время разработке интересной инфографики; проведению уникального исследования с последующей публикацией его результатов; подготовке авторской статьи или интервью с авторитетным профессионалом отрасли. Именно такого контента ждут от тематических сайтов читатели, и именно он впоследствии будет хорошо индексироваться и высоко ранжироваться поисковыми системами.

Не стоит пренебрегать работой с ключевыми словами, начиная от создания семантического ядра сайта, и, заканчивая оптимизацией страниц сайта под выбранные ключевые слова. Все необходимые данные можно получить, проанализировав статистику в сервисе Google Webmaster Tools. У SearchMetrics также существует целый ряд качественных инструментов, позволяющих производить анализ ключевых слов и грамотно размещать их на странице.

В заключение Кристин Черчилль отметила, что мобильный интернет, набравший свою силу в последнее время, может столкнуться с рядом проблем, связанных с защитой пользовательских данных. Пользователи обеспокоены тем, что мобильные устройства передают крупным рекламным и издательским площадкам огромное количество персональной информации, начиная от местонахождения человека и, заканчивая, его личными предпочтениями. Не исключено, что совсем скоро в этом сегменте наметятся серьёзные изменения…

Мартин Бейк (Martijn Beijk),ведущий аналитик и бизнес-консультатнт в comScore, озвучил следующие наблюдения.

Нет смысла говорить о контенте сайта вообще – содержимое всегда должно соответствовать конкретным целям. Так, например, контент продающего сайта должен побуждать потенциального клиента к совершению конкретного действия, направляя и помогая ему совершить выбор. Содержание информационного сайта должно удовлетворять потребность пользователя в конкретной информации. При этом контент должен способствовать решению еще одной  важной для маркетолога задачи: помогать собирать интересующую информацию о пользователях.

«Прежде всего, думайте о своих бизенс-целях, и только потом принимайте решение, чем именно вы будете наполнять свой сайт. Постоянно тестируйте, какой тип контента наиболее эффективен для достижения поставленных задач и целей. Измеряйте статистику, используйте в своей работе, делитесь данными с руководством», — напомнил слушателям Мартин Бейк.

Соглашаясь с предыдущими спикерами, представитель comScore посоветовал SEO-специалистам уделять больше внимания работе с ключевыми словами. Важно продвигать свой сайт по оптимальному числу поисковых запросов – недостаток. В последнее время, владельцы сайтов стали бояться переоптимизации. Как следствие, многие перестали уделять внимание наполнению текстов ключевыми словами. Однако не стоит забывать, что ключевые слова в разумных количествах должны присутствовать на странице.

И всё же, сегодня поиск по ключевым словам постепенно уступает место интентному поиску. Продвигая свой товар, услугу, компанию или бренд, важно формировать базу связанных сущностей. Необходим добиться, чтобы Google, Bing, Yahoo начали «видеть» ваш бизнес в комплексе. Утверждение особенно актуально для крупных брендов: так, например, важно, чтобы поисковые системы научились устанавливать взаимосвязи между различными компаниями одного холдинга; понимали, какие продукты производит та или иная фирма; знали регионы ее присутствия и умели ассоциировать организацию с ключевыми фигурами – основателями и управленцами. Создание мощной «связки сущностей» позволит вам стать не только узнаваемыми, но и повысить степень авторитетности в своей отрасли. Это означает, что сайты компаний будут не просто лучше ранжироваться: ссылки на конкретные страницы станут, действительно своевременно и безошибочно предлагаться пользователям в качестве ответов на поисковые запросы.

Важно также проводить анализ взаимодействия пользователей с контентом сайта, стимулировать их вовлечённость и формировать социальную активность вокруг вашего ресурса. Доказано, что пользователи мобильных устройств еженедельно проводят в социальных медиа около 24 часов. Нередко это время отводится совершению покупок на платформах социальных сервисов и обсуждению товаров и услуг с другими пользователями соцмедиа. Такой тип поведения пользователей открывает перед маркетологами потрясающие возможности по продвижению товаров и услуг.

Завершил дискуссию Бас Ван Ден Бельд (Bas Van den Beld), главный редактор издания State of Digital.

Прежде всего, эксперт отрасли признался слушателям в том, что его, как профессионала, больше всего раздражают неправильно выбранные стратегии контент-маркетинга. Зачастую ошибки маркетологов выглядят очень непрофессионально и нелепо, а иногда стоят владельцам проектов огромных денег.

«Сегодня о контент-продвижении и соцмедиа-маркетинге ведется так много разговоров, что заниматься им пытаются практически все. Тем не менее, разработка стратегии контентного наполнения сайта для последующего продвижения в социальных сетях и сервисах требует от специалистов значительного опыта и профессиональных навыков. Волны некачественного и никому не нужного содержимого обрушиваются на пользователей социальных сервисов, которые просто перестают замечать подобные обращения и призывы», — заметил Бас Ван Ден Бельд.

Сегодня не только владельцы сайтов, но и крупные агентства сталкиваются с нехваткой квалифицированных SMM-специалистов, способных разрабатывать четкие стратегии контентного продвижения и чётко следовать им.

Бас Ван Ден Бельд отметил также, что понятие «продвижение социальные медиа» является слишком общим и бессмысленным. По его мнению, правильнее говорить о маркетинге в социальных медиа или о взаимодействии с контактной аудиторией в соцмедиа (social networking).

Что касается собственно поискового продвижения, то тем, кто работает на международном рынке, еще долгие годы придётся продвигать ресурсы в Google и подчиняться законам этой поисковой системы. В ближайшие несколько лет доля рынка Google, скорее всего, не изменится.

Вовлечённость пользователей во взаимодействие с контентом ресурса, анализ поведения посетителей сайта становятся наиболее значимыми сигналами ранжирования для Google. Важным фактором для лидера поиска является время, проведённое пользователем на сайте. Также поисковик учитывает дальнейшие переходы пользователя, анализируя, вернулся ли человек на страницу поиска или перешел по ссылке на нужную страницу сайта или ресурс.

Встреча с экспертами отрасли стала завершающей частью конференции Search Marketing Expo London 2014, которая прошла в Лондоне в мае текущего года.

Поведенческие факторы: крутить или не крутить?

Автор: Сергей Людкевичнезависимый консультант, супермодератор форума о поисковых системах Searchengines.Guru. Сфера профессиональных интересов — исследование алгоритмов ранжирования поисковых машин, разработка методик поискового продвижения сайтов.

После объявления Яндексом об отмене ссылочных факторов ранжирования, поведенческие факторы ранжирования стали объектом пристального внимания оптимизаторов. Наряду с так называемыми системами улучшения поведенческих факторов, подобные модули стали разрабатывать и культивировать ссылочные агрегаторы. В оптимизаторской среде все больше стало разговоров о том, какой должен быть показатель отказов, об идеальных паттернах поведения пользователей на сайте, о том, сколько страниц пользователь должен посетить, сколько времени на сайте провести и т.п.

С другой стороны баррикад на данном фронте тоже наблюдается некоторая активность – Яндекс выпустил уже третье «китайское» предупреждение о недопустимости попыток искусственного воздействия на поисковую выдачу путем эмуляции действий пользователей. Более того, в достаточно старом шаблоне о некорректных методах продвижения из арсенала стандартных ответов Платона Щукина появилось явное указание на некоторые сервисы, практикующие накрутку поведенческих факторов путем эмуляции действий пользователей:

«Скорее всего, причиной изменения позиций вашего сайта стало использование некорректных методов поискового продвижения, например:

эмуляция действий пользователей поисковой системы ;

массовое использование SEO-ссылок.

Вероятно, для продвижения Вашего сайта были использованы сервисы или программы, реализующие подобные методы. Такие как Userator, Movebo, WebEffector, SerpClick и тп. Возможно, это было сделано компанией, оказывающей услуги поискового продвижения для вашего сайта.

Отказ от использования некорректных методов продвижения и оптимизация сайта в интересах пользователя позволят восстановить доверие поисковой системы и занять достойные позиции в выдаче».

Всё это свидетельствует о том, что разгорается нешуточное открытое противостояние между «автоматизаторами» поискового продвижения и поисковыми машинами. И поле битвы на этот раз – действия пользователей.

Я бы разделил поведенческие факторы ранжирования на две основные части по логике их учета: 1) Действия пользователей на странице поисковой выдачи (кликовые факторы) 2) Действия пользователей на страницах посещаемого сайта (факторы за посещаемость)

Кликовые факторы, по моим наблюдениям, все еще продолжают оставаться наиболее мощной группой факторов из вообще всех факторов ранжирования. И именно их в первую очередь стараются накручивать упомянутые выше сервисы. Кроме собственно CTR страницы сайта по данному запросу, могут учитываться различные параметры пользовательской сессии – сколько всего в ней было сделано кликов, каким по счету был клик на данный результат, был ли он первым или последним в сессии; время, прошедшее от начала сессии (т.е. собственно запроса пользователя в поиск) до клика по сайту, а также время, прошедшее между кликом на сайт и предыдущим и последующим кликами в сессии и т.п. Я очень сильно сомневаюсь в том, что те, кто пытается эмулировать действия пользователей, наверняка знают оптимальные значения всех этих параметров. Зато по тем диапазонам значений, которых они придерживаются в своих заданиях, выдаваемых автоматическим или живым исполнителям, думаю, их вполне можно при желании вычислить. А желание это у разработчиков поисковых алгоритмов, как мы видим, присутствует. Поэтому я крайне не рекомендую заниматься накрутками, ибо эта деятельность чревата поимкой со всеми вытекающими последствиями. С другой стороны, что касается собственно CTR, то не нужно быть семи пядей во лбу, чтоб понимать, что здесь математика простая – чем он больше, тем лучше. И накрутчиков очень вдохновляют удачные опыты с накруткой поисковых подсказок, где четко виден результат: сегодня – в задании на накрутку, завтра – в поисковой форме. Однако видимый успех накруток в подсказках может быть обманчив, по той простой причине, что в данном случае в погоне за свежестью результата клик-фрод фильтруется весьма поверхностно, а вот для ранжирования может иметь место гораздо более серьезная фильтрация, временные затраты на которую не так критичны.

С другой стороны, кликовые факторы обладают характерной особенностью, которая определенным образом провоцирует оптимизаторов на их накрутку. К сожалению, их нельзя улучшить с помощью развития сайта. Они имеют весьма слабое отношение к соответствию документа запросу и радикально зависят от качества сниппета (об особенностях управления сниппетами в органической выдаче я писал в своих статьях «Управление сниппетами. Стандартные сниппеты» и «Управление снипеттами. Расширенные сниппеты»). Но и улучшение сниппета ничего не даст, если он не попадает в поле зрения пользователя поисковой машины, который, в подавляющем большинстве случаев, ограничивается верхней частью первой страницы выдачи. Возникает парадокс – в ранжировании большое значение имеют факторы, которые невозможно улучшить, развивая сайт, зато можно улучшить, имитируя нужные действия пользователей, что и вызывает в качестве естественной реакции оптимизаторов повышенный интерес к искусственной накрутке данной группы факторов. И пока данная группа факторов будет иметь достаточно большой вес, попытки их накрутки будут неизбежны. И не в последнюю очередь потому, что альтернативы, к сожалению, для улучшения этих факторов просто нет. Аналогичная ситуация была несколько лет назад с фактором за вхождение запроса (или его транслитерации) в доменное имя. Это был тоже довольно сильный фактор, который нельзя было улучшить развитием сайта. И оптимизаторам приходилось покупать подходящие домены и переносить на них сайты. К счастью, через некоторое время вес данного фактора очень существенно понизили. Надеюсь, что подобное рано и поздно случится и с группой кликовых факторов.

Тем более, что есть другая интересная группа поведенческих факторов, которые как раз-таки можно и нужно улучшать, именно занимаясь непосредственно развитием сайта – это факторы за посещаемость, которые анализируют поведение пользователей на странице и сайте. Сюда входят активные действия пользователей (клики, заполнение форм, скачки файлов и т.п.), средняя продолжительность посещения, среднее кол-во внутренних переходов и т.п. Факторы, отвечающие за активные действия пользователя, особенно актуальны для коммерческих запросов. И мне представляется, что именно за этими факторами будущее в эволюции алгоритмов ранжирования.

Поэтому я настоятельно рекомендую работать с целевой страницей в том направлении, чтобы она побуждала пользователя к выполнению тех или иных действий, в идеале – вовлекала их в интерактивный диалог с сайтом. Какие конкретно приемы при этом использовать – целиком зависит от тематики сайта и характера представляемой на нем информации. Это могут быть калькуляторы ценообразования, фильтры подбора информации, путеводители по сайту, конструкторы, фотогалереи качественных изображений, 3d-модели, виртуальные туры, видеоролики, различная справочная информация и т.д. Естественно, при этом сайт должен внушать доверие пользователю, быть удобным (без хороших познаний в юзабилити в современных реалиях SEO, похоже, уже не обойтись) и стабильно работать в любых браузерах, в том числе иметь и мобильную версию.

Факторы за посещаемость хороши тем, что они не зависят радикально только от органического поискового трафика. Молодые сайты, еще не имеющие хороших позиций в органике, могут привлекать трафик другими способами, например, за счет рекламных кампаний, в т.ч. контекстных. Поисковые машины могут собирать информацию о посещаемости сайтов с помощью своих баров, установленных в браузерах пользователей, а также с помощью собственных систем статистики посещаемости и веб-аналитики, поэтому рекомендую устанавливать на сайт счетчики Яндекс.Метрики и Google Analytics, если вы хотите дать поисковикам максимум сведений о пользователях своего сайта.