+7 (915) 573-59-20 info@xn----7sbggftcagghwjeghpl3bh8p.xn--p1ai

SMX London: Факторы ранжирования, версия 2014

13 мая в Лондоне в Конференц-Центре ФК «Челси» открылась одна из ключевых конференций серии SMX — Search Marketing Expo London 2014.

Организаторами мероприятия по традиции выступили редакторы Search Engine Land: Дэнни Салливан (Danny Sullivan) и Крис Шерман (Chris Sherman).

В рамках секции The Periodic Table of SEO Ranking Factors: 2014 Edition (Периодическая таблица факторов ранжирования: версия 2014) состоялись выступления Леонардо Хеннинга (Leonhard Hennig), главного научного сотрудника Searchmetrics; Гранта Симмонса (Grant Simmons), вице-президента по поисковым стратегиям Homes.com (компания разрабатывает решения для Rent Media Solutions), Джанэйи Уилкинс (Janaya Wilkins), SEO-консультанта агентства Ayima. Модератором секции выступил Дэнни Салливан.

Грант Симмонс (Grant Simmons), вице-президент по поисковым стратегиям Homes.com (компания разрабатывает решения для Rent Media Solutions).

Периодическая таблица факторов ранжирования. Не стоит забывать о том, что факторы ранжирования могут меняться местами – если вчера они работали, то сегодня могут стать негативными. И, напротив, то к чему еще вчера SEO-специалисты относились скептически, сегодня начинает работать. Невозможно выделить какие-либо факторы, которые помогут существенно продвинуть сайт в выдаче. Обычно они срабатывают в совокупности.

Так, например, Панда уделяла огромное внимание качеству контента, позднее возникла другая проблема – переоптимизированный контент, и Google начинает активно бороться уже с ним.

Правило: контент практически не имеет смысла оптимизировать – конечно же, он должен создаваться людьми, должен быть релевантным, читаемым и понятным поисковыми системам.

Сегодня важно обеспечить качество и свежесть контента, на первый план выходит авторитетность автора и сайта. Важна скорость доставки контента пользователям и степень активности пользователей, а также вовлечённость во взаимодействие с контентом.

Для повышения видимости сайта в результатах выдачи важно использовать XML Sitemap. Это не фактор ранжирования, но помогает поисковой системе лучше понимать содержимое страницы сайта и, как следствие, ресурс начинает лучше ранжироваться в результатах выдачи.

По-прежнему важным и актуальным фактором является свежесть контента. Однако здесь важно учитывать совокупность факторов – свежесть и актуальность контента, его релевантность запросам пользователей и региональность.

Очень важно понимать путь взаимодействия пользователей с контентом, как на самом сайте, так и в социальных медиа. Этот фактор необходимо постоянно измерять и отслеживать. В ближайшее время он станет одним из доминирующих.

Леонардо Хеннинг (Leonhard Hennig), главный научный сотрудник Searchmetrics, поделился результатами нового исследования корреляции факторов ранжирования с позициями сайтов в выдаче. Всего проанализировали корреляцию факторов по 10 тыс. различных сайтов. (результаты предыдущего исследования)

Анализ полученных результатов позволил определить важность тех или иных факторов при ранжировании сайтов в SERP ведущих поисковых систем. Докладчик предупредил, что намеренно решил не говорить о социальных факторах.

В качестве самого ключевого фактора Хеннинг назвал on-page оптимизацию страниц.

1. Важно использовать метаописания – они не гарантируют сайту попадания в ТОП-3 выдачи, но сайты, использующие их, ранжируются лучше остальных.

2. Использование H1 – повышает видимость сайта в результатах выдачи

3. Скорость загрузки сайта – очень важный фактор.

4. Важное значение имеет работа с ключевыми словами

Что касается длины текста, то влияние этого фактора постепенно ослабевает. Но все же важно соблюдать определённые пропорции.

Релевантность ключевых слов – приобретает большое значение. При разработке определенной темы, повышенное внимание следует уделять ключевым терминам, они должны совпадать с авторитетными документами по теме и быть релевантными запросам.

Почему важны эти термины: поисковые системы не хотят рассматривать текст как набор отдельных слов – важное значение приобретает поиск по сущностям. Googl, Bing, Yandex используют алгоритмы машинного обучения и стремятся понимать сущность того, что представлено на странице. Так, например, поисковики научились самостоятельно устанавливать связь между названиями стран и их столицами. Аналогичный алгоритм используется для огромного количества других понятий и сущностей.

В ближайшие годы поисковые системы сделают ставку именно на понимание контекста и развитие алгоритмов машинного обучения.

Количество входящих ссылок – по сравнению с прошлым годом значение данного фактора ранжирования начинает постепенно снижаться:

Количество входящих ссылок на страницу – учитываются свежие ссылки из соцмедиа, так как люди видят контент и начинают активно ссылаться на него.

Снижается значение анкоров.

Длинна текста, релевантность контента, авторитетность страницы и автора контента – значение этих факторов только усиливается.

В конце своего выступления докладчик еще раз подчеркнул, что на первый план выходит on-page SEO (техническая оптимизация страниц сайта).

Джанэйя Уилкинс (Janaya Wilkins), SEO-консультант агентства Ayima, в своем докладе сделала сделала акцент на том, что использование тех или иных факторов на сайте не всегда зависит от мнения и опыта оптимизатора, иногда приходится многое доказывать заказчику и руководству (в случае если вы занимаетесь in-house SEO) и даже идти на определённые уступки.

Чтобы не допустить провала – важно провести исследование, проанализировать все данные, оформить их в виде визуализированных и понятных отчетов, определить цели и вместе с руководством наметить дальнейший план работы. От этого буде зависеть дальнейшая стратегия и те инструменты продвижения, которые будут использоваться. Как правило, не существует более эффективных или менее эффективных факторов, все они работают в совокупности и зависят от специфики сайта и поставленной оптимизатору задачи.

Что касается выбора данных для анализа – не нужно анализировать все подряд, важно выбрать только те факторы, которые важны для поставленных бизнес-целей и работать с ними.

При контентном продвижении полезно определить целевую аудиторию, затем разработать контент-план и календарь, а дальше четко придерживаться его, отслеживая тренды в своей отрасли.

Ссылочная стратегия – важно создать спиcки тематических ресурсов и график поступления ссылок на сайт, постоянно работать с ними. Рост числа входящих на сайт ссылок должен быть естественным и равномерным.

Вообще следует вручную тестировать работу своего сайта– только так можно увидеть его глазами пользователей и понять, что их не устраивает.

Любой сайт нуждается в постоянном тестировании и улучшении в соответствии с обозначенными бизнес-целями.

Тайм-менеджмент также важен. Следует отслеживать развитие маркетинговой кампании во времени, проверять, какие конкретно факторы работают для больше всего, и каких результатов удаётся достигнуть, используя их.

Цели также нуждаются в постоянной корректировке и обновлении. При продвижении нужно придерживаться чёткого плана, быть методичными, учиться работать с разными инструментами, перестать анализировать второстепенные и ненужные данные, и постоянно измерять и отслеживать то, что нужно, не переставая.

Вопрос из зала: Какое значение для Google имеют социальные сигналы?

Дэнни Салливан: Пока это довольно спорный вопрос. В целом, Google относится к социальным сигналам положительно, но они не являются весомым фактором ранжирования. Если вы заметили, что ваш контент заработал много лайков в Facebook’е и стал хорошо ранжироваться в Google – это, скорее всего, произошло из-за того, что он был релевантным и качественным. То есть, социальные сигналы были здесь не причиной, а следствием. В то же время с развитием машинного обучения данный фактор будет используется Google как вспомогательный фактор ранжирования для выявления актуальности и релевантности контента для пользователей.

При этом поисковики боятся накрутки поведенческих и будут всячески пытаться обезопасить себя от этого.

Яндекс наказал сайты за накрутку ПФ (События)

Яндекс в очередной раз напоминает вебмастерам о бесперспективности и опасности использования некорректных методов продвижения сайтов, к которым, в частности, относится эмуляция действий пользователей.

Как сообщается в блоге поисковика, не так давно группа сайтов, для продвижения которых были использованы сервисы эмуляции действий пользователей, потеряла позиции в выдаче. Какие именно сайты, не уточняется.

Яндекс настоятельно советует не прибегать к некорректным методам и сервисам, предлагающим подобные услуги. 

(картинка взята с блога Яндекса)

Google Analytics добавил Группы контента в отчет о поведении пользователей (События)

В отчете Google Analytics о поведении пользователей появились Группы контента. Данный функционал позволяет группировать страницы и контент в логическую структуру содержимого, которая отражает видение сайта или приложения, а затем просматривать и сравнивать совокупные показатели по названию группы, а также анализировать отдельные URL, заголовки страниц и названия экранов.

Благодаря Группам контента теперь можно узнать, как пользователи ведут себя по отношению к определенным страницам и контенту сайта. Например, куда они переходят после того, как прочитают новости о спорте — ищут другие новости, переходят в другой раздел сайта или вообще уходят с ресурса.

Узнать больше о Группах контента можно здесь.

О каких ошибках сожалеет Мэтт Каттс? (События)

В своем последнем видео руководитель команды Google Webspam Мэтт Каттс ответил на вопрос Барри Шварца:

«Какие ошибки, по вашему мнению, вы совершили за время работы в команде по борьбе с поисковым спамом?»

Оказалось, главное, о чем жалеет Мэтт Каттс — это несвоевременность санкций против платных ссылок. Несколько лет назад на конференции в Калифорнии, один известный эксперт сказал ему, что вебмастера стали слишком злоупотреблять покупкой ссылок, и Google уже не в состоянии с этим бороться. Именно тогда он осознал, что Google сделал ошибку, позволив передавать часть значения PageRank странице донора. После этого команда приняла ряд мер по борьбе с платными ссылками, и теперь большинство вебмастеров отчетливо понимают, что эта тактика не соответствует принципам Google, и существуют алгоритмы и санкции, контролирующие это. Но по мнению Каттса, уже было слишком поздно.

Вторая ошибка Мэтта Каттса — это медленная реакция Google на жалобы пользователей относительно качества контента и UX тематических бирж контента. Когда он сам зашел туда, то не обнаружил проблем. Но потом осознал, что выводы были слишком поспешными, и нужно было изучить весь сайт, а не только одну страницу. Потребовалось немного больше времени, чтобы понять, что они находили решение не с помощью качественного контента, а с помощью увеличения количества страниц.

Именно поэтому Google слишком поздно, по мнению Каттса, обратил внимание на эти сайты, к тому времени, как вышла Панда, жалоб пользователей было уже слишком много.

В заключение Мэтт сказал, что Google проделывает очень много работы и в целом получает позитивный фидбек.  

Go Analytics! обзор секции «Google: Universal + Premium»

29 апреля 2014 года, в Москве прошла «Go Analytics!» — профессиональная конференция по веб-аналитике, организованная компанией OWOX и агентством performance маркетинга ADVENTUM.

В рамках секции «Google: Universal + Premium» прозвучали доклады Станислава Видяева, старшего аналитика Google Россия и Брайана Клифтона, директора Advanced Web Metrics, всемирно известного эксперта в Google Analytics, автора знаменитой книги «Google Analytics для профессионалов».

Первым выступил Станислав Видяев с докладом «Новинки Google Analytics — переход GA от аналитики по посещениям к посетителям».

По словам спикера, за 3 года объём использования десктопов увеличился на 7%, а объём использования смартфонов и планшетов возрос в десятки раз. Внутреннее исследование Google показало, что мобильный трафик с десктопов и ноутбуков падает, в то время как трафик со смартфонов и планшетов растёт. При этом, в сравнении со статистикой планшетов, трафик со смартфонов растёт не так быстро.

Чтобы проследить поведение одного и того же пользователя, который заходит на сайт с различных устройств, в Universal Analytics параллельно с термином СlientID было введёно понятие UserID.

При таком подходе Universal Analytics начинает понимать, что на сайт с разных устройств заходил один и тот же пользователь.

Настройка осуществляется следующим образом: если на сайте работает Google Tag Manager, то вводится код Universal Аnalytics, а затем создается правило.

При этом, важна передача USER ID в dataLayer.

Затем необходимо настроить еще 2 события: событие UA на регистрацию и событие UA на логин.

Вторым важным аспектом анализа является установление связи между онлайн- и оффлайн-взаимодействиями, поскольку на практике далеко не все онлайн-заказы впоследствии реализуются в жизни. Отслеживание оффлайн-взаимодействий осуществляется в 4 шага:

В момент отправления формы в Analytics.js происходит вызов функции get(‘ClientID’) — лучше всего использовать для настройки оффлайновых взаимодействий.

Далее используется протокол передачи данных или Measurement Protocol. Он позволяет осуществлять импорт оффлайн-данных из CRM или CMS в Universal Analytics.

Ключевым спикером мероприятия стал Брайан Клифтон. Он выступил с докладом «Universal Analytics это и есть Big Data…но как, черт возьми, мы используем все эти новые возможности?!»

/>

По версии Брайана, Big Data не является каким-то революционно новым понятием, в глобальной сети всегда происходил обмен большим количеством пользовательских данных. Однако в последние годы объём этих данных существенно увеличился.

Сегодня собирать и использовать данные о пользователях могут даже самые маленькие компании. При этом, воронка сбора данных из Universal Analytics становится еще шире.

Значительная часть кода Google Analytics пишется в США. И сегодня разработчики сталкиваются со следующей проблемой: накоплен большой объем данных, однако информации, действительно пригодной для использования представителями бизнеса – не так уж много.

Кроме того, её нужно не просто собрать, но правильно обработать и интерпретировать полученные значения.

Каждые 60 секунд в интернете тратится 1,5 млн. долл. США. При этом 1/3 от этой суммы тратится на территории США. Установлено, что один типичный клиент за месяц генерирует до 10 млн. различных данных.

Обрисовав ситуацию с Big Data, Брайан Клифтон обратился к истории создания сервиса Google Analytics.

Изначально Google приобрёл сторонний сервис аналитики Urchin – на тот момент данные собирались из 30 тыс. различных бизнес-аккаунтов. Для сравнения, сейчас к Google Analytics подключено свыше 20 млн. аккаунтов.

На втором этапе внимание было перенесено на фронт-энд. Основная задача команды Google сводилась к тому, чтобы сделать продукт бесплатным и при этом самым мощным.

Совсем недавно вышла расширенная версия Google Analytics. Это стало принципиально новым решением, поскольку при переработке использовали другой протокол. В центре лежит интеграция с CRM- системой, появилась возможность правильно отслеживать визиты. Также удалось вывести аналитику за пределы онлайн, интерфейс при этом остался прежним. Значительная часть кастомизации теперь выполняется внутри самого продукта. Возможности Universal Аnalytics позволяют делать гораздо более детальную разбивку по клиентам.

Упрощенный протокол выглядит следующим образом:

При отправке данных используется стандартный URL. Если раньше владельцу сайта, работающему с GA, было необходимо использовать JavaScript на своей странице, а у пользователя должно было быть включено разрешение на обработку cookies, то теперь можно передавать информацию в Google прямо со своих серверов. При этом, интернет-корпорация обеспечивает полную конфиденциальность данных.

Важным преимуществом Universal Аnalytics является возможность анализа статистики по незарегистрированных пользователей. Можно написать уникальный ID, который Google выделяет по дефолту — это позволит группировать пользователей и анализировать их поведение. В этом случае мы уже отслеживаем людей, а не cookies. Однако здесь важно понимать, что менять значение ID нужно так, чтобы все пользовательские данные оставались анонимными.

Возможности Universal Analytics позволяют прийти к отслеживанию поведения конкретных людей. Изначально отслеживались хиты, потом стали говорить о сессиях, просмотрах страниц. Потом стали измерять количество уникальных посетителей. С 2014 года появись первые подходы к решению основной задачи – возможность отслеживания конкретных людей.

Сейчас перед маркетологами стоят другие важные задачи: научиться отслеживать одного и того же человека, который заходит на ваш сайт с разных устройств, и данные оффлайн-взаимодействий.

Чтобы решить задачу, можно сгенерировать купон, с которым пользователь приходит в магазин. Так, например, обычных штрих-код содержит огромный массив данных, важных для маркетолога.

Завершая свой доклад, Брайан сообщил, что в ближайшем будущем специалистам, работающим с Universal Analytics придётся использовать другой tracking code – не ga.js, а analytics.js. Переход на analytics.js даст возможность использовать для анализа дополнительные данные.

Также спикер привёл 5 важных советов в помощь маркетологам:

  1. Важно заручиться поддержкой со стороны руководства;
  2. Необходимо инвестировать в качество данных. Если не вкладываться в аудит, то качество данных снизится.
  3. Очень важно монетизировать свой сайт, даже, если не нем не совершается прямых транзакций.
  4. Следует нанимать серьёзных аналитиков — они смогут задать правильные вопросы для проработки, найти дополнительные пути привлечения на сайт клиентов и прибыли.
  5. Необходимо установить правильные KPI, которые следует постоянно анализировать.