Какой бот для накрутки поведенческих факторов сайта использовать: обзор 2 систем для работы с пф

Как происходит накрутка ПФ?

Действия, при которых искусственно создается видимость совершения пользователями определенных операций, называются накруткой. Если, к примеру, попросить кого-нибудь посетить сайт и просмотреть несколько страниц, выбрать товар и перенести его в «Корзину» или что-нибудь лайкнуть, это будет считаться накруткой.

Такие действия ненаказуемы, но, если поставить подобные дружеские услуги на поток, проблем не избежать.

Если отправлять на свой сайт массу посетителей (как реальных, так и ботов), которые будут ставить под товарами лайки, переходить из поисковика по определенному ключевому запросу, это не останется незамеченным.

Как узнать, посмотреть и проанализировать поведенческие факторы своего сайта

Данные по поведенческим факторам на сайте находятся в Google Аналитике или Яндекс.Метрике. Основные ПФ: глубина просмотра, время визита, количество просмотренных страниц и отказов.

Личный кабинет в Google Аналитике

Личный кабинет в Яндекс.Метрике

Глубина просмотра. Эта цифра показывает среднее количество просмотренных страниц одним пользователем за одно посещение. Чем больше переходов со страницы на страницу – тем лучше. Для того чтобы пользователь «гулял» по сайту, у сайта должна быть удобная структура, а на страницах — анкорные ссылки.

Основной трафик идет из «Дзена» и дальше одной страницы человек не переходит. Значит, нужно больше ссылаться на материалы, чтобы пользователь «гулял» по блогу

Время сессии — среднее время, проведенное пользователями на сайте. Чем больше времени проводит пользователь на ресурсе, тем выше рейтинг поведенческого фактора. Чтобы продлить время визита на сайте можно использовать бесконечный скроллинг, перекрестные ссылки, опросы, тесты и интерактив.

Среднее время посещения всех страниц – 37 секунд

Действия пользователя. Что делает посетитель на сайте можно посмотреть через Вебвизор, или Карты в Яндекс.Метрике. Чем больше действий на странице – тем лучше. Это могут быть клики на видео, по изображениям или ссылкам, скроллинг и другие.

Люди активно копировали название игры, чтобы загуглить информацию. Для улучшения ПФ надо добавить ссылку на подходящий материал в заголовок

Поведенческие факторы можно улучшить, постоянно работая над сайтом, контентом и дизайном меню. Это долго, но эффективно. Некоторые люди не хотят ждать и пытаются накрутить поведенческие факторы, чтобы поднять страницу в поисковой выдаче, но это чаще всего заканчивается баном.

Накрутка поведенческих может сильно испортить репутацию сайта. Яндекс — против накрутки поведенческих факторов, потому что сайты должны быть полезными и развивать интернет, а не превращать его в мертвую зону с рекламой и ботами. Если поисковые роботы обнаружат накрутку, то сайт попадет под фильтр и блокировку минимум на 8 месяцев.

Дальнейшие действия

Шаг 1

В первую очередь, следует остановить накрутку поведенческих факторов, если они производилась. Сейчас, работы по прямой накрутке кликовых ПФ на выдаче не стоит рассматривать как возможный способ продвижения сайта в связи с минимизацией положительного эффекта от данных действий и высокой вероятностью получения очень серьезных санкций за применение метода.

В совокупности, данные два обстоятельства делают сервисы по искусственному улучшению кликовых факторов — нецелесообразными для использования.

Шаг 2

Требуется вступить в переписку с сотрудниками технической поддержки Яндекса и убедиться, что санкции были наложены не по ошибке. Имеются случаи, когда санкции накладывались на не самые популярные ресурсы из-за не 100% точности нового антиспам-фильтра. Имеется несколько процентов вероятности, что ваш сайт относится к этим «ошибкам алгоритма».

Шаг 3

Требуется определить дату наложения фильтра за ПФ. Это можно сделать при наличии доступа к Яндекс.Метрике по анализу таких срезов как:

  • Объем и доля поискового трафика из Яндекса в общем трафике сайта.
  • Число уникальных поисковых запросов, по которым осуществлялись переходы на сайт из Яндекса.
  • Скользящее среднее число посадочных страниц, на которые был зафиксирован хотя бы один заход из поиска за последние 7-14 дней.

Шаг 4

Требуется осуществить выбор подходящей для вас стратегии. По устным заверениям сотрудников антиспама и наблюдениям за выдачей (см. рисунок ниже), известно, что, санкции за манипуляцию ПФ снимаются в срок от 6 месяцев, в случае, если все действия по накрутке были остановлены.

Имеются и более длительные примеры, со сроком снятия фильтра за накрутку ПФ от 9 и до 12+ месяцев к которым можно отнести и пример ниже. На нём, сайт появился в ТОП-100 выдачи по целевому запросу, по которому осуществлялась накрутка, по истечению 13 месяцев после применения санкции.

Далее, мы будет отталкиваться от срока в 6-7 месяцев.

Вариант 1: после наложения санкций прошло менее 2.5-3.5 месяцев. Тогда имеет смысл выбрать стратегию смены доменного имени сайта. Для этого рекомендуется выбрать новое доменное имя для сайта и поставить 301-редирект без предварительной склейки доменов, так как в случае проведения склейки имеется вероятность передачи санкций. Домены не нужно добавлять в единую панель Вебмастера или прочие аккаунты (Метрика, Директ).

Google к данному переезду отнесется нормально, позиции довольно быстро нормализуются, и в выдаче будет фигурировать уже новое доменное имя сайта.

Далее к сайту стоит относится как к новому ресурсу и работать только с данным доменным именем.

Вариант 2: после наложения санкций прошло более 4-5 месяцев. Тогда имеет смысл следовать придерживаться последовательности действий:

  • Провести внутренний и технический SEO-аудит сайта.
  • Устранить все технические ошибки на сайте, внутренний спам и переоптимизацию, переписать неуникальные тексты. Закрыть все дубли от индексации и устранить причины их появления и т.д.
  • Расширить функционал сайта, количество страниц в индексе. Вероятно, удалить страницы на сайте, на которые осуществлялись фиктивные переходы из выдачи.
  • Ориентируясь на срок в 6-7 месяцев продолжить переписку со специалистами технической поддержки Яндекса и ожидать восстановления занимаемых позиций.

Шаг 5

Добавьте свой сайт в блек-лист всех основных сервисов по накрутке ПФ, путём общения с техподдержкой систем. Это позволит избежать дальнейших кризисных ситуаций. Список сервисов, в которые стоит обратиться для добавления в BL:

  • Юзератор.
  • SerpClick.
  • SeoPult.
  • Movebo.
  • WebEffector.

Шаг 6

После того, как сайт будет добавлен в BL (черный список сервиса), попробуйте добавить его в систему и запустить кампанию на данный домен. К сожалению, даже после заверений сервисов о том, что проект заблокирован — он успешно добавляется и на него можно запустить новую кампанию. Это является очередным обманом ПФ-сервисов. Будьте бдительны.

Удачи вам в самостоятельном снятии санкций поисковых систем и не рискуйте репутацией сайтов.

02.02.2015

Виды поведенческих факторов сайта

При ранжировании веб-ресурсов поисковые системы опираются на следующие параметры:

  • Отказы (bounce rate).Если посетитель ушел сразу после изучения главной страницы, не совершив ни одного перехода внутри сайта, его действия квалифицируются как отказ. Чем выше процент отказов, тем больше поводов задуматься о соответствии заявленной тематике и о релевантности страниц поисковым запросам. Пользователи быстро покидают ресурс из-за плохого оформления или запутанной ссылочной структуры. Большое количество отказов отрицательно сказывается на конверсии посетителей в покупателей, при этом не имеет значения, откуда именно клиент пришел на веб-сайт. Какой бы эффективной ни была контекстная реклама, пользы от нее будет крайне мало, если люди не задерживаются на продвигаемых страницах. По возможности задайте настройки счетчика отказов, благодаря которым в их число не будут попадать случаи ухода, если цель посещения страницы достигнута. Для landing page это очень полезный показатель.
  • Глубина просмотра. Характеристика напрямую связана с количеством просмотренных пользователем страниц. Встречаются попытки искусственного увеличения глубины за счет усложнения параметров сайта, однако существует вероятность роста отказов. Не все посетители согласны искать продолжение статьи на другой странице и мириться с перегруженной структурой ресурса.

Время на сайте.В него входит продолжительность разовой сессии от попадания на первую страницу до последнего просмотра. Чтобы заставить пользователя проводить на веб-сайте больше времени, владельцы должны наполнить его интересным контентом

Еще одно важное условие: в стремлении к удержанию посетителя на страницах ресурса нельзя забывать о главной цели – конверсии в покупателя.

Возвращение к поиску. Уход пользователя назад, к списку выдачи результатов, свидетельствует, что на сайте он не нашел нужной информации

Избежать этого помогает высокая релевантность посадочной страницы поисковым запросам и конкурентоспособность предложения. Правда, некоторые люди открывают сразу несколько страниц и только потом выбирают подходящую.

Прямые заходы. Этот критерий свидетельствует о том, что у ресурса имеется постоянная целевая аудитория. Такие пользователи вводят адрес в браузерной строке или попадают на веб-сайт с созданной ранее закладки.

Характер перемещения курсора мыши и схема движения посетителя по сайту. Поисковая система анализирует не только клики, но и движение курсора по страницам. Результатом анализа перемещений становится карта путей по сайту, показывающая наиболее популярные страницы и помогающая рассчитать их динамический вес. На основании этих данных можно сделать вывод о трудностях, с которыми сталкивается пользователь, и принять меры по их устранению. В итоге повышается конверсия. Для поисковиков сведения о перемещении курсора важны с точки зрения поиска программ, с чьей помощью владельцы ресурсов пытаются накрутить поведенческий фактор.

Кликабельность быстрых ссылок (CTR сниппета). Сниппет значительно упрощает переход на нужную страницу, позволяя попасть на нее прямо из результатов поиска. Грамотно составленный сниппет – хорошее подспорье для быстрого получения ответа на заданный вопрос. Высокая кликабельность быстрых ссылок говорит о том, что пользователи находят на сайте нужную информацию. Благодаря этому страницы ранжируются поисковой системой лучше.

Кнопки социальных сетей. Когда содержимое ресурса нравится пользователям и кажется им полезным, они охотно делятся ссылками на эти страницы с друзьями. Кнопки социальных сетей, возможность поставить лайк и подписаться – простой способ помочь посетителям выразить положительное отношение к площадке.

Методы сбора поведенческих факторов поисковыми системами

Со своей стороны ПС могут измерить лишь ряд факторов, это CTR сниппета, социальные сигналы и возвращение к поиску. Для сбора других данных они используют:

  • Системы сбора статистики, которые оптимизаторы устанавливают сами. Это Google Analytics и Яндекс.Метрика;
  • Браузеры, которые принадлежат ПС. Яндекс.Браузер и Google Chrome. Они собирают очень много данных;
  • Плагины для браузеров (бары, приложения и т.д.) также способны передавать информацию.

Вы не можете запретить поисковым системам собирать данные о поведенческих факторах, если вы не будете ставить системы статистики, то вы лишь ограничите их возможности. Нужно ли это делать? Разумеется, нет. Смысла в этом нет никакого, при этом вы сами лишаете себя отличных инструментов для анализа поведенческих факторов.

Сегодня игнорировать значение ПФ уже нельзя, оптимизатор должен стремиться к их улучшению. Способов всего два:

  • Естественные;
  • Неестественные.

Про естественные способы я поговорю в статье «Улучшение поведенческих факторов ». К неестественным способам относятся накрутки с помощью ряда сервисов. Их я не рекомендую, так как сегодня есть очень большой риск попасть под фильтр за накрутку ПФ, поисковые системы очень хорошо научились распознавать такие методы.

Если у вас очень хороший и интересный сайт, у которого отличные поведенческие факторы, то это не значит, что их не нужно улучшать. Практика показывает, что улучшить ПФ можно практически всегда, а это облегчает его продвижение

Но при этом важно еще и не ухудшить их собственными действиями

Как мы накручивали ПФ и что получили

У каждого интернет-агентства в загашниках есть сайты различных тематик. У нас такие тоже есть. Мы взяли один из таких сайтов — globalwindow.ru. Рома попросил нас выбрать один запрос, который был уже в ТОП-20 «Яндекса», и мы выбрали запрос «импортные окна». «Грязная» частотность запроса по вордстату — 1890. Не самый популярный запрос, но частотность все-таки есть, да и тематика одна из самых конкурентных.

На момент старта эксперимента (20 января) сайт занимал 16-е место по запросу «импортные окна» в регионе «Москва и Московская область».

Буквально за неделю Рома вывел его на первое место. Потом по этому запросу продвигаемый сайт стал занимать два первых места. В момент написания кейса сайт globalwindow.ru занимает три первые строки в регионе «Москва и Московская область».

Помимо этого запроса, Роман вывел в топ и ряд смежных запросов. См.скриншот ниже:

В общем, Роман снова взломал систему. Его методика работает. Это надо признать.

Признаем.

Основания для наложения фильтра

  1. Получение поисковиком сигнала о неестественности трафика и наличии таких признаков накрутки ПФ:
    • слишком много переходов;
    • множество попаданий на сайт по нерелевантным поисковым фразам (к примеру, вы продаете цветы, а трафик приходит по запросам о песне про белые розы);
    • пропорции между числом переходов, позицией ресурса и популярностью поисковой фразы неестественные (например, при низкой позиции большое количество переходов по высокочастотным запросам).
  2. Проведение конкурентами кампании, направленной на дискредитацию сайта. Чтобы погубить ваш онлайн-бизнес, им нужно тратить, как минимум, по 500 долларов в течение двух-трех месяцев на накрутку.
  3. Регистрация сайта в специализированных сервисах по накрутке (Movebo, Userator, SERPClick и т. п.). Вам даже необязательно использовать их по назначению, чтобы попасть под фильтр.
  4. Ошибка. Нельзя исключать и такой вариант.

Как проверить сайт на фильтры Яндекса?

Итак, давайте теперь расскажу, как определить находится ли Ваш сайт под фильтром Яндекса или же это просто плохое отношение пользователей и Ваш сайт сам по себе не интересный для них.

Способ №1. Во-первых, если Вы заметили, что что-то творится с вашим проектом или он плохо ранжируется в выдаче, то незамедлительно напишите в поддержку Яндекса, связаться с которой можно через панель вебмастера в разделе обратная связь. Система интерактивной помощи сама даст рекомендации по той или иной причине, но если ответ не будет найдёт, то появится возможность заполнить форму и отправить Платону. Но будьте готовы к тому что ждать придется от 4-10 дней, вся зависит от загруженности, хотя на некоторые запросы мне отвечали уже в течении суток. Проанализировав проекты, в которых вебмастера использовали накрутку поведенческих факторов Платон (поддержка Яндекса в лице Платона Щукина) ответил как всегда шаблонным сообщением:

Подождав недельку, я снова решил отправить более подробный запрос с разъяснением и попробовать надавить на жалость поддержки и вытянуть у них как можно более подробную информацию о причинах наложения санкций на что получил очередной стандартный ответ где, они сообщаю, что от них ничего не зависит и все наладиться само собой, нужно лишь отказаться от незаконных способах продвижения и «ждать у моря погоду».

Способ №2. Прогоните сайт через сервис XTOOLS.RU и посмотрите результат в разделе наложенные фильтры.

Способ №3. Установить бесплатное расширение Rdsбар для браузера. При открытом сайте переходим в плагин и в левой верхней части окна программы в разделе ТИЦ если появилась надпись АГС, то считайте, что Вы в глубокой жо…

В общем сами виноваты и причину проблем искать необходимо только в самих способах применяемой раскрутки и качества контента. А многие причины наложения фильтров как раз и находятся в самом контенте. Если посмотреть на типичные ошибки при написании статей, то сразу видно, что для того чтобы раскрутить свои сайты многие начинают раскидывать по всей статье в огромном количестве нужный запрос, так сказать затачивать под него материал, и тем самым не замечают, как «заспамливают» всю статью и сайт в целом. Приведу пример переспамленного абзаца сайта по продаже видеорегистраторов:

Как видите в статье используется частое употребление определенного ключевого запроса как в абзацах, так и в самих заголовках и подзаголовках. Если читать переспамленный текст, то сразу будет виден акцент определенное словосочетание, которое может быть неуместно использовано или же употреблено чуть ли не через предложение. Как правильно писать оптимизированные статьи я писал тут, обязательно почитайте.

Вот основной перечень тех негативных факторов, которые могут служить поводов для наложения фильтра от Яндекса:

  • Переспам ключевых запросов в материалах сайта;
  • Продолжительная недоступность сайта;
  • Увеличенный показатель отказов пользователей на сайте;
  • Большое количество рекламы на сайте и в самих материалах;
  • Медленная загрузка ресурса;
  • Неграмотное использование сервисов накрутки поведенческих показателей;
  • Покупка большого количества SEO ссылок для продвижения запросов;
  • Наличие обратных ссылок с сайтов-помоек, созданных для продажи ссылок и распространения спама;
  • Плохая история купленного домена;
  • Резкое снятие купленных обратных ссылок с таких бирж как Sape, Webeffector и Rookee;
  • Неестественное поведение на сайте пользователей;
  • Частое употребление точных вхождений запросов в бэклинках.

Как вы уже поняли из выше сказанного попасться можно на многих мелочах, которые на первый взгляд не видны. Поэтому при продвижении советую использовать только надежные и проверенные методы продвижения, они еще называются “белое продвижение”. Не стоит экспериментировать и рисковать с накруткой, делайте свой блог или же сайт компании как можно более полезным, привлекательным для пользователей и показатели сами увеличатся.

Страхуемся от недоброжелателей

Также существую и независящие от Вас действия, которые могут повлиять на ранжирование Вашего сайта в выдачи и это накрутка показателей недоброжелателями. К примеру у Вас успешный сайт и находится в ТОПе выдачи и там же находится сайт Вашего конкурента, которому Вы мешаете и всячески неугодны. И что он делает в таком случае, ничего умного, он создает компанию и начинает накручивать Вам поведенческие показатели. Уберечься от этого очень трудно. В обязательном порядке проверяйте трафик в разделе Яндекс.Метрика и Гугл аналитика, и в случае обнаружения резкого показателя отказов или же постороннего, нецелевого трафика сразу же пишите в поддержку. На запрос с такой проблемой Платон ответил следующим сообщением:

Немного размышлений

Крутить или не крутить сервисами?

С одной стороны, соблазнительно, потому что затраты достаточно маленькие, эффект вполне ощутим, но рискованность на наш взгляд в данном случае перевешивает, потому что, что касается публичного сервиса, спалиться как не фиг делать.

Мы даже попробовали, как исполнители в сеобонусе зашли, мы на третий день себе свое же задание получили. Слить базу всех исполнителей никаких проблем, а из юзератора еще проще. Там не нужно нано-технологий, просто сливаешь базу и по списку банишь.

Либо понимать риски, либо не рисковать.

Насчет ручного. Тут такое получается, что с одной стороны, круто, с другой стороны, дорого. Все равно не исключены риски. Мы какую-то технологию применили здесь, но надо очень много экспериментов поставить, чтобы определить на 100%, что не забанится, что ты никаких ошибок не допустишь, не спалишься. Теоретически риски существуют, но, наверно, их меньше. Проект должен быть стоящий, чтобы в него такие ресурсы вкладывать.

Как улучшить поведенческие факторы без накрутки

Чтобы знать, произошло ли улучшение поведенческих факторов, необходимо понимать, какое значение для них оптимальное. Исследования крупной компании по работе с SEO и маркетинговыми инструментами Search Metrics показывают, что длина клика в среднем 3 минуты 10 секунд. Это касается веб-ресурсов, входящих в первую десятку в поисковой выдаче «Гугла».

Однако большое значение имеет сегмент, в котором работает сайт. Чтобы понимать, каких значений требуется достичь, необходимо проанализировать ТОП-выдачу.

В качестве инструмента для анализа обычно используется SimilarWeb — онлайн-сервис для сбора статистики и веб-аналитики. В нем формируется отчет со следующими данными:

  • сумма страниц, которые были посещены в рамках сессии;
  • среднее значение времени пребывания на сайте;
  • показатель отказов;
  • сведения о трафике.

По этим данным сервис демонстрирует приблизительное значение, выгрузка их происходит бесплатно.

Данные можно выгрузить через специальное расширение SimilarWeb для Google Chrome — Traffic Rank & Website Analysis.

Полученная через SimilarWeb информация сравнивается с настоящими данными веб-ресурса. В случае их отсутствия они берутся из Яндекс.Метрики и Google Analytics.

Существуют честные, так называемые белые способы влияния на поведенческие факторы сайта.

Прежде всего проводится аудит веб-ресурса. Потом результаты анализируются. Далее выявленные с помощью аудита слабые места сайта прорабатываются.

Когда интернет-площадка активно посещается пользователями, можно поинтересоваться у них, что им не нравится на сайте, что неудобно, что хотелось бы видеть, что мешает. Главное, привести мнения разных людей к одному общему знаменателю, поскольку то, что удобно одному, не нравится другому. Тут главное — вовремя включить здравый смысл. Результаты обратной связи анализируются, и принимается решение о том, какие работы еще потребуются сайту.

Когда проведено улучшение юзабилити, построена грамотная структура сайта, включена понятная и удобная навигация по веб-ресурсу, налажена система оформления заказа, тогда начинаются мероприятия для привлечения постоянных посетителей.

Разработка программ лояльности для постоянных покупателей — перспективный и привлекательный для клиентов метод. Всем приятно получать подарки за покупку, а если за следующую покупку давать скидку, то это приятно вдвойне

При этом важно помнить о главном правиле: продукт или услуга должны быть качественными.

Именные скидочные карты, розыгрыш ценных подарков и другие программы лояльности с большой долей вероятности обрадуют постоянных клиентов и станут хорошей мотивацией к покупке для новых посетителей.

Акции, скидки и ценовые предложения следует постоянно обновлять и делать разными, а не вешать одну и ту же скидку в пятнадцать процентов несколько лет подряд. К цене люди привыкают, и даже если она по скидке, то ее давно запомнили, и скидка стала всего лишь рекламным баннером на сайте. Поэтому нужно придумывать что-то новое, интересное, брать на вооружение перспективные находки из этой области у конкурентов и т. д.

С помощью использования вышеперечисленных способов решается задача привлечения постоянных пользователей. Именно они повышают поведенческие факторы веб-ресурса. То есть если интернет-площадка интересная, удобная, постоянно обновляемая, то пользователи своим посещением могут поднять веб-ресурс на высокие позиции в поисковой выдаче.

Белые способы улучшения поведенческих факторов в итоге ведутся по двум направлениям:

  • повышение удобства использования веб-ресурса для пользователей;
  • решение интента, то есть намерений пользователя, который он вкладывает в запрос при обращении к поисковику.

В рамках решения интента на страницах сайта присутствует соответствующий контент, который должен быть:

  • актуальным;
  • качественным;
  • релевантным.

Проводится еще ряд мероприятий по улучшению характеристик веб-ресурса. Информация на сайте структурируется. Затем она адаптируется под мобильные устройства путем сжатия и оптимизации изображений на сайте.

Во время оптимизации верстки имеет смысл разместить на веб-ресурсе блок обратной связи. Как дополнение к этому блоку подключается система для аналитики поведения людей на странице. Например, можно подключить сервис для того, чтобы наблюдать за движением курсора мыши.

Подобные блоки активно используются на различных веб-ресурсах, например в Google.

Работа по увеличению глубины просмотра веб-ресурса также включает в себя перелинковку на страницы по теме, содержащие полезный контент.

Дополнительно можно рассмотреть размещение на страницах сайта разных интерактивных элементов, чтобы пользователь с ними взаимодействовал.

Почему накрутка поведенческих факторов сегодня неэффективна

Накрутка поведенческих факторов представляет собой повышение значения различных показателей действий людей на сайте искусственным путем. Это осуществляют специальные программы или сами пользователи, которые намеренно переходят на конкретные веб-ресурсы из поисковой выдачи, работая в программах по определенным задачам. Такие заказные посетители имитируют поведение настоящих пользователей: смотрят не одну, а несколько страниц, находятся на каждой из них определенное время и т. д. Иногда для улучшения конверсии они могут сделать заказ.

Подобные манипуляции на веб-ресурсе сигнализируют поисковым системам о его привлекательности и удобстве для клиентов, поэтому они повышают ранжирование. Однако этот факт из области теории.

Что касается практики, то за накрутку поведенческих факторов применяются санкции. «Яндекс» ввел их в середине 2011 года, пессимизировав, то есть понизив в выдаче, приличное число веб-ресурсов.

При этом данные тактики никуда не делись и продолжали применяться до 2014 года. Тогда произошло очередное массовое попадание сайтов с нечестной накруткой под фильтр «Яндекса», то есть в бан, с потерей трафика, а значит, прибыли. В настоящее время работа фильтра проходит в автоматическом режиме. Результаты его работы проверяются в метрике.

Фильтр за накрутку сайта влияет на место в выдаче по витальным или, как они еще называются, брендовым запросам. Брендовые запросы делаются строго по названию фирмы, марки продукта или бренда без всяких дополнительных фраз.

Специалисты по сайтам, искусственно завышающие поведенческие факторы, продолжают предлагать свои услуги. Для этого они используют сервисы по быстрому продвижению, которые обещают, что от веб-мастеров потребуется минимум усилий для раскрутки, поскольку большую часть работы они берут на себя. Функция сервисов заключается в создании сложных алгоритмов для накрутки поведения пользователей. Они включают в себя переходы с выдачи на веб-ресурс, переход по ряду ссылок, чтение материалов в течение заданного времени, скролл указанных страниц с конкретной скоростью и прочее.

Есть программы, которые воспроизводят поведение человека за компьютером. Специалисты по SEO активно их используют. Например, это может быть ZennoPoster.

Программы заходят с разных устройств, браузеров и адресов IP. Они программируют алгоритмы и в требуемой последовательности воспроизводят посещения веб-ресурса.

Так называемых псевдопосетителей сайта немного. Они составляют маленький процент от реального трафика по запросу. Если их будет большое количество, то для поисковиков станет заметно, что поведенческие факторы пытаются накрутить. Но если алгоритм достаточно сложный, то вычислить его будет непросто.

SEO-специалисты обычно не афишируют такой способ продвижения веб-ресурса. Да и пользуются накруткой поведенческих факторов из них лишь единицы.

Может получиться так, что сайт не забанили, несмотря на то, что для его продвижения несколько месяцев используется накрутка поведенческих факторов

Но в дальнейшем у него вряд ли получится сохранить свои позиции в выдаче, потому что рано или поздно алгоритмы поисковика накрутку все равно заметят, обратив внимание на завышенные результаты в отдельных периодах.. В этом случае веб-ресурс может лишиться своей позиции в поисковой выдаче, и это будет еще вполне благоприятный исход

Хуже, когда его исключают из поиска.

В этом случае веб-ресурс может лишиться своей позиции в поисковой выдаче, и это будет еще вполне благоприятный исход. Хуже, когда его исключают из поиска.

Алгоритмы поиска разработали автоматическую систему вычисления действий с выдачей. Существует ряд признаков, по которым она распознается:

Слишком высокая активность на сайте, особенно когда ресурс молодой или ранее ничем подобным не привлекал внимание.
Неестественно выглядят заходы на сайт, особенно явно выделяются пользователи, пришедшие по коммерческим запросам.
Один источник накрутки кликов. Это может быть единственное IP или постоянное посещение какого-то веб-ресурса, например биржи с платными кликами

Именно так определяют пользователей-кликеров, которые повышают сайту конверсию, а потом опять приходят на биржу.
Естественные колебания не учитываются. Заходы на сайт по определенным запросам вполне прогнозируемы. Они происходят в конкретные часы, время суток, дни. Автоматическими сервисами такие прогнозы не учитываются, и если SEO-оптимизатор прибег к их услугам, то сайту грозит попадание под фильтр.

Подобные сервисы в основном пользуются одним сервером. Поисковики обычно вычисляют сервер, на который возвращаются с сайта коммерческие пользователи.

Что использовали для накрутки

Изначально планировали использовать несколько разных сервисов для накрутки, но найти «живые» инструменты оказалось затруднительно. Поэтому остановили выбор на Userator. Использовали стандартный Userator и SEO Bonus. Но основные силы были направлены на ручную накрутку.

Как работает Userator

Заказчик оплачивает каждую сессию (11 рублей за сеанс). Специальное ПО на компьютерах исполнителей присылает им пошаговые инструкции и делает контрольные скриншоты. Исполнители – реальные люди с IP-адресами из разных регионов, зарегистрированные в сервисе.

Единая схема задания в Userator:

1. Вводится запрос-синоним.

2. Выбирается регион поиска: Москва (в Яндексе).

3. Вводится целевой запрос.

4. Осуществляется переход на 2 случайных сайта.

5. Беглый просмотр открытых страниц.

6. Возврат на выдачу.

7. Переход на целевой сайт.

8. Просмотр 2–3 страниц на целевом сайте в течение 1–2 минут.

9. Конец сессии.

Как работает SEO Bonus

В SEO Bonus взаимодействие инструмента и исполнителя происходит через Telegram-бот, соответственно, упор делается на мобильные устройства. Бот присылает одно задание в день, они проще, чем в Userator, но стоят дороже (20 рублей за сеанс). Из-за того, что заданий меньше, пользователь выглядит более реалистично.

Пример задания

Ручная накрутка

Для ручной накрутки был арендован сервер, на котором поднимали определенное количество виртуальных машин со своими конфигурациями: операционная система, разрешение и проч. На каждой машине было несколько браузеров (Firefox, Chrome и Яндекс.Браузер). В каждом браузере по несколько десятков отдельных пользовательских профилей. Каждому пользователю выделяли отдельные резидентные прокси московского региона. В общей сложности получили 168 вариантов конфигураций с несколькими десятками профилей.

Для проверки гипотезы «Владелец или конкурент» нужно было убедиться, умеет ли Яндекс отличать, кто накручивает ПФ. Для этого сайты разделили на две группы:

  • «Владелец»: максимум компрометации связи между аккаунтом в сервисе накрутки и Яндекс.Вебмастером. Установлены расширения от Яндекса (Погода, Почта и т.д.), регулярные посещения сервиса и Вебмастера.
  • «Конкурент»: следили, чтобы не было оснований связать сессию с владельцем сайта.

С помощью ручной накрутки также проверяли гипотезу «Пользователь с историей vs пользователя без истории». Соответственно, часть пользователей работала по сценарию максимально приближенному к реальному (сессии с «историей»): это реалистичные аккаунты, с номерами телефонов, Яндекс.Диском, привязкой и сохраняемыми файлами cookie. И были «чистые» сессии, для которых удалялась вся информация о предыдущих поисковых сессиях.

При этом поведение пользователей определялось не единым паттерном, как в Userator, а было максимально разнообразным:

Для накрутки брали запросы, которые находились в ТОП 50 выдачи.

Сколько крутили:

  • 20–30% от частотности запроса, если он в ТОП 20/50;
  • в случае с низкочастотными запросами (до 5 точных показов) – 1–2 визита в месяц;
  • брендовые (все нулевые) – 1–10 визитов в месяц, исходя из позиции;
  • крутили, пока запрос устойчиво не попадет в ТОП 5.

Информация о сайтах, участвовавших в эксперименте

Тематика: продажа кошек породы мейн-кун.

Региона: Москва.

Семантика: ~250 ключей.

Для проведения экспериментов создали 21 сайт – семь групп по три сайта в каждой:

  • Основная группа Userator (6 сайтов) делится на две подгруппы «Владелец сайта» (3 сайта) и «Конкурент» (3 сайта).
  • Основная группа SEO Bonus (6 сайтов) делится на две подгруппы «Владелец сайта» (3 сайта) и «Конкурент» (3 сайта).
  • Основная группа «Ручная» (6 сайтов) делится на «Аккаунты с историей» (3 сайта) и «Аккаунты без истории» (3 сайта).
  • «Контрольная группа» (3 сайта) – их не крутили.

Подробнее про сайты:

  • Домены новые, зарегистрированы примерно в одно время, все домены без истории.
  • Все сайты на разных IP-адресах (публичные хостинги: sweb, timeweb, beget и тд).
  • WordPress, разные паблик-шаблоны.
  • Одинаковое количество страниц.
  • Яндекс.Метрика, Яндекс.Вебмастер, Google Search Console, GA.

Была проведена базовая внутренняя оптимизация:

  • Написаны тексты одинакового объема с равным количество ключей, распределенных в тексте по одному принципу (12–15 тысяч знаков на один сайт).
  • Сделан каталог котят: изображения, цены.
  • Уникальные title.

Региональность:

  • Для Яндекса был присвоен регион «Москва» через Яндекс.Вебмастер.
  • Для Google добавлена организация с адресом на Google Maps (везде разные мобильные номера).
Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Adblock
detector