Негативная SEO – миф или реальность?

У Google была давняя нерешительность в отношении концепции негативной SEO. Если прижать сотрудника Google в углу и спросить прямо, существует ли на самом деле негативная SEO или нет, то, скорее всего, он ответит, что напуган и намерен вызвать полицию. Если поинтересоваться об этом в более вежливой обстановке, то можно услышать всякую ерунду о том, что это вовсе не та проблема, о которой стоит беспокоиться, это не такое уж распространённое явление, оно не оказывает большого влияния на рейтинг поиска в целом…

Беда заключается в том, что ничто и никто не отрицает существования негативной SEO. Итак, как нечто способное разрушить веб-бизнес может одновременно существовать, но при этом не считаться проблемой?

Что такое негативная SEO?

Негативная SEO – зонтичный термин для множества различных возможных действий, которые злоумышленник может предпринять в попытке повредить рейтингу сайта в глазах Google.

Идеальный конечный результат для злоумышленника: сайт пропадает из топа результатов поиска в Google, а владельцу даже приходится остановить бизнес в целом, если ранее он находился в хрупкой позиции.

Плохие обратные ссылки. Это один из основных способов негативного влияния на другой ресурс – нужно просто создать сотни или тысячи плохих обратных ссылок на сайт. Нужно лишь перейти в известную часть сети частных блогов, которая была исключена из положительного списка поисковиком, и купить ссылки на сайт. Можно приобрести множество ссылок на Fiverr или у других теневых продавцов организовав таким образом много спамовых сообщений на блогах с ссылкой на жертву. Обратные ссылки могут исходить от широкого круга источников, и некачественные бэклинки могут повредить SEO сайта на который они ссылаются.

Копирование контента. Скопированный один к одному контент может запутать результат поиска таким образом, что это будет похоже на то, что сайт уже не единственный источник, публикующий уникальные фрагменты. Обычно Google использует дату индексации, а не дату публикации для того, чтобы определить, кто первым опубликовал контент. Всё будет в порядке, если система не проиндексирует спам-сайт прежде, чем навестит оригинальный сайт. Существуют способы обойти эту проблему, и если сайт уже накопил достаточно доверия, то поисковик всё равно отдаст сомнительное превосходство оригиналу, однако это может оставить негативный след.

Атака на пропускную способность. Некоторые атакующие используют более прямой путь для того, чтобы навредить сайту: наполняют его трафиком. На низком сетевом уровне это может замедлить работу, что навредит SEO с точки зрения метрик страниц. Атака с более высоким объёмом трафика может привести к тому, что хост-провайдер накажет аккаунт за чрезмерное использование ресурсов. Самые сильные атаки способны даже полностью обвалить сайт.

Взлом и скрытый спам. Иногда очень решительный злоумышленник может взломать сайт: либо путём компрометации учётных записей с правом администрирования, либо взломав электронную почту, либо за счёт фишинга. В некоторых случаях квалифицированный хакер может проложить себе путь к уничтожению информации с помощью социальной инженерии. Независимо от способа проникновения, как только контроль над сайтом получен на нем могут разместить спамовые ссылки и страницы. Некоторые взломщики могут просто скомпрометировать сайт целиком, другие разместят скрытый спам который просканирует поисковик, но будет не виден пользователям. Также можно просто разместить тег “noindex” в заголовки сайта и он станет игнорироваться поисковыми ботами.

На сегодняшний день, когда большинство людей говорят о негативной SEO, обычно имеют в виду первый элемент в списке: спам-бомбардировку ссылками. Такие спам-атаки могут быть довольно замысловатыми; в них могут применяться тщательно подобранные ключевые слова для того, чтобы сообщения были похожи на оригинальный источник, это выглядит так, как будто владелец оригинального сайта просто пытается приобрести ссылки. Злоумышленники могут создавать поддельные профили под именем оригинального автора для того, чтобы спамить в комментариях блогов.

Причина, по которой негативные обратные ссылки стали прекрасным методом для негативной SEO, заключается в том, что их легче организовать и сложнее отследить. Фактический взлом организовать намного сложнее. Атака DDoS требует значительных ресурсов, и её можно отследить. Копирование контента обеспечивает довольно низкий уровень успеха, и такому типу атаки очень легко противостоять. Плохие обратные ссылки тем не менее могут медленно и неуклонно собираться месяцами или годами, прежде чем наберут силу и уничтожат сайт.

Негативная SEO – это не миф, так почему же получается так, что Google отрицает любую информацию об этом и вообще преуменьшает проблему всякий раз, когда о ней заходит разговор?

Взгляд из Google

Причина, по которой Google не считает, что негативная SEO – это огромная проблема, имеет две стороны. Во-первых, у компании очень изощрённый алгоритм. Специалисты полностью понимают, что негативная SEO – это реальная возможность, поэтому обычно, когда они заносят сайт в чёрный список или выслеживают частную сеть блогов, они просто заглушают исходящие из этих страниц ссылки.

Это почти означает, что ссылки не существуют. Они появятся в отчётах об обратных ссылках, они приведут трафик, если кто-то действительно перейдёт по ним из частных блогов, но не повлияют в положительную или отрицательную сторону на PageRank. С точки зрения Google они вообще не существуют.

Вторая причина, по которой Google не считает негативную SEO проблемой, заключается в том, что у них есть инструмент, который можно использовать для борьбы с ней. Инструмент Google Disavow Links позволяет загружать список ссылок, которые, по мнению автора, вредны для его сайта и которые он не желает ставить на учёт у поисковой системы.

При использовании инструмента Google Disavow Links сначала рекомендуется предпринять ряд других мероприятий. Обратитесь к владельцу сайта с просьбой удалить ссылки. Сообщите о проблеме веб-мастеру сайта, если это необходимо и если стало очевидно, что это спам. Кроме того, убедитесь, что эту ссылку действительно стоит удалять. Инструмент Google Disavow Links главным образом представляет собой “ядерный” вариант разрешения конфликта и может быть опасным, если с его помощью отказаться от хороших ссылок.

В принципе, с точки зрения Google негативной SEO действительно может не быть: некоторые ссылки злоумышленников влияют на некоторые сайты, однако в то же время некоторые атаки включают в себя несколько таких ссылок, которые на самом деле оказывают полезное влияние. Большинство ссылок в таких атаках легко фильтруются, а возможность отказаться от них всегда остаётся за владельцем сайта.

Текущие проблемы

Однако в этой ситуации существует проблема. На самом деле, существует даже две проблемы. Во-первых, атака не обязательно должна вредить сайту очень долго; она может лишь ударить по сайту немного для того, чтобы сбить его с ног, а затем остаётся превзойти его в рейтинге, пока есть шанс. Можно не подвергаться постоянной потере трафика и рейтинга, однако можно потерять как нынешних, так и потенциальных клиентов. Атака также может свернуть планы по расширению, учитывая, что она способна спровоцировать несколько голодных месяцев с минимальной прибылью.

Проблема в том, что в Google, похоже, считают, что их компания – это единственный важный игрок. Когда владелец ресурса отказывается от ссылок, Google перестаёт их учитывать и поисковый рейтинг будет изменяться соответствующим образом.

Проблема в том, что эти ссылки всё ещё существуют. Google их не удалил. Компания не рассылает пресс-релизы со списками ссылок, которые больше не учитываются в рейтинге. Любое другое стороннее программное обеспечение для анализа ссылок по-прежнему будет видеть эти плохие ссылки и всё ещё будет учитывать их.

На самом деле это не так уж плохо. Majestic может по-прежнему рассматривать эти спам-ссылки как плохие ссылки, а рейтинг сайта по Majestic может быть ниже, чем он должен быть, однако это не имеет значения ни для Google, ни для клиентов. Никто не проверяет профиль ссылок в Majestic перед тем, как решит приобрести услугу. Это внутренняя метрика, которая может выглядеть ниже, чем должна, но она по-прежнему внутренняя. Рейтинги Majestic не влияют на результаты поиска в Google.

Разбираемся с негативной SEO

Негативная SEO может представлять опасность для сайта, поэтому стоит отслеживать возможный вектор угроз. Это касается упомянутых в самом начале методов нападения.

Плохие обратные ссылки. Это наиболее распространённая форма атаки, но ей можно легко противостоять. Это становится проблемой, только когда приобретает массовый характер; наиболее значимые атаки будут заметны, только если время от времени заглядывать в показатели трафика.

Рекомендуется выполнить полный аудит обратных ссылок (если это ещё не было сделано). Воспользуйтесь специальным инструментом для того, чтобы вытащить весь профиль обратных ссылок, и изучите его. Найдите те ссылки, которые классифицируются как плохие, и сохраните их в отдельном файле. После наполнения этого файла можно связаться с веб-мастерами для того, чтобы их удалить. Также есть возможность “скормить” весь файл в Google Disavow Links, как было указано выше.

К сожалению, аудит ссылок – это не разовое мероприятие. Нужно постоянно следить за появлением новых ссылок на сайт. Рекомендуется проводить ревизию раз в 6 месяцев. Двух раз в год достаточно для того, чтобы заметить, что против сайта ведётся медленная или маломасштабная негативная кампания; иногда можно делать выборочные проверки для того, чтобы узнать, стоит ли беспокоиться.

Если сайт находится в высококонкурентной нише, в ожесточённой индустрии или если замечено, что конкурент с некачественным сайтом начал опережать в рейтинге качественный продвигаемый сайт, то аудит нужно проводить чаще. Всегда существует вероятность, что некий конкурент поднимается выше того положения, которое он заслуживает, выбивая всех остальных за счёт негативной SEO.

Копирование контента. Копирование контента подчистую с последующей публикацией в другом месте или под другим наименованием считается довольно распространённой проблемой. Как уже упоминалось выше, в большинстве случаев это вряд ли повредит сайту. Пока оригинальный проект сам не был уличён в спаме, Google мог выстроить к нему некоторое доверие и поэтому сможет разобраться, что публикация на оригинальном сайте и публикация на каком-то недостойном микросайте – это не одно и то же.

Тем не менее может оказаться целесообразным время от времени искать в Интернете спам-копии своего контента. Возьмите недавно опубликованную статью или более старую статью и пропустите её через проверку на наличие плагиата. Для этого подойдёт Copyscape. Также можно взять конкретные предложения и поискать их в Google для того, чтобы узнать, публиковались ли они где-либо ещё. Поместите вокруг них кавычки для того, чтобы получить точные, а не частичные совпадения.

Copyscape также предлагает активный антиплагиатный сканер, доступный за определённую плату. Он просматривает Интернет через различные поисковые системы с целью обнаружения копий опубликованного на сайте контента. При нахождении совпадения выдаётся предупреждение и можно отследить, где и кто сделал копию. Это называется CopySentry, и, к сожалению, услуга становится довольно дорогой. 5 $ в месяц за еженедельные проверки или 20 $ в месяц за ежедневные проверки, но это всего лишь за 10 страниц сайта. После 10-й страницы понадобится уплатить либо 25 центов, либо 1 $ за страницу для еженедельных и ежедневных проверок соответственно.

Тем не менее иногда бывает полезно выбрать 10 фрагментов контента, которые будут отслеживаться раз в месяц (или раз в два месяца). Простого членства за 5 $ должно быть достаточно для того, чтобы получить подсказку о том, кто копирует контент, а исходя из этого, можно организовать более детальные проверки.

Пропускная способность и взлом. Эти проблемы стоит объединить вместе, потому что они обе сводятся к безопасности. Против DDoS-атаки не так много можно предпринять, кроме как воспользоваться защитой наподобие CloudFlare. Существуют специальные средства защиты от DDoS-атак, однако если сайт не подвергается активному преследованию, то нет необходимости выстраивать серьёзную защиту.

Между тем защита от взлома чрезвычайно важна. Стоит задействовать все возможные средства чтобы обезопасить сайт. Используйте SSL, используйте безопасный FTP для загрузки файлов, убедитесь, что имя пользователя и пароль с правами администрирования на сайте и на хостинге уникальны и сложные. Ознакомьтесь с возможностями фишинга и в целом узнайте об атаках такого рода. Также можно проводить регулярные проверки сайта с целью нахождения “подкорректированных” страниц. В общем, информационная безопасность – это огромная тема, выходящая за рамки данной статьи.