Фильтры Яндекса и Гугла — за что сайт может получить пессимизацию или...

Фильтры Яндекса и Гугла — за что сайт может получить пессимизацию или бан от поисковой системы

Эта статья является логическим продолжение публикации на тему повышения релевантности и улучшения ранжирования, с которой вы можете ознакомиться по приведенной ссылке. Сегодня я хочу поговорить о фильтрах, которые имеют место и в Гугле, и в Яндексе, а так же поделиться собственным примером попадания под один из них.

На самом деле оптимизация сайта под поисковые запросы — это, по большому счету, ходьба по лезвию бритвы. Причем все те действия, что совсем недавно не вызывали у российских поисковиков никаких нареканий, могут с течением времени стать причиной наложения фильтра или даже попадания в бан. Во второй половине статьи я опишу свою печальную историю об общении с техподдержкой Яндекса на предмет попадания KtoNaNovenkogo.ru под фильтр за переоптимизацию, ну, а пока немного теории.

Виды и причины санкций (фильтров) Яндекса

К сожалению, даже выполняя все приведенные ниже предписания, вы не будете на сто процентов застрахованы от пессимизации, но риск снизится существенно. По любому, понимая механизм наложения фильтра, вы сможете сами понять за что вас наказали и постараться устранить существующие недочеты.

Консультации с Платоном (обычно, обезличенный человек, отвечающий вам на вопрос заданный в техподдержку Яндекса, подписывается Платон Щукин, ну, или раньше так было, по крайней мере) тоже будет проще вести, понимая принципы наложения баннов.

Итак, все фильтры Яндекса, опираясь на принцип работы поисковых систем и используемые ими методы ранжирования, можно разделить на:

  • Предварительные фильтры — их поисковик применяет еще на этапе попадания сайтов в индекс и базовый поиск. Типичным примером может являться не учет большинства попыток накрутки поведенческих факторов.
  • Постфильтры — налагаются уже после расчета релевантности документа (ранжируемой веб-страницы)
  • Санкции накладываемые Яндексом можно разделить также на:

  • Ручные
  • Автоматические
  • А еще по степени и типу ущерба можно выделить:

  • Полный бан (сайт забанен), т.е. произошло исключение всех страниц из поисковой базы. Естественно, что при этом трафик с этого поисковика прекратится полностью.
  • Возможен фильтр в виде неучета исходящих ссылок с ресурса. Он может быть важен, например, для тех, кто планирует купить с него ссылки.
  • Возможен и неучет входящих ссылок, что будет серьезно ухудшать ранжирование.
  • За агресивную рекламу или имеющийся контент для взрослых вас могут ограничить в поиске (например, во втором случае показываться вы будете только при выборе пользователем, ищущим что-то в Яндексе варианта «без ограничений»).
  • Пресловутый АГС, который приводит к исключению из поисковой базы части страниц ресурса (зачастую большую часть).
  • Наказание за выявленную попытку накрутки поведенческих факторов (будем говорить подробнее чуть ниже).
  • Еще ряд фильтров и санкций, которые накладываются после ранжирования.
  • Какие причины могут приводить к наложению санкций?

  • Тексты запросто могут приводить к наложению фильтров. Например, у меня это был фильтр за переоптимизацию контента.
  • За ссылки тоже могут покарать. Например, за неумелую и неумеренную работу по набору внешней ссылочной массы или за переоптимизацию при организации внутренней перелинковки.
  • За злоупотребление рекламой, размещенной на страницах ресурса, тоже может последовать наказание.
  • Понятно, что и какие-то попытки накруток (ПФ и т.п.) могут привести к печальным последствиям.
  • Могут выявить ваши аффилированные сайты — созданые для продвижения услуг или товаров одной и той же компании с целью занятия как можно большего числа позиций в выдаче (по большинству поисковых запросов в выдаче будет представленного только по одному результату с одного ресурса).
  • За что можно получить бан (пессимизацию сайта, фильтр) в Яндексе?

    Давайте начнем с самого радикального наказания Яндексом простых веб-мастеров, а именно с вещей, которые могут привести к попаданию сайта в бан (так называемое черное SEO).

  • Скрытый текст — белым шрифтом по белому фону или использование еще каких-либо методов размещения контента, который обычные посетители не видят. Бан можно получить, например, и за использование для скрытия текста CSS свойства Display none.
  • Размещение на страницах списка ключевых слов, под которые они продвигаются. Наверное, встречали (раньше это было распространено) оформление этого списка в виде блока «Нас еще искали по запросам». Однако, могут наказать (баном или фильтром) даже за обычную перелинковку, где вы усердно ссылаетесь на другие страницы с использованием ключей (например, по стуку от конкурентов). В этом плане довольно опасно перебарщивать.
  • Клоакинг — это когда поисковым роботам (их узнают по юзернейму, которым они представляются при заходе на сайт или Ip адресу) выдает одни контент (как правило, переоптимизированный и трудночитаемый), а посетителям совершенно другой (без лишних ключей и вполне себе лаконичный). Клоакинг активно использовался на заре становления поисковых систем, когда те еще не наказывали за спам ключами и т.п. вещи.
  • Ссылки с картинки размером в один пиксель, которую, естественно, на сайте не видно, но ссылку-то поисковик видит и учитывает. Опять же это рудимент из прошлого, который сейчас разве что только совсем дремучий вебмастер будет использовать.
  • Контент созданный автоматически, например, в доргене (движке дорвея) или синонимайзере. Эти вещи по-прежнему активно используются, и дорвейщики умудряются до сих пор обходить препоны поисковиков. Жизнь доров не долга, но сил на их создание особо не тратится, поэтому они берут количеством и глубоким изучением меняющихся алгоритмов поисковиком и попыткой сыграть на их уязвимостях.
  • Наличие на сайте страничек или разделов для обмена ссылками (созданных вручную или автоматически) или любых других структур, которые можно отнести к разряду линкопомоек (сотни и тысячи ссылок на разные ресурсы). Причем не важно, будут ли линки проставлены с текстовым анкором или они будут идти с баннеров или картинок. Все это прямой путь в бан Яндекса, либо (если повезет) к наложению санкций. Причем меняться ссылками можно, но они должны быть тематическими вашему ресурсы и в небольшом количестве.
  • Размещение веб-страницы как бы вне сайта, ибо на них нет внутренних ссылок (только внешние) с вашего ресурса и они не упоминаются в sitemap.xml. Выполнены они при этом могут быть в дизайне сайта и иметь все те же самые элементы навигации.
  • Если на вашем ресурсе что-то из описанного выше имеется (может быть даже и без злого умысла созданное), то лучше это быстренько пофиксить.

    От бана давайте перейдем к более мягким мерам наказания используемых Яндексом, а именно к фильтрам. Наличие многих из них официально подтверждены этой поисковой системой, а часть является досужим домыслом оптимизаторов, но это вовсе не говорит о том, что они не используются (помните как в ДМБ: «Ты суслика видишь? — Нет. — И я нет. А он есть!»).

    Все описанное выше было бы очень здорово, если бы у поисковиков не было такой вещи как пессимизация и фильтры, которые способны существенно понижать в выдаче даже высоко релевантные запросу сайты. Для чего нужны поиску эти инструменты?

    Ну, очевидно, что для отсева различных вариантов накрутки и переспама описанных чуть выше факторов ранжирования. Те же самые тексты можно так забить ключевыми словами для якобы повышения соответствия поисковому запросу, что на документ будет наложен соответствующий фильтр, позволяющий алгоритму исключить такой документ из индекса или же серьезно понизить его релевантность. Тоже самое относится и к переспаму анкор листов и накрутке поведенческих факторов.

    Пессимизация и фильтры (или бан) — это инструменты поисковых машин для борьбы с накрутками и спамом. Они последнее время очень сильно нацелены на то, чтобы бороться с попытками манипуляций с факторами продвижения и попытками улучшения значения формулы релевантности для своего ресурса.

    Поисковики стараются не допускать и бороться с искусственным воздействием на формулу и все используемые ими способы пессимизации можно разделить на две категории:

  • Фильтры, накладываемые еще до начала построения формулы ранжирования для вашего сайта. В этом случае поисковики снижают влияние или полностью обнуляют для вас некоторые факторы, тем самым существенно снижая ваши шансы попадания в Топ выдачи. Например, при активных попытках манипуляции с входящими ссылками, могут обнулить значение ссылочных динамических факторов (ссылочное или анкорное влияние) для вашего ресурса (не учитывать ссылки вообще).

    После наложения такого предварительного фильтра, тем не менее, к вашему ресурсу будут применяться стандартные формулы ранжирования, но за счет нулевого (или пониженного) значения одного из факторов, место вашего сайта в поисковой выдаче будет не соответствовать реальной релевантности документа. Пессимизация во все красе.

  • Есть фильтры, которые накладываются уже после того, как для сайта будет рассчитана формула. Но вследствие наложения фильтров рассчитанная релевантность будет понижена на определенную величину, т.е. от полученного значения для определенного документа вычитается некий штраф. К данному типу фильтров можно отнести так называемый «портяночный фильтр» Яндекса, который за переспам ключевых слов в контенте опускал ресурс довольно сильно в результатах поиска.
  • Давайте рассмотрим несколько примеров, показывающих, за что могут быть наложены фильтры (пессимизация):

  • Аффилированность сайтов — иногда оптимизаторы (или владельцы бизнеса) идут на то, чтобы захватить как можно больше мест в Топе поисковой выдачи и тем самым перехватить как можно больше целевых посетителей (потенциальных клиентов). Сделать это не так то просто, т.к. в результатах поиска обычно отображается только один документ с каждого ресурса (наиболее релевантный запросу). Но выход есть.

    Создается еще один или несколько ресурсов помимо основного и их тоже начинают усилено продвигать по тем же поисковым запросам. В результате, в Топе результатов поиска может присутствовать несколько сайтов одного и того же владельца (фирмы). Поисковикам такая ситуация не нравится и при обнаружении такой попытки повлиять на ранжирование, они накладывают фильтр за аффилированность, в результате действия которого в выдаче остается только один ресурс, а остальные начинают считаться его зеркалом.

    Что примечательно, этот фильтр работает не всегда корректно и именно благодаря ему появился способ борьбы с конкурентами, который позволяет убедить поиск в том, что ваш сайт аффилирован с ресурсом вашего конкурента, но поиск предпочтет, в силу ряда причин, оставить в выдаче именно ваш ресурс, выкинув конкурента не только из Топа, но и вообще из результатов поиска по данному запросу.

  • Фильтр на одинаковые сниппеты — если у нескольких сайтов в результатах поиска по определенному запросу будут до некоторой степени одинаковые сниппеты, то будет показываться только один из них. Причем, не факт, что останется более релевантный документ.

    Наверное, данный фильтр наиболее актуален для интернет магазинов, которые зачастую имеют одинаковые описания товаров (а они могут использоваться в качестве сниппета) взятые с ресурсов производителей.

  • Фильтры за качество контента
  • Портяночный фильтр — переоптимизированные тексты, где чрезмерно высоко количество употреблений ключевых слов. Этот фильтр зависит от конкретных запросов (в основном применяется к коммерческим) и на его наложение или неналожение может повлиять авторитетность ресурса.

    Например, в случае коммерческого запроса и пятидесяти вхождений ключа в тексте документа, вы гарантированно попадаете под портяночный фильтр и релевантность вашего документа уменьшится на величину штрафа (кстати, очень большого, способного отбросить ресурс за первую сотню в выдаче).

    Для того, чтобы исключить наложение портяночного фильтра, достаточно будет:

  • избегать многократного употребления ключевых слов (не более пяти десятков в документе, а лучше половину от этой цифры)
  • не допускать концентрации ключей в конце текста (фильтр был направлен именно на Seo тексты, где все ключи собирались в самом конце текста, до которого никто из посетителей не доходил)
  • не допускать высокой концентрации ключевых слов в отдельных фрагментах текста, т.е. распределять их как можно равномернее
  • Фильтр за переоптимизацию — направлен против манипулирования текстовыми факторами ранжирования и попытки оказать влияние на релевантность документа. Отличается от портяночного тем, что штраф накладывается не за количество употреблений ключевых слов в тексте.

    Данный фильтр применяется практически исключительно для коммерческой выдачи и не привязывается к конкретному поисковому запросу, т.о. если он накладывается на документ, то веб страница понижается по всем запросам, по которым она продвигалась. Причем, штраф (пессимизация) при наложении этого фильтра будет меньше, чем при наложении портяночного (пару десятков позиций, т.е. просто выкидывается сайт из топа)

  • Фильтры за вторичность (использование копипаста) контента
  • Фильтры за качество входящих ссылок
  • Ссылочный взрыв — данный фильтр налагается тогда, когда резко увеличивается ссылочная масса ведущая на сайт. Он присутствует и в Яндексе, и в Google, причем в Гугле пессимизация за ссылочный взрыв для молодых ресурсов даже более актуальна. Поэтому, если ресурс вообще еще не обладает ссылочной массой, следует ограничиться приростом бэклинков, скажем, не более десяти в неделю.
  • Большое количество ссылок с плохих и ненадежных, с точки зрения поисковых систем, ресурсов может привести к проблемам с ранжированием (наложению фильтра). К вопросу о пользе автоматического прогона по десяткам тысяч ГС каталогов — несколько ссылок пойдут в плюс вашему сайту, а вот остальные могут утянуть его под фильтр за некачественную ссылочную массу и, как следствие, понижение в выдаче (пессимизация).
  • Покупные Seo ссылки — поисковики умеют определять покупные бэклинки с большой долей вероятности, но коммерческие ссылки не всегда есть зло с точки зрения поиска, ибо зачастую проставляются они с качественных и авторитетных ресурсов. Покупные линки по коммерческим запросам могут положительно влиять на ранжирование и увеличивать релевантность документа.

    Другое дело, когда вы попытаетесь продвигать информационные запросы при помощи закупки ссылочной массы, то это будет просто пустая трата денег и времени. Получается своеобразный запросозависимый ссылочный фильтр.

  • Участие в линкаторах (автоматических биржах по обмену ссылками) тоже может привести к наложению фильтра и, как следствие, к понижения в выдаче.
  • За что еще пессимизирует сайты Яндекс

    В разделе «Основные принципы» говорится о том, какие ресурсы он хотел бы видеть в своем индексе. Тут нас «агитируют за советскую власть» — советуют использовать только оригинальный контент, продумывать юзабилити, не проставлять ссылки на страницах своего проекта за деньги, а так же думать прежде всего о посетителях (т.е. создавать нужно именно СДЛ) и не пытаться продвигаться по тем поисковым запросам, по которым на страницах нашего ресурса не будет исчерпывающей информации. В общем-то, справедливо, но…

    Наверное, это все интересно, но гораздо интереснее то, что написано в разделе «Примеры к принципам» после слов «Мы стараемся не индексировать или не ранжировать высоко».

    В первом пункте Яндекс предупреждает, что за не уникальный (скопированный) контент ресурс может быть пессимизирован.

    Наверное, небольшой процент не уникального контента не приведет к печальным последствиям, но при переходе определенной грани можно попасть под фильтр и сильно потерять в позициях в выдаче, несмотря на то, что релевантность страниц вашего сайта будет достаточно высокой.

    Следующие два пункта кидают камень в огород так называемых дорвеев или доров.

    Несколько лет назад было довольно популярным занятием создавать дорвеи, тексты страниц которых генерировались автоматически с простановкой нужного количества ключевых слов. Таким образом эти дорвеи попадали в Топ выдачи по нужным ключевым запросам, но пользователи, переходящие на доры из поисковиков, не видели этот автоматически генерированный бредо-текст, т.к. их автоматически перебрасывало на страницы совершенно другого ресурса, продвигаемого таким образом.

    Этот способ продвижения относится к так называемому черному SEO. Сейчас двигаться с помощью дорвеев очень сильно затруднено в связи с очень серьезным отношением к этой проблеме поисковых систем. Доры попросту долго не живут и умирают, так и не успев попасть в Топ поисковой выдачи. Однако, их все равно продолжают клепать, дорвеестроители стараются всегда найти лазейку во все еще довольно крупноячеистой сети поисковиков, в которой они отлавливают кандидатов на отправку в бан или под фильтр.

    Дальше Яндекс предупреждает, что в ранжировании будут понижаться сайты, имеющие в своем составе каталоги чего угодно, которые не содержат какой-либо уникальной информации.

    В связи с этим становится ясно, что продвижение с помощью прогона по каталогам, которое было популярно несколько лет назад, сейчас уже не работает в силу нахождения всех этих каталогов под фильтрами Яндекса (они искусственно занижены в ранжировании, несмотря на реальную релевантность их страниц). В общем, не создавайте сами ГС каталоги и не прогоняйте по ним свои ресурсы, ибо это абсолютно бесполезно (если не вредно).

    Далее следует уже банальность — в выдаче будут понижены ресурсы с невидимым или слабо видимым текстом (белым по белому и т.п.) и ссылками.

    Понятно, что если вы чего-то прячете от посетителей (например, портянку текста, напичканную ключевыми словами), то несмотря на высокую релевантность этой страницы продвигаемому запросу, Яндекс все равно не позволит ей высоко подняться в выдаче.

    Чуть ниже вы сможете узнать, что даже заключая большой текст с ключами в окошко со скролингом, вы все равно потеряете в позициях за счет попадания под фильтр и последующую пессимизацию (пару лет назад это стало громом среди ясного неба для многих профессиональных сеошников).

    Затем он предупреждает нас о недопустимости использования еще одного приема продвижения из области черного SEO — клоакинг.

    При использовании клоакинга сайт программируется таким образом, чтобы определять, кто именно осуществляет запрос данной веб страницы — поисковый робот или же браузер пользователя (сделать это не сложно на основе анализа запроса к веб серверу). Соответственно, боту отдается веб страница релевантная нужному запросу, а реальному пользователю показывается совершенно другое содержимое.

    В очередном примере того, чего не нужно делать, чтобы не попасть под фильтр, Яндекс предупреждает о недопустимости создания ресурсов, которые предназначены лишь для того, чтобы «лить трафик» на вебсайт какой-либо партнерской программы.

    Очень часто этим занимаются в так называемой «фарме». Несмотря на высокую релевантность страниц таких ресурсов они будут серьезно пессимизированы. Хотя, многие на этом живут, с успехом обходят все препоны, которые расставляют поисковики на их пути, и их сайты не попадают под фильтр.

    Читая данную «декларацию о намерениях» дальше вы узнаете, что поисковикам не нравятся сайты с вирусами и прочими хитрыми заморочками в настройках серверов, такие ресурсы будут нещадно пессимизироваться невзирая на реальную ценность их страниц для поиска.

    Равно, кстати, как и ресурсы, использующие агрессивные способы рекламы с всплывающими окнами (popup, popunder, clickunder). Лично я только за расстрел таких ресурсов из оружия крупного калибра, ибо понижение в выдаче для них уж слишком мягкое наказание — бан и никак не меньше. Вот такой вот я злой, ибо до того как стать вебмастером, я был обычным пользователем и потратил много нервов (сдерживался, чтобы не врезать кулаком по монитору) на подобные сверх раздражающие вещи.

    Довольно часто раньше встречался на многих сайтах такой вид спама — «нас находили по таким-то поисковым запросам» и далее следовал список этих самых запросов. Веб сервер собирал эту информацию и выкладывал на данной веб странице запросы в чистом виде, тем самым существенно искусственно повышая релевантность этой страницы.

    Вот я раньше попадая на такую страницу очень долго гадал, а чего это меня поисковик на нее привел, когда там нет ответа на мой вопрос (даже намека нет), а только перечисленные фразы, включая ту, которую задавал и я в поисковой строке. Естественно, что такая изгаженная выдача не нравится никому (поисковики теряют на этом лояльных посетителей) и начинают понижать в ранжировании такие ресурсы, загоняя их под фильтры или даже в бан (полное удаление из индекса).

    Плагины и расширения, реализующие такой вид спама для увеличения релевантности страницы, можно встретить и сейчас, но упаси вас воспользоваться ими — ни в коем разе, ибо сразу пессимизируют и так понизят в выдаче, что трафика с поисковиков вообще не будет.

    Но что обидно, иногда под этот фильтр можно попасть за использование совершенно, казалось бы, безобидного «облака тегов», если поисковик сочтет его за такой вид спама и стремление искусственно повысить соответствие страницы запросам поиска.

    Далее Яндекс предостерегает нас от создания нескольких ресурсов для одного владельца (аффилированность):

    Есть такой хитрый способ оккупации всего топа поисковой выдачи за счет создания целой когорты сайтов для одной и той же фирмы, которые делаются на разных доменных именах и наполняются разным контентом, с высокой релевантностью нужным запросам. В результате продвижения их выталкивает в топ выдачи Яндекса и Гугла и, в случае большой удачи, весь Топ 10 может быть заполнен ресурсами одной и той же фирмы.

    Для данной фирмы это будет неоспоримая удача, но поисковикам такая ситуация кажется неправильной и они всеми силами и средствами пытаются выявить и понизить в выдаче такие дубликаты (аффилиаты). Обычно аффилиаты палятся (попадают под аффилиат-фильтр) на одинаковых контактных телефонах и других признаках принадлежности одному владельцу, но гораздо чаще по «стуку» конкурентов.

    Понятно, что поисковикам не интересны спамные форумы и доски объявлений, где любой посетитель может написать все что угодно и поставить любую нужную ему ссылку, и они будут нещадно понижать в ранжировании и фильтровать вплоть до полного исключения из индекса (бана).

    Яндексу, равно как и другим поисковикам, очень не нравятся ресурсы, продающие ссылки для накачки релевантности других ресурсов. Продажные ссылки портят стройный алгоритм ранжирования, основанный на ссылочном факторе.

    Однако, основному риску попадания под фильтр или в бан подвергаются ресурсы, устанавливающие скрипты бирж ссылок типа Sape, в то же время, как продавать ссылки через «биржи вечных ссылок», подобные описанным ниже, можно практически безболезненно и ничем не рискуя.

  • Collaborator описанный тут
  • ГоГетЛинкс — здесь читайте о нюансах работы с ним
  • РотаПост — здесь полный обзор возможностей биржи
  • Довольно часто, особенно несколько лет назад, для продвижения проектов и получения внешних ссылок использовали так называемые «сателлиты», т.е. группа сайтов, которая создается только лишь для продвижения одного или нескольких ресурсов, путем проставления на него ссылок. Такие вещи сильно не нравятся поисковикам, т.к. создается искусственная накрутка релевантности и сетки сателлитов довольно эффективно выявляют и отправляются под фильтр или в бан.

    Практически на любом ресурсе будет присутствовать внутренний поиск. Он может быть реализован средствами используемого движка, а может быть прикручен с помощью скрипта поиска по сайту от Яндекса, либо от Гугла. Но в любом случае страницы с результатами поиска по материалам вашего ресурса не должны попадать в индекс поисковых систем во избежании наложения фильтра.

    Как это сделать? Ну, у нас всегда есть под рукой очень сильный инструмент по управлению индексацией сайта — robots.txt.

    Фильтр АГС (17, 30 и 40) от Яндекса

    АГС (антиго*носайт) — бывают разновидности с номерами 17, 30 и 40. Опасаться этого фильтра стоит прежде всего тем, кто на потоке создает ГС (сайты, созданные под поисковые системы или для продажи ссылок, но никак не на благо посетителей). Появился этот тип пессимизации в 2009 году, а его последняя модификация АГС 40 датируется концом 2013 года. Как уже понятно из названия, фильтр этот призван выкашивать из выдачи некачественные ресурсы, а его новые версии связаны с повышением его избирательности.

    После его наложения в индексе Яндекса остается обычно всего несколько страниц (от одной до десятка). При этом оставшиеся в индексе страницы какой-либо дополнительной пессимизации не подвергаются (их позиции в выдаче остаются неизменными). Работает АГС, естественно, в автоматическом режиме.

    Давайте рассмотрим некоторые критерии, по совокупности которых повышается вероятность попасть под фильтр АГС Яндекса:

  • Недавно зарегистрированное доменное имя (молодой сайт)
  • Размещение ресурса на бесплатном хостинге
  • Использование какой-либо версии бесплатного движка сайта (Joomla, WordPress, взломанная DLE и т.п.).
  • Низкая или практически нулевая посещаемость (несколько человек в день). По существующей статистике можно сделать выводы, что если посещаемость составляет менее полусотни человек в сутки, то вероятность попадания сайта под АГС Яндекса весьма высока. А вот если посещалка перешагнет порог в три сотни уникальных посетителей, то подхватить АГС станет очень трудно выполнимой задачей. Как узнать и отследить статистику посещаемости читайте в приведенной публикации.
  • Отсутствие ресурса в трастовых каталогах типа Яндекса или Дмоза. Попав в оба эти каталога, вы сможете себе гарантировать практически неприкосновенность в отношениях с АГС. Об этом говорит анализ тех ресурсов, которые под этот фильтр угодили.
  • Отсутствие или малое количество внешних ссылок, ведущих на этот ресурс. Для ликвидации этого пробела без допущения перегибов советую ознакомиться с материалами:
  • Где сейчас можно получать внешние ссылки?
  • 100 советов по работе с SEO-ссылами и способам их получения.
  • Наличие форумов, блогов или досок объявлений (на том же домене или поддомене), на которые информация добавляется всеми желающими без модерации. Обычно в результате создается чудовищная спам-помойка, которая сильно дискредитирует данный ресурс.
  • Многократное дублирование внутреннего контента (например, для получения большего числа страниц, с которых можно продавать ссылки). В WordPress это могут быть архивы меток, рубрик, временные архивы и т.п. вещи.
  • Наличие на сайте в больших количествах не уникального контента или текстов плохого качества (низкопробный рерайт или автоматически сгенерированные тексты).
  • Слишком агрессивная внутренняя перелинковка страниц с большими блоками внутренних ссылок. В этом плане, многие советуют быть осторожнее с такими вещами, например, как облако тегов.
  • Присутствие признаков продажи ссылок (наличие внешних ссылок на многих страницах сайта).
  • Наличие агрессивной рекламы типа всплывающих или выезжающих окон, а также некоторых видов тизеров (тизерной рекламы). Уважающий себя и своих читателей ресурс, как правило, такие вещи не будет использовать.
  • Как вывести сайт из под АГС (17, 30, 40)?

    Однако, если вы уже попали под этот вид пессимизации, то вас в первую очередь будут интересовать методы выхода из под фильтра АГС. По сути, это универсальные рекомендации, помогающие понять то, что произошло с вашим сайтом, когда вы заметили уменьшение трафика с поисковой системы Яндекс.

  • Естественно, что начинать нужно с «письма Платону», или, другими словами, попробовать связаться с поддержкой Яндекса для выяснения причины. Ни в коем случае не качайте права, а просто объясните ситуацию и попросите совета. Мою переписку с Платоном по поводу фильтра за переоптимизацию можете посмотреть по ссылке.
  • Если после ответа Платона или по своем собственному разумению вы поймете, что дело в контенте (а именно в его низком качестве или переоптимизации), то ничего другого не останется, как переписать контент. Понятное дело, что будь ваш ресурс реальным ГС вы этого делать не будете в силу нецелесообразности (проще новый ГС сляпать), а вот при попадании под АГС действительно вашего детища, которое вы холите и лилеете, можно будет и напрячься.

    Правда, у меня это вылилось в пять месяцев каторжной работы по переделке четырех сотен статей, но фильтр Яндекса за переоптимизацию был снят, поэтому овчинка стоила выделки. Методику работы с текстами вы можете почерпнуть отсюда:

  • 8 основных ошибок в оптимизации текстов и 6 советов для успешного продвижения.
  • Чего не должно быть в текстах и как их оформлять?
  • Если вы вкупе с бесплатным движком используете еще и бесплатный шаблон, который одновременно юзают еще тысячи ресурсов в сети, то имеет смысл попробовать сменить дизайн на более уникальный.
  • Если создаваемый вами сайт позиционируется как коммерческий, то обязательно добавьте на него контактные данные (телефон, адрес офиса, схему проезда), четко обозначив какой именно организации он принадлежит. Асессоры Яндекса, кстати, могут проверить реальность контактных данных, так что… Очень многие ГС маскируются под коммерческие ресурсы, но именно отсутствие контактов их выдает. Для информационного ресурса добавьте контактный Емайл или вставьте на страницу контактов форму для обратной связи.
  • Попробуйте добавить на свой сайт какой-то полезный сервис. Например, стандартом для многих ресурсов коммерческой тематики является наличие калькуляторов для расчета стоимости услуг или чего еще либо. Подсмотреть это дело можно у конкурентов.
  • Если есть подозрение, что юзабилити и навигация по сайту хромают, то не примените это поправить. А вообще, прочитайте статью про «Пять основных ошибок при продвижение коммерческого сайта» и сделайте для себя выводы о несоответствии вашего проекта стандартам современного SEO, чтобы АГС даже и рядом не стоял.
  • По сути, все приведенные выше советы по выходу из под АГС сводятся к одному: делайте сайты для людей — с нормальным дизайном, с нормальным отформатированным контентом и удобной навигацией (юзабилити). Совет простой, но на его выполнение придется потратить уйму времени (либо денег).

    Санкции Яндекса за контент (тексты)

    Текстовые фильтры можно разделить на два основных типа, которые приведены и описаны ниже. Выход из под них будет несколько отличаться, но общей чертой является оптимизация контента под текущие требования SEO, а не под то, что рулило десяток лет тому назад.

    Портяночный фильтр

    Фильтр за переспам или портяночный, который был введен в 2010 году и никак Яндексом подтвержден не был (но принцип суслика из ДМБ тут все равно действует). Его отличительной особенностью является проседание страницы по какому-то одному запросу, в то время как другие запросы, по которым эта веб-страница ранжируется, могут остаться на своих позициях.

    Методы борьбы с портяночным фильтром достаточно просты: разбавление чистых вхождений просевшего ключевого слова (фразы), уменьшение объема текста (опять же это актуально в большей степени для коммерческих, а не информационных сайтов), а также рулит добавление в текст картинок и форматирования (абзацы, заголовки разных уровней, списки и т.п.). То есть красочно и удобно оформленная «портянка» (даже в десятки тысяч знаков) без засилия ключей с прямым вхождением может потрясающе восприниматься посетителями и потащит запрос вверх.

    Под санкции за переспам чаще всего попадают:

  • Сильно напичканные ключевыми словами (в прямом вхождении) страницы.
  • Тексты длиной в десятки тысяч знаков, которые никто не читает. Ключевым является именно то, что их не читают из-за пугающего размера, отсутствия форматирования и кучи выделенных ключей, вместо каких-то смысловых выделений. Читаемый текст большого объема, наоборот, может являться вполне хорошим подспорьем для продвижения (особенно информационного сайта).
  • Кстати, фильтр назвали «портяночным» именно из-за того, что лет пять-семь назад оптимизаторы писали огромные тексты для коммерческих сайтов (без особого форматирования, ибо они писались только для Яндекса и зачастую пряча их от посетителей за спойлерами или в формах без прокрутки), в которые могли легко запихнуть сотни вхождений ключа не превышая критического значения тошноты (процента вхождения ключевых слов относительно общего числа слов в тексте). Поисковики этот метод нечестной оптимизации со временем раскусили и ввели соответствующие наказания за подобную накрутку.
  • Кто-то сравнивает тексты моих статей с портянками, но это не правильно, ибо они подпадают под это определение только лишь большими размерами. Да и не так это критично для информационного ресурса (см. википедию, хабрахарбр и другие мейнстримовые информационные ресурсы). Главная проблема длинных текстов — удержать пользователя за их прочтением, чему помогает форматирование, оформление и цепляющие подзаголовки. Ну, и содержание, конечно же, куда ж без него.
  • Шаги по выходу из под портяночного фильтра (за переспамм):

  • Пишем в саппорт Яндекса (да, при этом ваш сайт должен быть добавлен в его панель для вебмастеров) о возможном наложении санкций с попыткой выяснить каких именно.
  • Чистим тексты от переспама ключами, а также по ходу удаляем «воду» для уменьшения объема при сохранении сути. Это приведет к лучшему восприятию контента пользователями, особенно вкупе с выполнением условий из следующего пункта.
  • Добавляем форматирование, если его не было (разбиение на абзацы по смыслу, добавление подзаголовков, списков, смысловых выделений, картинок, а также по необходимости таблиц или еще чего-то подобного). Это повысит вероятность прочтения текста и приведет к улучшению поведенческих факторов. Другими словами, делаем из портянки конфетку.
  • Проверьте, дает ли содержимое страницы ответ на запрос пользователя в полной мере. Это условие тоже нужно соблюдать для выхода из фильтра за переспам.
  • Фильтр за переоптимизацию контента

    Фильтр Яндекса за переоптимизацию был наложен на мой блог весной 2013 года и всю его прелесть я довольно хорошо прочувствовал на собственной шкуре. Появился же он двумя годами ранее, и его существование было официально подтверждено Яндексом. Отличительной чертой фильтра является проседание не какого-то одного запроса, а всех запросов, по которым ранжировалась (продвигалась) попавшая под фильтр веб-страница (проседают и ВЧ, и СЧ, и даже НЧ и сверх НЧ). В моем случае таких страниц было много и общая потеря трафика была трех-четырех кратной.

    Как выйти из под фильтра за переоптимизацию? Ну, во-первых, понадобится полная переписка или существенная корректировка текста тех страниц, которые под этот вид санкций Яндекса угодили. Лично я переписывал все, что у меня было добавлено за первые три года существования блога. Также по ходу этого занятия желательно исправить все имеющиеся орфографические ошибки, расставить знаки препинания и убрать чрезмерное использование тегов акцентирования (b, strong, em), а еще злоупотребления ключами в подзаголовках.

    Я еще и тайтлы с альтами из картинок удалил, ибо там ключей было море (это был мой первый шаг еще до переписывания контента, которым я думал по быстрому купировать проблему, но этого оказалось недостаточно, а на восстановление хотя бы альтов рука уже не поднималась в силу масштабности работы). Также я постарался сделать тексты наиболее полезными читателям (выделял ссылки на полезные ресурсы, обновлял устаревшую информацию и удалял «воду»).

    Кроме этого хочу сказать, что фильтр Яндекса за переоптимизацию не стоит путать с портяночным, который накладывается лишь только за переспам ключами. Второй из описанных санкционных инструментов накладывается не только за переспам ключами, но и за попытку подсунуть поисковику текст не совсем релевантный запросу, под который он оптимизирован. Такой текст не полностью отвечает на запрос пользователя или не отвечает на него вовсе, хотя и пресыщен нужными ключами.

    Зачастую под фильтр за переоптимизацию попадает и бессмысленный контент, содержащий «воду» в океанических масштабах. Примером отсутствия ответа на запрос пользователя может быть оптимизация под коммерческий запрос какого-то товара или услуги, но без указания цен. Или попытка продвинуться по запросу со словом «отзывы», но не предоставляя этих самых отзывов на странице. Такие страницы могут попасть под фильтр Яндекса именно потому, что вы обманываете ожидания пользователя (вашего потенциального клиента).

    Симптомы фильтра за переоптимизацию обычно выливаются в резкое проседание продвигаемых на данной веб-странице запросов сразу на десятки позиций вниз. В совсем запущенных случаях может наблюдаться подобное проседание не только отдельных страниц, но и всего сайта целиком (по всем продвигаемым запросам), но без смены релевантных страниц. У меня такого не было, ибо по ряду запросов после наложения фильтра позиции в выдаче Яндекса не изменились. Но шандарахнуло все равно прилично (общий поток посетителей на блог снизился в три раза).

    Обобщая все выше сказанное можно дать несколько общих советов по выходу из под текстовых фильтров Яндекса:

  • Пишем Платону Щукину (в поддержку Яндекса) для выяснения или уточнения причины снижения потока посетителей, приходящих на ваш сайт с данной поисковой системы. Опять же помните, что ничего не дается нам так дешево и не ценится так дорого, как вежливость.
  • Чистим контент от переспама ключевыми словами (процесс может потребовать от вас приложения массы усилий в случае большого объема контента, который надо будет пересмотреть под новым углом зрения).
  • Ставите себя не место пользователя, вводящего в поисковой строке запрос, под который вы оптимизировали данную страницу, и пытаетесь понять, дает ли она на него исчерпывающий и всеобъемлющий ответ. В ходе этого может понадобиться обновление устаревшей информации, удаление «воды» и расставление акцентов (выделений) не на ключевых словах, а на важных моментах, за которые должен цепляться взгляд пользователя. Это поможет получить странице хорошие поведенческие факторы и выйти из под фильтра за переоптизацию или переспам контента.

    Про рассмотренные чуть выше примеры можно сказать, что нужно будет добавить на страницы цены (либо дать на них ссылку или организовать их вывод во всплывающем окне), если этого ожидает пользователь, вводя свой запрос, или добавить отзывы, если они в запросе упоминаются. В общем, не обманывайте ожидания ваших потенциальных клиентов и они (а вкупе с ними и Яндекс) вами останутся довольны. Все как в реальной жизни.

  • Повышая релевантность можно попасть в бан

    Вот именно о тех неправедных способах повышения соответствия страниц своего сайта требованиям поисковиков, которые могут привести к совершенно обратному эффекту (сильному понижению позиций в поисковой выдачи — наложению фильтра, пессимизации или бану), мы и поговорим в этой статье.

    Причем, ничего выдумывать сам я не буду, да и не зачем это делать. Ведь поисковики обязаны прикрыться фанеркой и подробно описать все запрещенные и караемые способы повышения релевантности и воздействия на ранжирование.

    В общем, спросим у первоисточника — за что можно получить в лоб, а что можно применять без особой опаски для небольшой корректировки и улучшения позиций сайта в выдаче. Давайте спросим о сокровенном у Яндекса (поддержим отечественного производителя), ибо он все же является лидером в России. Итак, интервью у хелпа Яндекса по поводу допустимых и недопустимых способов улучшения ранжирования.

    Хотя, нет. Сначала напомню вам те способы легитимного воздействия на релевантность, о которых я уже неоднократно говорил. Кроме уже упомянутой чуть выше оптимизации текстов под нужные поисковые запросы (Самостоятельная раскрутка и продвижение сайта), наверное, прежде всего стоит сообщить поисковикам о существовании своего веб проекта — добавить Url своего сайта в аддурилку Яндекса и др. поисковых систем.

    На ранжирование очень сильно влияет такое понятие, как траст, а поднять его можно обратными ссылками с трастовых ресурсов. Поэтому было бы не плохо попытаться добавить сайт в Яндекс каталог, Dmoz и другие трастовые и авторитетные каталоги. Вообще, все это я уже неоднократно обсуждал и писал, поэтому попробуйте сами поискать ответы в публикации Как раскрутить сайт самому.

    Ну, это так, для общего сведения, а сейчас, наверное, пора переходить к перечислению запретных способов манипуляции релевантностью веб документов, в частности, Яндекса. Дело в том, что поисковые системы могут не только повышать или понижать уровень соответствия страниц наших сайтов запросам поиска, но и могут применять санкции и вносить их в черные списки, в случае, если они посчитают, что мы их пытаемся обмануть (описанные выше фильтры и баны).

    В лицензии поиска такие моменты очень подробно описаны, чтобы к ним не было по этому поводу никаких претензий. Например, в лицензии на использование поисковой системы Яндекса довольно подробно описано про ранжирование:

    В первом абзаце лицензии говорится, что оно осуществляется, как и следовало ожидать, на основе определения релевантности страницы поисковому запросу, но делается акцент на то, что она определяется не предвзято с помощью программы, причем, настройки этой программы могут постоянно меняться и, следовательно, ваш ресурс может совершенно спокойно скакать в выдаче с одного места на другое по мере изменения алгоритмов и ничего вы с этим поделать не сможете.

    В третьем абзаце пункта 3.4 Яндекс как раз говорит о том, что для него и любой другой поисковой системы главное это интересы пользователя, а не авторов веб проектов (по которым осуществляется поиск), чтобы сразу же в корне пресечь все попытки вебмастеров апеллировать к Яндексу с вопросами о не справедливом и не правильном расчете релевантности по тому или иному запросу (мой ресурс такой хороший, а вы его в конец очереди…).

    В первом предложении пункта 3.5 как раз описано то, чем занимаются все SEO оптимизаторы (как начинающие, так и продвинутые) — обманом и спамом (искусственное завышение релевантности страниц для улучшения позиций). При этом Яндекс грозит нам фильтрами (ухудшением позиций — пессимизация сайта), либо вообще баном (полным исключением ресурса из индекса и, соответственно, поиска).

    Во втором абзаце этого пункта лицензии написано, что о факте понижения в ранжировании (наложении фильтра или забанивания) вам никто специально не сообщит и возможностей выхода из под фильтра вам никто не гарантирует.

    Хотя, на самом деле, при корректном общение с «Платоном Щукиным» (так обычно подписываются операторы службы поддержки Яндекса) можно будет выяснить и причину понижения в выдаче, и решить проблему с выходом из под фильтра (полностью банят ресурс сейчас крайне редко). Правда, нервов и времени уйдет на это предостаточно.

    Далее Яндекс говорит, что не обязан отчитываться за что именно вас забанили или понизили в выдаче, тем более, что со временем могут появляться все новые и новые методы спама, за которые можно будет угодить под фильтр. Но зато он приводит ссылку на весьма полезный документ — Чем отличается качественный сайт от некачественного с точки зрения Яндекса, который следует изучить со всем тщанием. Давайте вкратце пробежимся по его ключевым моментам, чтобы понимать чего не следует ни в коем случае делать в погоне за повышением релевантности.

    Аффилиат-фильтр в Яндексе

    Суть аффилиат-фильтра заключается в том, что из выдачи по определенным поисковым запросам исключаются сайты, принадлежащие одной и той же компании. Точнее, в выдаче остается только один из них. Нужен этот фильтр для более-менее честного распределения мест в Топ 10, чтобы исключить варианты, когда одна кампания занимает в выдаче более одного места по одному запросу.

    На самом деле, идея «оккупации» Топа пришла в голову оптимизаторам уже довольно давно, и до того момента, когда появился фильтр за аффилирование, все это более или менее успешно реализовывалось. Т.е. создавалось несколько сайтов для продвижения по одной и той же группе запросов, которые на самом деле принадлежали одной компании и позволяли получать большую часть органического трафика, доступного в Яндексе по данному запросу (если удавалось занять весь Топ 3, 5 или даже 10).

    Каких-то сервисов, которые на сто процентов позволяют проверить аффилированность, на данный момент нет. В принципе, об этом писали и сами яндексоиды:

    Однако, кое-что все-таки попробовать сделать можно. Помните, я писал про то, как искать в Яндексе и его язык поисковых запросов? Так вот, как раз некоторые из этих операторов и можно будет использовать.

    Если у вас появились подозрения, что ваш сайт выпал из Топа по причине того, что Яндекс посчитал его аффилиатом какого-то другого ресурса, то можно будет это проверить. Для это вводите в поисковую строку такой вот запрос:

    поисковый запрос ~~ site:урл предполагаемого аффилиата

    Этим самым вы как бы исключаете из ранжирования тот ресурс, который Яндекс мог счесть аффилированным с вашим сайтом (подумать, что они принадлежат одной компании). Если это действительно так, то по такому вот хитрому запросу ваш ресурс должен будет показаться (примерно на тай же самой позиции). Возможно, что на момент прочтения этой статьи данный способ уже работать в полной мере не будет.

    Поэтому оптимизаторам, подвигающимся на продвижении чужих сайтов, имеет смысл спрашивать у клиента о том, нет ли у него других сайтов с такими же контактными данными (принадлежащих этой же фирме), которые продвигают, например, другие Сеошники. В этом случае вы можете получить все симптомы аффилиат-фильтра даже не подозревая о высокой вероятности его наложения. Давайте, кстати, эти самые симптомы и рассмотрим:

  • Резкое проседание вебсайта по всем запросам, по которым он был «виден» в Яндексе. Падение может происходить сразу на сотни позиций вниз (Яндекс не будет терпеть в Топе или близко к нему аффилиаты).
  • Логично, что первый фактор приводит к резкому проседанию трафика, т.е. потока посетителей приходящих с Яндекса.
  • Поэтому, если вы даже не отслеживаете позиции своего сайта по продвигаемым запросам (например, в Топвизоре или SE Ranking), то проседание трафика вы уж точно заметите, что сподвигнет вас искать причину и вы не сможете не заметить провал по всем ранее занимаемым позициям.

    Что же может служить для Яндекса предпосылкой к тому, чтобы наложить аффилиат-фильтр:

  • В статье про работу асессоров Яндекса я упоминал, что одним из важных факторов для коммерческого сайта, который они проверяют, является контактная информация и ее полнота. Они могут даже выборочно проверять ее достоверность. Так вот, явным признаком аффилированности для Яндекса будет совпадение телефонов, адресов, положения на карте и других контактов. Вполне логично сделать предположения, что они принадлежат одной и той же кампании, а значит все кроме одного должны быть исключены из ранжирования.
  • Когда вы покупаете доменное имя, то указываете свои контактные данные, которые в зависимости от настроек вашего регистратора можно будет скрыть из общего доступа (из WHOIS). Если данные не скрыли и при этом все домены были зарегистрированы на одно и то же лицо, то для Яндекса это будет очень серьезным поводом для наложения фильтра за аффилированность.
  • Если даже вы закрыли личные данные в WHOIS IP, то поисковик может обратить внимание на использование одного и того же регистратора доменов или на то, что они зарегистрированы были примерно в одно и то же время.
  • Очень часто все аффилиаты располагаются владельцами на одном и том же хостинге и зачастую даже имеют один и тот же IP-адрес, что опять же облегчает поисковой системе задачу их выявления. Понято, что так удобнее, но раскрыть вашу «маленькую хитрость» Яндексу тоже труда не составит.
  • Не такими явными, но все же наводящими на подозрение признаками аффилированности, могут также являться:
  • Использование на всех сайтах одинаковой структуры размещения данных, примерное совпадение номенклатуры товаров и услуг, а также использование похожих принципов их описания.
  • Построение вебсайтов на одной и той же CMS (движке).
  • Любые другие мелочи не очевидные для вас, но которые бросятся в глаза «машине», ибо вероятность такого совпадения будет не так уж и высока на фоне «средней температуре по больнице».
  • И ладно бы, если под этот фильтр попадали бы сайты только из одной и той же тематики, что было бы вполне логичным и понятным, ибо тут явно присутствует «злой умысел». Но зачастую под него попадают и ресурсы, принадлежащие одной и той же компании, но сделанные под разные тематики. Бывают же ведь разноплановые компании. Но им все равно приходится учитывать все выше сказанное и стараться не создавать повода для наложения афиллиат-фильтра «за здорово живешь».

    Таким образом выход из-под этого фильтра для многих владельцев подобных разноплановых компаний будет достаточно мучительным. Поэтому во избежании наложения данного рода пессимизации имеет смысл под каждую из тематик делать сайты, которые Яндекс не должен будет каким-либо образом связать. Для этого нужно, чтобы:

  • На каждом из них указывались уникальные контактные данные (телефоны, адреса, фамилии и т.п.).
  • Размещение сайтов осуществлялось на разных хостингах или хотя бы на разных IP адресах.
  • Регистрацию доменов желательно проводить на разных лиц, у разных регистраторов и с разнесение во времени.
  • Использовать разные системы управления сайтами (движки) и постараться создавать разную структуру и навигационные решения.
  • Собственно, все те же самые советы пригодятся и тем, кто решит все-таки обмануть поисковую систему, пытаясь загнать в Топ по нужным запросам несколько ресурсов одной тематики. Но в этом случае критерий присвоения аффилированности, как мне кажется, будет использоваться более строгий, нежели для сайтов разных тематики. Опять же, ИМХО.

    Фильтр за одинаковые сниппеты

    Напомню, что сниппетами принято называть описания сайтов, которые поисковая система предоставляет в ответ на запрос пользователя. Текст сниппета поисковик выбирает по своему усмотрению, и для одной и той же страницы в выдачах по разным запросам он может отличаться. Текст берется, конечно же, из содержимого страницы (или из ее описания — Description).

    Как я уже говорил, Яндекс, как и любая другая поисковая система, заботится о разнообразии и полноте своей выдачи. Среди основных инструментов этой борьбы можно выделить:

  • Технологию «Спектр», которая формирует выдачу по неоднозначным запросам, когда четко нельзя понять, что именно хочет увидеть в ответ пользователь его набравший. Например, по запросу «продвижение сайтов» мой блог иногда пролезает в Топ 10 именно благодаря спектру, ибо пользователя может интересовать не только получение услуги продвижения, но и информация о том, как это делается.
  • Также из выдачи стараются убрать предложения одинаковых товаров или услуг от одной и той же компании. Как вы поняли, это делает уже рассмотренный нами выше аффилиат-фильтр.
  • Ну и, наконец, будет не очень здорово, если в выдаче (серпе, как его называют оптимизаторы) будут присутствовать сайты с одинаковым описанием (пусть и не аффилированные друг с другом). За это, соответственно, отвечает фильтр, накладываемый за одинаковые сниппеты.
  • Наиболее часто фильтр за одинаковые сниппеты накладывается при продвижении каких-то конкретных товаров (либо их позиций), описание которых было многими заимствовано из какого-то одного и того же источника (ну, чего там выдумывать, тем более, если товаров десятки или даже сотни тысяч). Т.е. фильтр накладывается тогда, когда неуникальное описание товара попадает в сниппет и при этом ваш сайт не признается Яндексом автором этого контента (то есть вас признают копипастером). Фактически, ваш сайты в выдаче склеивается с тем, кого поиск посчитал автором.

    Иногда при просмотре такой выдачи можно увидеть внизу надпись, говорящую о том, что из результатов поиска исключены слишком похожие ответы. Чтобы увидеть полную выдачу без наложения этого фильтра, можно будет кликнуть на расположенную внизу надпись «Показать всё без исключения», либо можно прокрутить Урл в адресной строке вправо до конца и добавить там оператор «&rd=0»:

    Основным симптомом наложения этого фильтра является потеря позиций по одному или нескольким запросам (чаще всего товарным). Что нужно сделать, чтобы выйти из-под фильтра за одинаковые сниппеты:

  • Ищем в выдаче сайт, у которого с вашим совпадает сниппет (расклеивая их с помощью «&rd=0»), после чего пытаемся переписать свой сниппет. То есть ищем в тексте ту фразу, которую Яндекс выводит в выдаче, и переписываем ее, но так, чтобы она не потеряла свою привлекательность, ибо этот текст будет являться фактически вашим бесплатным объявлением, размещенным в Яндексе.
  • На всякий случай и в мета-теге description заменяем неуникальное (или вообще отсутствующее) описание на что-то привлекательное с использованием ключевых слов, но ни в коем случае не спамное. По некоторым запросам сниппет может формироваться на основе дескрипшена, если он имеется.
  • Если у вас интернет-магазин и вы используете не уникальные описания в карточках товаров (взятые с других сайтов), то обязательно озаботьтесь их уникализацией. Допишите, например, в начале карточки товара несколько уникальных пассажей с упоминанием тех ключевых слов, по которым вы планируете продвигаться. Часть из этого фрагмента может быть взята поисковиком для формирования сниппета.
  • Если у вас имеется какое-то уникального торговое предложение, то упоминайте о нем в карточках товаров.
  • Возможно, что переписанные вами описания товаров не дадут ощутимого роста позиций (все зависит от вашего таланта копирайтера и оптимизатора), но это точно должно снизить вероятность попадания под фильтр за неуникальные сниппеты. Да, и, кстати, от фильтра Гугла под названием Панда это тоже может в некоторой степени защитить.

    Санкциии Яндекса за взрослый контент

    Поисковые системы стараются оберегать пользователей от фривольных сайтов при ответе на те запросы, которые однозначно не указывают на желание этого самого пользователя этот самый «взрослый» контент увидеть. То есть такие сайты в выдаче по обычным запросам просто напросто не участвуют.

    Зачастую под этот фильтр попадают вполне себе белые и пушистые сайты, что называется «без злого умысла» (не имея как такового содержания «для взрослых» или ссылок на него ведущих). Например, такая информация может быть обнаружена поисковиками в рекламе, которая показывается на вашем ресурсе. Причем это может быть даже контекстная реклама. Довольно необычно было в свое время прочитать про чью-то переписку с Яндексом по поводу наложения этого фильтра, когда в результате выяснилось, что причиной стали рекламные блоки из сети самого же Яндекса (РСЯ).

    В результате наложения этого фильтра ваш сайт может полностью пропасть из обычной выдачи (кроме «взрослых» запросов), что весьма печально. Основным признаком данного рода пессимизации может служить резкое падение трафика с Яндекса (в разы) при полоном сохранении трафика с Гугла.

    Что же может стать причиной наложения фильтра за взрослый контент:

  • Намеренное или ненамеренное (например, при недостаточно жесткой модерации постов на форуме или комментариев в блоге) размещение информации «для взрослых» на обычном сайте.
  • «В зачет» идут и уже упомянутые рекламные блоки с фривольным содержимым или сомнительные партнерские программы размещенные на вашем ресурсе.
  • А также оставленные вами или еще кем-то ссылки на сайты для взрослых. В принципе, для попадания под фильтр за взрослый контент достаточно будет и одной подобной ссылки. Особое внимание на это стоит обратить блогерам, ибо зачастую комментаторам разрешается оставлять Урл своего сайта, который вполне может подвести вас «под монастырь».
  • Методы выходы из под этого фильтра Яндекса вытекают из причин его вызывающих:

  • Убрать все фривольное содержимое, если таковое имеется (статьи, изображения, комментарии, ссылки и т.п.).
  • Убрать всю рекламу, в которой возможно появления такого рода контента. Можно и не убирать, а только лишь отключить «взрослую рекламу», как это, например, можно сделать в рекламной сети Яндекса.
  • После того, как все это сделаете, нужно будет связаться с техподдержкой этой поисковой системы (читайте про это в статье про панель для вебмастеров в Яндексе) и дождаться ответа от нее. Если претензии по поводу взрослого контента все еще остаются, то попросите у Платона Щукина показать пример тех страниц или ссылок, которые вызывают нарекание у поисковика.
  • Если все нормально, то через пару апдейтов трафик с Яндекса у вас должен будет восстановиться.

    Пессимизация сайта за агрессивную рекламу

    За чистоту выдачи Яндекс борется и на стороне самих сайтов, выкидывая или понижая в выдаче те из них, которые размещают попандеры, кликандеры, тизеры с шок-рекламой и прочие разновидности навязчиво-агрессивной рекламы, например, занимающей весь экран или блокирующей просмотр страницы. В результате посетитель вынужден ожидать или искать способ обойти навязанную ему рекламную информацию. По мнению поисковой системы, в Топе таким «редискам» не место, ибо они дискредитируют ее работу.

    Признаком наложения такого фильтра может служить выпадение из Топ 10 по продвигаемым запросам (особливо по сильно конкурентным). Методы выхода в этом случае традиционные:

  • Списаться с саппортом Яндекса и попытаться выяснить причину пессимизации.
  • Если это все же окажется фильтр за агрессивную рекламу, то придется устранить причину — не использовать данный вид рекламы, пусть и в ущерб извлекаемого с сайта дохода. Упорствовать не имеет смысла, ибо похожий фильтр на вас может наложить и Гугл, тем самым полностью лишив вас трафика, а значит и дохода.
  • Что касается тизерных сетей, то практически во всех из них можно отключить показ шокирующей рекламы, которую также с недавних пор невзлюбил Яндекс.
  • Зачастую за агрессивную рекламу поисковики принимают всплывающее окно с предложением подписаться на рассылку или получить скидку (купон, промо-код). Чтобы минимизировать риски, лучше это предложение показывать пользователям в тот момент, когда они собираются уже уйти с вашего сайта (жмут на крестик в браузере). Делается это с помощью скрипта типа ComeBacker (камбекер), который позволяет «зацепить» процентов двадцать из казалось бы безвозвратно ушедших посетителей.

    Как мне кажется, данный вид рекламы, несмотря не его высокую эффективность, трудно будет причислить к агрессивной. Из разряда «и волки сыты, и овцы целы».

  • Написать в техподдержку Яндекса по результатам выполненных работ и подождать несколько апов, пока фильтр не снимется. Если этого не произойдет, то опять же обратиться в саппорт за разъяснениями (вежливо, доходчиво, без нервов и по сути вопроса).
  • Минусинск в Яндексе — за что накладывается фильтр и как это проверить

    До некоторых пор пор Яндекс, зная о существовании у сайта обратных ссылок, полученных путем купли-продажи, ничего при этом особо не предпринимал в плане пессимизации. Гугл же со своим Пингвином свирепствует уже пару лет, а вот Яндекс лишь косо смотрел на SEO-ссылки. Однако, в середине мая 2015 все резко изменилось. За несколько дней, прошедших с этого момента, появились достоверные свидетельства того, что Минусинск действительно начал свою работу, и он таки реально выкашивает сайты из Топа.

    При этом Минусинск не обращает особого внимания трастовый ли сайт перед ним, высокая ли у него посещаемость и насколько он большой, хорошо структурированный и просто замечательный. Ему на это (во всяком случае пока) по большому счету наплевать. В Топку летят чуть ли не все подряд, кто был не осторожен и не разборчив в наборе ссылочной массы. Да, пока что «счастливчиков», по уверению представителей Яндекса, не очень много (около полутысячи), но это, скорее всего, лишь «проба пера».

    Критерии попадания под Минусинск и как это проверить

    Первым, на что обратили внимание оптимизаторы при анализе статистических данных тех сайтов, которым не посчастливилось попасть под данный фильтр Яндекса, стало то, что число ссылающихся на них доменов (занимающихся продажей ссылок, что поисковики устанавливают довольно точно) близко к одной тысяче (точнее превышает десять сотен).

    Это просто статистика, и к тому же все может поменяться при следующих итерациях совершенствования алгоритма, но пока следует ориентироваться именно на эту цифру. Стоит так же упомянуть, что санкции можно получить и с относительно небольшим числом входящих SEO-ссылок при условии, что они будут составлять значительную часть его ссылочного профиля.

    Для верности лучше будет разделить данное число на два или даже на три. Если сайт имеет поддомены (например, для продвижения в разных регионах), то ссылки, ведущие на них, суммируют и увеличивают вероятность попадания под фильтр и домена, и поддоменов. Придется их разносить по отделенным сайтам. А что делать?

    Таким образом, чтобы получить тот же эффект, придется закупать не все подряд ссылки, а искать качественных доноров, которые могут дать большой эффект и, возможно, заняться, прокачкой страниц-доноров для передачи ими большего динамического (анкорного) и статического веса (пейдранка). В общем, переходить к многоходовкам от прямолинейной закупки. ИМХО.

    Как вы знаете, многие сайты, явно нарушающие рекомендации Яндекса, зачастую не несут наказания в силу своей высокой посещаемости и популярности в сети (им дозволено все из-за высокого авторитета у пользователей и поисковиков). Однако, Минусинск на посещаемость, пузомерки и размер (качество) сайтов на данный момент практически не обращает внимание. Главное — это число СЕО-ссылок проставленных на него, и если их тысячи, то все остальные достоинства сайта нивелируются.

    При попадании сайта под этот фильтр, в Топе остается, как правило, очень небольшое число запросов, в связи с чем наблюдается сильное проседание трафика. Поэтому, если вы потеряли большую часть трафика с Яндекса примерно в середине мая этого года, то стоит начать думать в эту сторону. Кроме этого, есть довольно наглядный способ проверить попадание сайта под Минусинкс (пока работает, но, скорее всего, это временно).

    Есть такое понятие, как витальный запрос. На такой запрос первым в выдаче всегда должен находиться сайт, отвечающий этому запросу. Например запрос «сайт ktonanovenkogo.ru», введенный в Яндекс, выдаст на первом месте ссылку на мой блог, ибо для него этот запрос является витальным. Так вот для сайтов, попавших под Минусинск, это правило на данным момент не работает (это несколько искажает и ухудшает выдачу, поэтому данное обстоятельство яндексоиды могут исправить, но пока вроде бы все работает).

    Итак, если ваш сайт потерял почти весь трафик с Яндекса в середине мая этого года, то:

  • Проверьте для начала его индексацию, введя в поисковую строку запрос с параметром поиска только по вашему сайту вида:site:ktonanovenkogo.ruЕсли страниц в индексе столько же, сколько было и раньше, то это не АГС, который тоже зачастую приводит к полной потере трафика с Яндекса.
  • Проверьте позицию вашего сайта по витальному запросу, например такому:сайт ktonanovenkogo.ruУ «здорового» пациента будет все в порядке, а вот у больного Минусинском на первом месте будет что-то другое. Сам же исследуемый сайт, скорее всего, найдется где-нибудь во втором-третьем десятке. Это несколько портит выдачу Яндекса, но пока они это не поправили и таким образом можно довольно четко диагностировать наложение данного фильтра.
  • Как избежать фильтра и что делать при попадании под него

    Ну, как уже говорилось выше, нужно постараться сократить количество SEO-ссылок (на данном этапе развития алгоритма Минусинска речь идет, скорее всего, лишь о ссылках с повременной оплатой) до нескольких сотен. Имеется в виду несколько сотен ссылающихся доменов, ибо бэклинки могут в большом количестве идти и с одного сайта.

    Чтобы сайт не просел следует пересмотреть подход к покупке ссылок и акцентироваться на их «силу и мощь», а не на их большое количество без оглядки на качество. Кроме ссылок обратите внимание на такую вещь, как крауд-маркетинг, который пришел к нам из буржунета, где на горло ссылочной песни наступили чуть раньше. Про то, что сам сайт должен быть «конфеткой», я уже и не говорю, ибо и раньше без этого в Топе делать было практически нечего.

    Если же ваш сайт уже попал под Минусинск, то из этой ситуации по традиции может быть два выхода:

  • Плыть по течению
  • Можно привести сайт в соответствие с требованиями Яндекса, т.е. снизить число ссылающихся Сео-доменов до нескольких сотен.
  • Дождаться того момента, когда Яндекс переиндексирует страницы-доноры, с которых вы сняли ссылки. Отслеживать обратные ссылки лучше всего через Яндекс Вебмастер, чтобы не бежать впереди паровоза.
  • Отписаться в техподдержку поисковика, чтобы они обратили внимание на ваше осознание вины и по возможности поспособствовали скорейшему снятию фильтра.
  • Попробовать изменить судьбу как это делали, например, в период наложения уже существующих ранее фильтров в Яндексе
  • Перенести сайт на новый домен
  • Перекинуть со старого на новый сайт постраничный 301-редирект
  • Дождаться его полной индексации и появлении позиций в Топе (трафика)
  • Снять редирект и убрать из сети первоначальный сайт (на зафильтрованном домене), чтобы по редиректу не переполз на новый сайт и Минусинск
  • Разрабатывать и осуществлять стратегию продвижения нового сайта уже с учетом всего выше сказанного
  • Правда никакой гарантии на быстрый выход из под Минусинска ни первый, ни второй варианты не дают, но делать-то все равно что-то надо. В период же «СЕО безрыбья» придется уповать на Гугл Адвордс и Яндекс Директ (на что частично и был нацелен Минусинск). ИМХО.

    P.S. 27 мая похоже, что произошла очередная итерация алгоритма и по заверениям Яндекса под Минусинск попала уже тысяча сайтов (плюс пять сотен, что попали под этот фильтр еще в середине мая). Похоже, что фильтр набирает силу (прям, как торнадо).

    P.S.2 На блоге Деваки (Сергея Кокшарова) опубликованы Результаты исследования алгоритма «Минусинск». Весьма любопытная информация.

    Что мы имеем на сегодняшний день?

    В прошлой статье я упоминал, что многие вебмастера и оптимизаторы просто не успели за отведенный Яндексом месяц (15 апреля его представители сделали «последнее китайское предупреждение» и разослали около десяти тысяч уведомлений) снять покупные ссылки (лишь треть из этих сайтов начали действительно снижать покупную ссылочную массу).

    Тут правда нужно упомянуть, что, например, в случае вечных ссылок это вообще выливается в довольно-таки серьезную проблему. Однако, если такой проект не попал под этот фильтр, то, как не странно, есть примеры роста трафика и позиций именно за счет снятия ссылок, что звучит несколько странно. Но есть и обратные примеры.

    Как я уже упоминал, Яндекс преследует в ведении Минусинска определенную цель — заставить вебмастеров перенаправить усилия и денежные потоки с покупки ссылок на улучшение своих проектов (юзабилити, качество, полноту и другие факторы ранжирования коммерческих сайтов), ну и, конечно же, желает увеличить доходы с размещения контекстной рекламы в своей выдаче и рекламной сети (что из этого первично, пусть каждый решает для себя сам).

    Минусинск довольно жестко обходится с теми ресурсами, которые под него попали — трафик с Яндекса пропадает практически совсем (кроме запросов, которые были подмешаны в выдачу по технологии Спектр, но сейчас, возможно, и это тоже почикали). Такой жесткий подход представители поисковика объясняют тем, что за отведенный месяц были сняты лишь около десяти процентов всех покупных ссылок, что не очень-то и много.

    Под фильтр в первую волну попали многие лидеры в своих нишах (холодильник.ру, мортон, bdbd, элекс.ру и т.п.). В основном это очень старые сайты, которые продвигались за счет большого количества платных ссылок.

    Всего пострадало около пяти сотен сайтов (а может быть и больше, ибо выдача изменилась достаточно серьезно). Основным негативным фактором при этом было то, что эти сайты давно и упорно наращивали огромную покупную ссылочную массу (с большим количеством ГС в качестве доноров). Фактически Яндекс де-факто (а не только на словах) объявил войну покупным ссылкам. Да и первые достигнутые результаты впечатляют — доля СЕО-ссылок в общем по рунету сократилась на одну пятую по сравнению с апрелем этого года.

    Следующие волны Минусинска уже не будут сопровождаться рассылкой предупреждений, поэтому вебмастера и оптимизаторы поставлены в довольно-таки сложную ситуацию, когда нужно решать вопрос о снятии или оставлении имеющейся ссылочной массы. Подогревает ситуацию еще и тот факт, что пока не один из сайтов из под этого фильтра не вышел (первых ласточек стоит ждать через месяц или два, наверное).

    Несколько важных, на мой взгляд, моментов:

  • На вопросы владельцев сайтов, попавших под Минусинск, Платон Щукин обычно отвечает, что сайт действительно находится под этим фильтром, и надо снять все покупные ссылки для выхода из под него и дождаться, когда это все увидит Яндекс (но можно будет и отписать в их техподдержку по факту). Хотя, можно и самостоятельно диагностировать данный вид пессимизации способом, описанным в первой публикации.
  • Мое предположение о том, что от данного фильтра можно убежать переносом сайта на другое доменное имя и проставлением на какое-то время 301 редиректа, скорее всего, было ошибочным.
  • К сожалению, инструмента подобного Disavow links Яндекс создавать и использовать не планирует, что несколько усложняет задачу оптимизаторам, ибо придется в реале снимать ссылки, а не просто сообщать поисковику о тех из них, которые не стоит учитывать. Нужно понимать, что снятие ссылок повлияет и на позиции сайта в Гугле.
  • Пессимизации сейчас подвергаются не все сайты рунета сразу, а как бы пластами. Таким образом Яндекс имеет возможность не сильно подпортить выдачу возможными перегибами, но зато все остальные участники СЕО-гонки получают четкий сигнал (видя страдания тех, кому не повезло оказаться в первых рядах проигравших), что нужно не надеяться на авось и приводить свой ссылочный профиль в порядок.
  • Судя по количеству разосланных предупреждений (около девяти тысяч), как минимум такое количество ресурсов может попасть под этот фильтр в очередные волны пессимизации. Это довольно много, ибо в основном рассылка велась по сайтам, находящимся в Топе в крупных нишах бизнеса. Возможно, что более мелких игроков просто не удосужились предупредить или, возможно, что они еще не набрали критическую массу плохих покупных ссылок. Со временем планка может опускаться и список кандидатов на Минусинск может быть расширен.
  • Какие ссылки можно оставлять? Яндекс говорит, что те, которые полезны пользователям. Собственно, подробности читайте в статье — Как ссылки сейчас учитываются поисковиками? Отличие сегодняшней ситуации в том, что раньше бесполезные пользователям ссылки просто не работали, а сейчас за это можно лишиться всего трафика с самой популярной в рунете поисковой системы.
  • Факты и домыслы на тему Минусинска

    Также хочу еще раз остановиться на факторах, на которые ориентируется Минусинск при своей работе:

  • В первую очередь оценивается возраст имеющихся в профиле ссылок (по дате их индексации). Дело в том, что алгоритм должен четко отличать накрутку вашего ссылочного профиля нечистыми на руку конкурентами и вашими собственными усилиями по покупке ссылок. Понятно, что конкуренты долго держать ссылки не будут, ибо это накладно, а значит для их отсева достаточно будет рассматривать бэклинки, которые были размещены уже достаточно давно (более года, ориентировочно).
  • Далее оценивается количество и качество бэклинков. Если будет много спамных ссылок (по отношению к естественным), то такой профиль будет призван дефектным с последующим наложением фильтра. Среди сайтов, уже попавших под Минусинск, спаммных ссылок в каждом профиле было как минимум более нескольких сотен, а чаще даже более нескольких тысяч.
  • Алгоритм этот имеет, естественно, механизмы обратной связи (в том числе, наверное, даже и с помощью асессорского корпуса), а значит при очередной его волне может измениться средний порог по возрасту и количеству ссылок, достаточному для наложению фильтра. Все это будет оттачиваться и доводиться до совершенства.
  • После пессимизации сайт проседает на десяток другой позиций вниз по всем запросам, что автоматически приводит практически к полной потере трафика (как минимум он просядет на порядок) с самого значимого для большинства коммерческих сайтов поисковика. Именно это и является главным калибром, которым Яндекс сейчас пока еще выборочно палит по биржам ссылок и сайтам, которые с помощью них продвигались.
  • Все сайты, находящиеся сейчас под Минусинском (которые отловили оптимизаторы), были всесторонне изучены. Анализировался анкор лист, качество сайтов доноров, разнообразие ссылочной массы и т.д. Некоторые крупные игроки рынка, имеющие свои огромные массивы данных, на основе которых можно делать выборки (например, все тот же Мегаиндекс) высказали несколько предположений, которые можно свести к следующему:

  • Яндекс мог создать для себя черный список доноров (которые продают ссылки в промышленных масштабах), и при наличии в ссылочном профиле большого числа бэклинков с них, сайт может быть пессимизирован. Это всего лишь предположение, но на имеющейся у Мегаиндекса базе он выкатил даже «черный список доноров», с которыми ни в коем случае не стоит иметь дело.
  • Если опять же на том же Мегаиндексе можно посмотреть аналитику по входящим ссылкам (прежде, чем переходить по этой ссылке , зарегистрируйтесь или авторизуйтесь в Мегаиндексе) для попавших под фильтр сайтов (она там в графическом виде очень даже хорошо воспринимается), то видно, что многих из них не спасли даже попытки сделать свой ссылочный профиль наиболее близким к естественному, например, с помощью добавления большого числа безанкорных ссылок. Яндекс такой обман, видимо, довольно легко распознает.
  • Судя по количеству имеющейся у находящихся под Минусинском сайтов ссылочной массы (в большинстве своем свыше тысячи бэков), можно сделать вывод, что копилась она не один год и имеет приличный возраст. Кроме этого, чуть ли не девяносто процентов из всех имеющихся беклинков были закуплены в биржах (косвенно об этом можно судить по низкому среднему значению Тиц всех имеющихся доноров, но не всегда это будет объективно). И при этом среди доноров много гигантских линкопомоек.
  • У многих из зафильтрованных ресурсов можно также наблюдать сильный уклон анкор-листов в сторону их коммерциализации (мало разбавлений).
  • Вполне возможно, что с приходом очередных волн Минусинска требования к ссылочной массе будут еще больше ужесточаться.
  • Завалить конкурента, как вы уже, наверное, поняли, с помощью покупки на него тонны ГС бэклинков не получится, в силу того, что алгоритм прежде всего учитывает возраст ссылок (на данный момент вряд ли учитываются бэки, проставленные менее года назад). Держать ссылки в течении года, пожалуй, ни один конкурент себе позволить не сможет (да и конкурент может Яндексу пожаловаться на несанкционированный рост ссылочной массы).
  • Как жить оптимизатору в эру нового алгоритма Яндекса

  • Начать очень трепетно относиться к ссылочному профилю сайтов — качество ссылок должно превалировать над их количеством. За количество сейчас можно очень жестоко поплатиться.
  • Продвижение сейчас, наверное, стоит начинать с покупки очень трастовых (с высоким Тицем), тематичных (например, с отраслевых каталогов) и потенциально кликабельных ссылок. Доноры при этом не должны торговать ссылками направо и налево, а также желательно не должны участвовать в ссылочных биржах. Возможно, что они будут очень дороги (например, Яндекс Каталог) или их получение будет очень трудоемко (поиск подходящих каталогов, справочников, порталов, форумов), но их влияние сейчас является определяющим.
  • Если вы изначально зададитесь целью построить естественный ссылочный профиль, то никакие санкции вам будут не страшны. Про то, как это сделать, я думаю написать отдельную статью в ближайшее время.
  • Отдельно подчеркну один из признаков близкого к естественному профиля — достаточно высокая разбавка анкоров, и как минимум треть от общей массы ссылок (это особливо касается молодых сайтов) должна быть безанкорной.
  • Сначала следует покупать (получать бесплатно) бэклинки исключительно только с сайтов из вашей тематики и отдавать предпочтения тем вариантам, где вероятность клика по вашей ссылке выше (с посещаемых страниц популярных ресурсов). Общее качество донора тоже очень важно, но его следует рассматривать именно в привязке к тематике.
  • Все вышесказанное будет бесполезно, если вы не привели сайт в соответствие со всеми требования поисковых систем (читайте про пять основных ошибок при продвижение коммерческого сайта). Для этого нужно будет:
  • Собрать полное семантическое ядро, а не несколько сотен лежащих на поверхности запросов. Чем больше будет охват (полнота информации в данной нише), тем лучше будет отношение поисковиков и выше трафик с них (длинный хвост запросов обеспечивает быстрое попадание в Топ и высокую конверсию, а значит и хорошие поведенческие характеристики).
  • Сгруппировать данные запросы по страницам с использованием принципа, когда одна страница сайта должна решать одну проблему пользователя, с которой он обратился к поисковой системе своим запросом. Запросов же при этом на одной странице может быть использовано несколько, ибо одну и ту же проблему можно облечь в разные слова.
  • Написать контент для всех страниц (грамотно составить техзадание для копирайтеров) с правильной оптимизацией их под намеченные запросы.
  • Скомпоновать полученные горы контента на сайте (разделы, навигация и т.п.) и провести аудит удобства его использования для определения направлений для доработки юзабилити. Также необходимо будет провести технический аудит сайта (типа описанного в статьях про зеркала и дубли, а еще про Http ответы и редиректы).
  • И только после этого начать работу над построением близкого к естественному ссылочного профиля. Начало работы с ссылками раньше выполнения описанных выше пунктов можно сравнить с тем, чтобы начать расставлять книги не собрав предварительно книжный шкаф.
  • По мере развития проекта и роста трафика, следует активно использовать системы аналитики для повышения конверсии и улучшения юзабилити. Процесс этот никогда не следует считать завершенным, ибо остановившись вы фактически начнете откатываться назад.
  • Печально-банальные выводы

    Правда состоит в том, что сайты, продвигаемые по описанной выше схеме, очень редко встречаются, ибо за простотой шагов стоят очень большие трудозатраты. Однако, такому ресурсу уже будут не страшны никакие фильтры поисковых систем, ибо он строился с правильными приоритетами и без «финтов ушами», т.е. с ориентиром на удобство конечного пользователя.

    Тут воплощается в жизнь избитая истина — делайте сайты для людей и они к вам потянутся, а поисковики ничего не будут иметь против (только за). И это будет работать всегда, во всяком случае в обозримом будущем. Времена из серии «дешево и сердито» завершились, как бы нам и не хотелось этого признавать. ИМХО.

    Как удалять плохие ссылки на сайт с помощью XTool в эпоху Минусинска

    Дело в том, что снимать все подряд нельзя (не стоит предаваться панике и потом жалеть о потерянном навсегда трафике), а значит нужно как-то научиться делить ссылки на плохие и хорошие, чтобы снимать (по крайней мере в начале) исключительно плохие, которые кроме негатива ничего в себе не несут. Без автоматизации тут не обойтись, поэтому сегодня я и хочу как раз поговорить об одном из таких способов отделения зерен от плевел.

    Вариантов решения этой проблемы несколько, но все они потребуют определенных денежных вложений за проверку ссылок (чем больше будет ссылочная масса вашего сайта, тем, естественно, это дело будет дороже). К тому же гарантированно сказать, что какой-то способ лучше других, заранее нельзя, посему «каждый выбирает для себя» (вполне возможно, что кто-то проводит оценку ссылочной массы в нескольких местах, а уже потом делает выводы на основе корреляции собранных данных).

    Сбор всех ссылок в XTool для проверки их качества

    На данный момент я опробовал для решения задачи выявления плохих ссылок только одним из способов и именно его хочу подробно описать в этой статье (когда попробую другие, то их тоже опишу). В качестве основного инструмента я использовал Xtool. Многие, наверное, его знают хотя бы по тому, что там можно бесплатно оценить траст (и ряд других ключевых параметров — заспамленность, наличие АГС, вероятность попадания под фильтр и т.п.) своего сайта или ресурсов конкурентов, а также потенциальных доноров.

    Собственно, именно для оценки потенциальных доноров (стоит с них покупать ссылку или лучше воздержаться) и использовали Xtool многие вебмастера и сеошники. Сейчас же, в силу упомянутых выше фильтров поисковиков за плохие ссылки, этот сервис многие стали использовать для обратной задачи — отбора плохих ссылок из уже имеющейся ссылочной массы с целью их последующего снятия для улучшения кармы сайта в глазах Яндекса и Гугла.

    Естественно, что проверять всех доноров (страницы, с которых ведут на ваш сайт ссылки) было бы крайне утомительно. Посему в сервис была добавлена возможность массовой проверки ссылок на предмет «хорошая или плохая». Вот буквально так — сервис по умолчанию может для каждого бэклинка выдавать такой вердикт. В настройках вы можете это отключить и самостоятельно делать выводы о доноре на основании собранных сервисом данных, но на это нужно время и понимание вопроса.

    Естественно, что у вас может встать вопрос — где взять полный список всех проставленных на ваш сайт ссылок? Вариантов опять же масса. Можно что-то наковырять бесплатно (в панели Яндекса для веб-мастеров, в Google Search Console и еще других сервисах). Можно за денежку выдернуть этот список из сервисов подобных Ахревсу (правда, дороговато это может стоить, если ссылочная масса большая). Собственно, и сам Xtool предоставляется такую возможность на вкладке «Обратные ссылки«.

    Как видно из скриншота, для моего блога сервис смог собрать из бесплатных источников около полутысячи ссылок, а получение остальных тридцати тысяч возможно на платной основе. Что примечательно, цена за это не слишком высока (за 32000 ссылок около 160 рублей), особливо если сравнивать с тем же Ахрефсом, где минимальный месячный абонемент стоит под сотню долларов.

    Самом собой, что вы можете обойтись проверкой только бесплатных бэклинков, что позволит, скорее всего, какое-то количество плохих обратных ссылок отловить, но все же это капля в море. Посему лучше не жадничать, тем более, если от этого зависит выход сайта из-под фильтра или снижение вероятности его туда попадания.

    Хотя оговорюсь, что собирать список проставленных на ваш сайт ссылок вы можете где вам удобно. По сути, это не принципиально, но делать в Xtool это удобнее, на мой взгляд, ибо можно будет оперативно и бесплатно проверить, а действительно ли эти ссылки проставлены до сих пор (т.е. провести их ревизию) или часть из них уже канула в лету и на их проверку нет смысла тратить деньги.

    Итак, если вы на предыдущем шаге (см. скриншот выше) „побороли жабу“ и нажали таки на кнопку „Получить дополнительный список обратных ссылок“ (предварительно закинув на счет нужную сумму), то через минуту-другую вы будете лицезреть такую вот примерно „картину маслом“:

    Обратите внимание на содержимое последней колонки. Там везде будет красоваться надпись „Не проверено“. Что это значит? Ну, сервис выцепил список ваших беклинков, но какова его актуальность на данный момент? Можно, конечно же, и в таком виде его загрузить для дальнейшей проверки ссылок на предмет „плохая или хорошая“, но лучше все же отсеять пустышки и не тратить на их проверку лишнюю денежку (имхо). Посему советую нажать на расположенную над таблицей кнопку „Проверить позиции текущих ссылок (бесплатно)“.

    Процесс проверки ссылок „на наличие“ не столь быстрый как их сбор, ибо каждую страницу нужно обойти, а когда их десятки тысяч, то времени может уйти достаточно много. Чтобы узнать, сколько еще осталось, обновите страницу и можете начинать медитировать наблюдая за убывающим счетчиком (либо забить и пойти попить чайку, как я сейчас и сделаю):

    Правда, за время проверки я успел не только чаю попить, но и вторую часть статьи написать (про использование плагина Xtool_checker ). При этом заметил, что после полуночи скорость проверки ссылок существенно выросла, видимо высвободились мощности.

    Поиск в XTool плохих ссылок ведущих на ваш сайт

    Тем не менее результат был получен, и теперь в сводной таблице в последнем столбце „Позиция“ напротив каждой из ссылок стоит „Есть“ (ссылка присутствует) или „Нет“ (ссылка уже исчезла). В моем случае „Нет“ было достаточно много, а значит я не зря потратил время на ожидание конца проверки, ибо не будет пустых трат (уже денежных, а не временных) на проверку „пропавших“ обратных ссылок.

    Все, теперь можно смело жать на кнопку „Перенести ссылки в массовую проверку (проверенные)“. Туда попадут только те ссылки, что помечены словом „Есть“.

    В Xtool откроется окно массовой проверки, в которое можно было бы попасть и по приведенной ссылке (это было бы актуально, имей вы на руках свежий и полный списков бэклинков вашего сайта).

    Прежде чем нажать на расположенную внизу кнопку „Проверить“, можете нажать на кнопку „Настройки“:

    Настроек очень много, но обратить внимание советую только на две из них:

  • Во-первых, можно будет отказаться от присвоения сервисом бирок „плохой или хороший“ для проверяемых ссылок, а делать это самим на основании всех собранных им данных, но уже по своим критериям (это, наверное, мало кому подойдет). Сервис же относит к хорошим все ссылки, которые отвечают такому вот критерию:
  • Для хоста (т.е. всего сайта в целом) — траст xtd (траст домена) больше либо равно 2, АГС — нет , непот меньше 60, заспамленность меньше 5
  • Для внутренней страницы (где, собственно, и размещена ссылка на ваш сайт) — xt (траст страницы) больше либо равно 1
  • Во-вторых, можно снять установленную по умолчанию галочку „Проверять только хосты“. Если ее не снимать, то проверяться будут только сами сайты, на которых размещены ссылки на ваш ресурс, а страницы, где эти самые бэклинки непосредственно размещены, проверяться не будут. В этом случае вы сможете существенно сэкономить на проверке, ибо в вашем ссылочном профиле могут быть пулы из тысяч ссылок с одного сайта.

    Но с другой стороны, на хорошем домене может быть размещена плохая ссылка. Посему я эту галочку снимаю. На самом деле, это может выйти не столь уж и накладно, ибо сначала проверяется качество домена, и если он помечается как „плохой“, то дальнейшая проверка самого урла внутренней страницы уже не происходит для экономии ваших баллов. Только для „хороших“ доменов будут пробиваться все ссылающиеся на ваш ресурс страницы. К тому же, если вы потом планируете загружать плохие ссылки в Google disavow links, то там нужны будут не домены, а конкретные адреса страниц.

  • После запуска проверки внизу вы увидите счетчик с процентами выполнения, а после окончания сможете скачать файл со сводной таблицей результатов к себе на компьютер, чтобы подробно его изучить:

    Собственно, ориентируясь на этот список можно будет потихоньку начинать снимать „плохие“ ссылки, если это возможно. Ну, или можно их добавить в Дисавоу Линкс в панели для вебмастеров Гугла, если сайт попал только под Пингвин, но не под Минусинск. Это уже вам решать…

    Как находить плохие ссылки с помощью плагина Xtool_checker?

    Но кроме онлайн-версии у этого проекта есть еще и плагин для Фаерфокса (Xtool_checker), который позволяет провести оценку ссылок, например, прямо там, где вы их закупали (в Сапе и т.п.). Его тоже можно использовать для оценки ссылочной массы, особенно если вы ее закупали в крупных биржах. Либо можно просто загрузить в него список уже имеющихся у вас страниц, откуда проставлены ссылки на ваш сайт, а потом провести оценку их качества.

    Что примечательно, большинство параметров с помощью плагина Xtool_checker можно пробить бесплатно (оплачивается только расчет XT и XTD — траста страницы донора и траста всего домена донора). Т.е. теоретически можно будет бесплатно получить хоть и не полноценную, но все же оценку качества ссылок. Хотя, именно XT и XTD являются ключевыми в оценке и без них трудно будет обойтись, чтобы эффективно отсеять зерна от плевел.

    Плагин, как я уже упоминал, работает только под Фаерфоксом. Установить его можно с этой страницы. После установки и перезапуска браузера вы обнаружите в его верхней панели новую строчку с инструментами, которые туда добавил (стоит сразу зайти в меню настроек в виде гаечного ключа):

    Фишка использования именно плагина (а не онлайн-сервиса) в том, что если вы, например, откроете в этом браузере страницу Сапы с потенциальными донорами (или уже купленными ссылками — наш случай), то выбрав из выпадающего списка плагина пункт „Для Sape“ (или „Автовыбор“), вы добьетесь того, что в окне браузера рядом с сапа-ссылками появятся квадратики различных параметров, характеризующих качество этих ссылок.

    Чтобы произошел съем значения достаточно будет кликнуть по нужному квадратику, а если нужен съем этого параметра для всех ссылок на открытой странице, то нужно будет уже кликнуть по соответствующей кнопке на панели плагина. Можно кликать сразу по нескольким кнопкам активируя тем самым многопоточный режим. Ну, и по результатам можно будет принимать решение „не отходя от кассы“ (никуда не уходя с этой страницы Сапы) о том, хорошая эта или плохая (покупать ее или снимать). В общем, где-то так.

    В нашем же случае (когда у нас на руках имеется список страниц ссылающихся на наш сайт) можно будет кликнуть по кнопке в виде плюсика справа от выпадающего списка и ввести в него Урл адреса страниц доноров, которые требуется проверить. Еще раз повторюсь, что для проверки параметров XT и XTD потребуется потратить денежку.

    Цветовая гамма позволяет визуально оценить приемлемость данной ссылки (зеленый — хорошо, а остальное — не очень).

    В плагине при проверке XT и XTD используются следующие цвета и обозначения:

  • зеленый светлый — это актуальная проверка (для XT,XTD)
  • зеленый тёмный — данные взятые из кеша браузера (для XT,XTD)
  • оранжевый — имеет место быть слишком сильная заспамленность сайта ссылками (для XTD)
  • желтый — санкции в яндексе за контент (для XTD) — АГС и проч.
  • синий NO — не в индексе или не удалось проверить (для XT,XTD)
  • бордовый ER — ошибка авторизации (для XT,XTD)
  • lim — закончилось количество оплаченных запросов (для XT,XTD)
  • пурпурный — просто означает, что значение меньше указанного вами в настройках уровня (для XT,XTD)
  • Потом при желании вы можете экспортировать результаты в формат excel (кнопка EXP в правой части панели плагина). В результате получится сводная таблица характеристик доноров.

    Стоит понимать, что параметр XTD (траст домена) рассчитывается с учетом большего числа параметров и по более сложному алгоритму, чем XT (траст конкретной страницы сайта, откуда на вас проставлена ссылка). Вполне естественно, что XTD обычно значительно больше XT, и это понятно. Ну, а XTD разбивает сайты примерно на такие категории:

  • XTD [8-10] — мощные трастовые ресурсы
  • XTD [4-7] — крепкие середнячки
  • XTD [3] — граница, могут встречаться всякие, часто это ещё к гс нельзя отнести
  • XTD менее 3 — ГС
  • При закупке ссылок следует ориентироваться на показатели выданные Xtool в таком порядке: сначала отбираем незаспамленные сайты с XTD >= 4 (ну, можно и от 3, если совсем все плохо), а затем отбираем уже на этих „хороших“ площадках внутренние страницы с XT >= 2 для размещения своих будущих бэклинков.

    При отсеве уже размещенных ссылок есть смысл использовать более мягкие условия — удалять бэклинки только со страниц, xt который меньше 1 (именно xt, а не xtd).

    Как я выводил сайт из-под фильтров Яндекса — Кейс №1

    Решил отписать по поводу санкций, под гнетом которых сейчас находится данный блог. Если кто-то посматривал на расположенный внизу правого сайдбара счетчик посещаемости, то, возможно, заметил, что его показатели существенно уменьшились. Началось падение, в общем то, еще давно, в конце апреля 2012 года, и совпало оно с активацией Гугловской сладкой парочки — Панды и Пингвина.

    Но тогда все не было так серьезно — фактически просто прекратился рост посещаемости. Количество посетителей с Яндекса планомерно росло и компенсировало проседание в Google. После каждого апдейта Панды (думаю, что угодил я именно под нее) ситуация все более и более усугублялась. Последний раз, в прошлом году, падение в Гугле совпало с практически одновременным ростом в Яндексе аккурат перед новым годом.

    Весной Yandex меня радовал и количество ежедневных посетителей, приходящих с этой поисковой системы, неуклонно приближалось к довольно-таки приятной цифре — 10 000. Но вот наступило 3 апреля 2013 года и после очередного апдейта выдачи Яндекса я почувствовал, что ситуация поменялась и не в лучшую для меня сторону.

    В первый день KtoNaNovenkogo.ru потерял лишь около полутора тысяч посетителей, но то было лишь начало лавины, которая сойдя вниз оставила мне от щедрот своих (примерно, недели через полторы или две) лишь пятую часть ежедневной аудитории черпаемой из бесконечных закромов зеркала рунета (2 000 переходов).

    Естественно, что будучи читателем некоторых SEO блогов и форумов, я решил спросить о причине такого обвала непосредственно у первоисточника (техподдержки Яндекса или, как они обычно подписываются — Платона Щукина). Задать подобный вопрос можно через всем известный и популярный инструмент для вебмастеров от Яндекса (в левой колонке снизу находится ссылка „Задать вопрос о сайте службе поддержки“).

    Сформулировал я свой вопрос так:

    Здравствуйте!

    Заметил, что начиная со вчерашнего дня (3 апреля) на https://ktonanovenkogo.ru дня резко уменьшилось количество посетителей приходящих с Яндекса. Это совпало с очередным апдейтом. Сегодня ситуация еще более ухудшилась.

    Не понимаю, что именно могло это вызвать. Вирусов, вроде бы, на сайте нет, новые материалы добавляются регулярно, ресурс был доступен. Возможно, что мне назначили пенальти за какое-то нарушение.

    Если это возможно, то поясните, пожалуйста, в какую сторону смотреть и что именно исправлять или изменять.

    Спасибо.

    На тот момент у меня еще теплилась надежда, что через один или два апдейта все вернется взад, но после ответа техподдержки все иллюзии рассеялись.

    Здравствуйте, Дмитрий!

    Проверив Ваш сайт, наши алгоритмы нашли страницы, содержание которых может негативно повлиять на ранжирование. На нем были проиндексированы страницы, содержащие списки поисковых запросов, то есть фрагменты текста, предназначенные не для пользователей, а исключительно для продвижения в поисковых системах. В силу того, что по многим запросам Яндекс не может корректно отранжировать такие страницы, Ваш сайт был понижен в результатах поиска.

    Если эти элементы страниц не являются жизненно важными для существования ресурса, уберите их, пожалуйста, или измените таким образом, чтобы они были удобны для восприятия пользователями. Так как сайт оценивается комплексно, то рекомендуем проверить как сами тексты, так и теги (в том числе тег title), и ссылки — для алгоритмов все это имеет значение.

    Вы можете сообщить нам об изменениях на сайте, и мы проверим, все ли с ним сейчас в порядке.


    С уважением, Платон Щукин
    Служба поддержки Яндекса

    Я быстренько пробежался по самым авторитетным сайтам по тематике продвижения (Елены Камской, SeoProfy, Деваки и некоторых других гуру) и понял, что дело может быть не только в высокой тошнотности текстов (перебор ключевых слов, большом кол-ве тегов strong и др), но и возможны варианты с переоптимизированностью заголовков страниц (в Title) и даже слишком насыщенные ключами и просто повторяющимися словами атрибуты Alt и Title в теге IMG имеющихся на сайте изображений.

    Память человеческая довольно короткая и весьма избирательная, поэтому мне показалось, что уж тексты то у меня не могут быть переоптимизированы, ибо последнее время за этим тщательно слежу. Другое дело эти самые атрибуты Alt и Title.

    Еще в момент начала ведения этого блога я встал на определенные рельсы — описывать в них то, что изображено на картинке так, чтобы она имела шанс высоко ранжироваться в поиске по картинкам и привлекать на статью дополнительный трафик. То, что эта идея была утопической, особенно по отношению к скриншотам на тему далекой от фривольной, я особо и не задумывался.

    Мне всегда говорили — не лечи то, что не болело и не чини то, что не ломалось. Именно так я и поступал все эти годы — прописывал с завидным постоянством в атрибутах Alt и Title описание картинок, потому что посещаемость росла, а поменяв что-то можно было навредить этому благолепию.

    Но, если в статье четыре десятка изображений, а сама она повествует, допустим, о Яндекс диске, то для каждой картинки нужно указать в атрибутах то, что она, как раз, имеет отношение к этому самому пресловутому Диску.

    Получается список из восьми десятков фраз содержащих в той или иной форме „Яндекс Диск“. Если поиск учитывает содержимое атрибутов Alt или Title в ранжировании именно текста статьи, то тут получается явный перебор, как раз подпадающий под определение переоптимизации данное поддержкой Яндекса в ответе мне — списки поисковых запросов.

    Поняв это и осознав, что никакого трафика по картинкам я сейчас не получаю и никогда не получал раньше (да и не буду получать в будущем), было принято решение избавиться от этих самых атрибутов вообще. Т.е. все их удалить во всех статьях. На это ушло двое суток и было написано очередное обращение к поддержке Яндекса.

    Через несколько дней я получил ответ, который вселил в меня одновременно и радость и настороженность, ибо не было дано гарантий выхода из-под фильтра, а только высказано предположение и рекомендация подождать месяц.

    Здравствуйте, Дмитрий!

    Причина, по которой Ваш сайт был понижен в результатах поиска, была Вами устранена. Окончательно вопрос о снятии санкций будет решен примерно через месяц, после повторной проверки.

    В этот период Вы можете вносить любые запланированные изменения . Главное, чтобы на момент проверки был контент, доступный для индексирования. Что касается работ по оптимизации сайта, то с некоторыми нашими рекомендациями на этот счет Вы можете ознакомиться здесь: http://help.yandex.ru/webmaster/?id=1108938
    http://company.yandex.ru/rules/optimization/index.xml


    С уважением, Платон Щукин
    Служба поддержки Яндекса

    Ну, на самом деле, вы, наверное, уже догадались, что из под фильтра Яндекса мне выйти так и не удалось. Конечно же, я думал, что майские праздники и связанные с этим редкие апдейты увеличили срок ожидания, но, тем не менее, я все же решил уточнить этот вопрос у Платона Щукина и получил повергший меня в глубокую кручину ответ:

    Здравствуйте, Дмитрий!

    К сожалению, после повторной проверки алгоритмы приняли решение не снимать санкции. Поэтому, пожалуйста, внимательно ознакомьтесь с нашими рекомендациями:
    company.yandex.ru/rules/optimization/

    Развивайте свой сайт в соответствии с этими рекомендациями и со временем его позиции будут улучшаться.


    С уважением, Платон Щукин
    Служба поддержки Яндекса

    Самое печальное, что к этому моменту от KtoNaNovenkogo.ru полностью отвернулся и Google. Толи я еще глубже попал под Панду, то ли он смотрит на Яндекс, и раз тот не считает нужным хорошо ранжировать этот проект, то и он не будет. В общем, кругом одна сплошная печаль и тоска.

    Я еще раз написал в техподдержку Яндекса с просьбой снять фильтр вручную, но, естественно, у них нет такой прерогативы и возможности. Но, что меня приятно удивило, ответили на мое, в запале написанное письмо, очень вежливо и даже указали путь, который может привести к выходу из под фильтра:

    Здравствуйте, Дмитрий!

    Извините за задержку с ответом.
    К сожалению, конкретных способов устранения проблемы мы не указываем. Наилучший результат даст коррекция текстов, снижающая избыток ключевых слов.


    С уважением, Платон Щукин
    Служба поддержки Яндекса

    Ну, и я решил последовать совету и занялся с недавних пор коррекцией текстов своих статей, начав с конца. Человеческая память действительно избирательна и если последние полтора — два года я старался не злоупотреблять ключами или любыми другими словами-паразитами, то в старых статьях я просто ужаснулся от их количества. Это что-то с чем-то. Если честно, то я и сам себя бы под фильтр загнал за такое безобразие.

    Процесс коррекции чудовищно долгий и сложный. Даже если сидеть не отрываясь, то максимум можно почистить три — пять статей в сутки, а их — несколько сотен. В общем, в ближайшие полгода мне есть чем себя занять, но, как ни странно, сам факт очеловечивания текстов приносит удовлетворение, что позволяет заниматься этой рутиной даже с интересом, во всяком случае пока.

    Да, забыл упомянуть, в поддержку Гугла я тоже писал с просьбой пересмотреть мой сайт (делается это в недрах Гугл Вебмастера — подать запрос на повторную проверку), на что мне отписались, что ручных фильтров на мой сайт наложено не было и ничем помочь не могут.

    Как у моего коллеги получилсь вывести сайт из-под фильтра Яндекса — Кейс №2

    Разрешите еще предложить Вам материал в качестве гостевого поста от Галиулина Руслана, автора SEO блога (http://firelinks.ru/). Дальше повествование пойдет от лица автора. Надеюсь, что будет интересно.

    В данном посте мне бы хотелось поделиться своим опытом по практическому выводу сайта клиента из-под фильтра Минусинск за покупку SEO ссылок и манипуляцию с поведенческими факторами. В последнее время многие сайты, как и мелкие так и трастовые удостоились внимания со стороны нового и не всеми любимого алгоритма „Минусинск“, который вступил в активную фазу с мая 2015 года.

    Как и многие оптимизаторы я стал изучать данную проблему и принцип работы данного фильтра для дальнейшего построения тактики продвижения своих сайтов с учетом всех рекомендаций. Как говорил в своих интервью господин Садовский: „Все, кто не откажется покупать ссылки и не снимет их в ближайшее время будут наказаны на долгий срок“. После таких заявлений определенно число вебмастеров побежали снимать ссылки, среди которых был, и я сам, но скажу сразу, что не стоит бежать сломя голову и выкидывать все в топку.

    Съем ссылок необходимо проводить только самого низкого качества, отдавая предпочтение качеству площадок, а не количеству. Имея пару десятков тематических вечный ссылок с трастовых площадок вместо сотни арендных можно неплохо продвинуться вперед при этом оставаться там намного дольше своих конкурентов без всякого риска со стороны поисковых систем. Так ли это? Время рассудит… А сегодня речь пойдет именно о текущем рабочем решении, которое привело к выходу из-под Минусинска.

    Чтобы знать наверняка — пишем Яндексу о постигшей сайт беде

    Знаете, многие блогеры пишут, что когда сайт попал под фильтр, то надо начинать закидывать письмами техническую поддержку Яндекса и молить перепроверить Ваш сайт, так как Вы такой молодец и все сделали. По сайту моего клиента было отправлено 7 писем в которых мы слышали одни отписки и рекомендации работать над сайтом. Вот примеры данных писем:

    Как видите все весьма печально и сайт находился под фильтром уже более 6 месяцев. А учитывая, что промежутки обновления баз Яндекса (апдейтов) с мая этого года увеличились по времени в 2 раза, то и ждать результат пришлось долго.

    Чтобы не быть многословным, давайте рассмотрим практический пример, над которым мне пришлось поработать. Вместе с заказчиком нам пришлось провести полный анализ ситуации и начинать работать над сайтом.

    Показатели пациента:

  • сайту 1 год и 4 месяца;
  • ТИЦ 50;
  • процент запросов в ТОПе 60%;
  • регион продвижения Казань (Татарстан);
  • обратные ссылки в количестве 470 штук (в основном арендные от Sape).
  • После потери трафика из Яндекса был отправлен запрос в поддержку Платону для выяснения причин проседания, в ответ был получен следующий ответ:

    Как отправить письмо Платону (написать в саппорт Яндекса)?

    На всякий случай поясню, как и откуда можно написать Платону Щукину (в техподдеркжку Яндекса), чтобы на него ответили. Итак, при наличии проблем и подозрений в том, что Ваш сайт может находиться под санкциями необходимо из панели вебмастера Яндекса перейти в раздел обратная связь при открытом конкретном сайте (в самом низу любой страницы Вебмастера будет доступна соответствующая ссылка).

    Раньше просто достаточно было отправить письмо в поддержку через специальную форму, а теперь, чтобы добраться до нее нам предстоит сначала воспользоваться интерактивной системой вопросов-ответов (для конкретно выбранного сайта, если их, например, у вас в аккаунте ЯВ несколько) и уж если она не помогла выбрать раздел «рекомендации не помогли»:

    И только после этого появится вожделенная форма, где нам и предстоит задать свой щепетильный вопрос.

    После чего обращение будет зарегистрировано, и вы сможете получить ответ. Обратите внимание, что отвечает поддержка Яндекса с ожиданием от 1 до 10 дней, а иногда и дольше.

    Последствия наложения фильтра и порядок действий по выходу?

    Как видно сайт получил следующий диагноз:

  • наложен фильтр за использование накрутки поведенческих факторов;
  • сайт пессимизируется в поиске за покупку SEO ссылок;
  • позиции упали за 100 места;
  • трафик из Гугла остался без всяких изменений.
  • Как и многие я решил погуглить и почитать как быть с подобной ситуацией. Многие блогеры советуют начинать постоянно писать в поддержку и просить переиндексировать сайт и приводить доводы. Да, не спорю, такой метод надо использовать, но перед тем как начинать писать Платону в первую очередь необходимо провести аудит своего сайта и выявить основные причины наложения фильтра (на самом деле, фильтров у Яндекса много и не факт, что именно Минусинск на вас свалился).

    На все письма, которые мы отправили всегда приходили шаблонные ответы, и никто не хотел решать проблему, так как это забота владельцев своих сайтов.

    Перед началом исправления и поиском проблемы я решил отправить запрос с предложением вылечить данный сайт и выставить стоимость работы. Знаете, сколько выставили? 25 000 и никто не скидывал цену. Тут возникает вопрос, а как вообще вывести сайт из-под фильтра если по словам Платона вручную влиять никто не может, остается только работать над сайтом.

    И скажу Вам, что решить данную проблему можно вложив всего 2000—4000 рублей. Не верите? Но так оно и есть. Давайте я расскажу, что я конкретно делал над сайтом для вывода его из санкций Яндекса.

    Этап №1

    В первую очередь пришлось полностью отказаться от использования любых манипуляций по имитации действий пользователей вроде репостов, простановки комментариев и просмотра нужных станиц (серфинг). Начиная с первых дней после решения Яндекса снизить влияние коммерческих запросов многие сервисы решили заработать на улучшении поведенческих и многие ринулись закидывать свои сайты в данные сервисы. В случае попадания сайта под фильтр за накрутку поведенческих срок выхода будет составлять со слов Платона не менее 6 месяцев, так что стоит задуматься.

    Я не говорю, что всем подряд стоит полностью отказываться от этого метода, так как самые проблемные запросы удается пропихнуть вперед, используя данный способ. В итоге нам пришлось полностью отказаться от любых действий дабы не злить Яшу.

    Этап №2

    На этом этапе пришлось перепроверять все обратные ссылки, которые могли быть причинами попадания под санкции нашего сайта. Вот что конкретно было сделано над нашим проектом:

  • Были поэтапно сняты все арендные ссылки с биржи Sape в количестве 390 штук. Не более 50 ссылок каждые 3-4 дня;
  • На биржах покупки вечных ссылок GoGetLinks, Miralinks и Rotapost ручным способом менялись анкоры ссылок в большинстве случаев на безанкорные или с названием бренда. Некоторые ссылки с некачественных и заспамленных площадок были полностью удалены, так как имея бэклинк с площадки, попавшей под санкции также негативно будет влиять и на наш проект и тем самым давая сигнал поисковикам, что ссылки были куплены;
  • Взамен большинства снятых ссылок было куплено несколько дорогих качественных бэклинков с тематических площадок в количестве 10 штук с площадок, имеющих процент ссылочности не более 20%;
  • Также были созданы 3 компании в сервисе крауд-маркетинга. Такие ссылки проставляются на форумах (Форумок), сервисах „вопросы-ответы“ и прочих социальных сервисах дающих в идеале даже дополнительный трафик на сайт из пользователей, которым аккуратным образом дается (подсовывается) ссылка для решения их проблемы. Используя данные безанкорные ссылки поучилось неплохо улучшить окружающий ссылочный фон сайта и разнообразит сам анкор-лист.
  • Этап №3

    На этом этапе пришлось перепроверять все текста на наличие переспама ключевыми запросами и точность вхождения анкоров как внутри сайта, так и на сам сайт. Пришлось сократить количество использования основных ключей на странице в описание категорий каталога товаров.

    Также переписывались заголовки статей и категорий избавляясь при этом от агрессивных вхождений коммерческих запросов типа «купить корпусную мебель в Казани», «купить мебель».

    Те материалы, которые были малоинформативные и имели большой процент воды были переписаны полностью.

    На главной странице компании были удалены все дополнительные текстовые блоки, не отображающие сущность и политику компании, а написанные ради объема. Была оставлена информация о качестве товаров и гарантии на работу.

    Этап №4

    На последнем этапе работы были добавлены дополнительные элементы юзабилити сайта такие как кнопка обратного звонка для клиентов и отображение карточки товара.

    Яндекс все это учитывает при ранжировании коммерческих сайтов (не говоря еще и о естественном улучшении поведенческих характеристик достигаемого таким образом).

    После проделанной работы все cтраницы сайта были отправлены на индексацию. Для ускорения я использовал сервис пинга LetusIndex.

    Что получилось в итоге?

    После переиндексации, а это примерно заняло около 3 недель, некоторые позиции стали возвращаться в ТОП выдачи Яндекса. Для перепроверки было написано письмо с просьбой подтвердить снятие санкций, на что был получен следующий ответ:

    Хотя многие запросы уже более 6 месяцев с момента наложения фильтра находились далеко позади, после снятие всех ограничений сайт занял практически те же самые места какие и занимал ранее. Трафик с Яндекса постепенно стал возвращаться на прежний уровень.

    Вот такими манипуляциями мне удалось снять все наложенные на сайт Яндексом фильтры. Надеюсь мой опыт поможет в подобной ситуации многим. Приятной работы.

    12 ошибок MFA-сайтов, которые грозят санкциями в Яндексе

    Проекты, целенаправленно созданные под заработок на контексте (MFA) или партнерских программах, – одни из постоянных клиентов на аудиты в SiteClinic – моих коллег, которые занимаются ручным анализом сайтов и выводят их из-под всевозможных фильтров Яндекса и Google.

    В этой статье они собрали ряд характерных ошибок и рекомендации для таких сайтов. Их советы помогут снизить риски, не попасть под санкции Яндекса и зарабатывать безопасно.

    P.S. Для себя тоже нашел не мало важных моментов в этой публикации, ранее упускаемых из виду.

    Базовые 6 советов — как не попасть впросак

    Иногда вроде бы очевидные (и логичные) вещи очень трудно увидеть сидя на своей колокольне (работая „в поле“). Но стоит посмотреть на сайт со стороны, что называется „свежим взглядом“ и тут же зачастую вылазит столько нелепых косяков, что диву даешься. Не верите? Смотрите сами и примеряйте на свои проекты…

  • Шаблонность материалов

    Все статьи по 2000 символов, 1 картинка, 3 подзаголовка H2 – и по такой схеме наполняется весь сайт. Если автор статьи стремится раскрыть вопрос, дать ответ пользователю, разумеется, он следит не за количеством символов, подзаголовков и картинок. Такие рамки часто не позволяют раскрыть тему.

    Описание достопримечательностей Италии или сравнение кредитных предложений по Москве объемом в 2000 знаков никак не может давать полноценный ответ на запрос. Шаблонный подход к подготовке контента может сигнализировать Яндексу о низком качестве сайта.

    Чтобы не допускать эту ошибку, нужно избегать четких рамок по количеству символов, картинок, подзаголовков и т.д.

    Если материалы готовит копирайтер, придётся потратить время, чтобы объяснить, что границы от 2 до 5 тыс. – это не все статьи по 5000 или 3500 символов, а столько, сколько нужно, чтобы раскрыть тему. При разовых заказах это сложно. Хорошего обучаемого специалиста нужно брать на регулярные заказы.

  • Сложные либо широкие для продвижения тематики

    Есть тематики, к которым Яндекс относится с большим недоверием. Официально никаких фильтров на тематику ПС не подтверждала, но по нашим наблюдениям, а также информации от других вебмастеров, видим, что такие волны пессимизации и зачистки тематик периодически прокатывались. Один из наиболее ярких примеров – кредитные сайты. Также можно отметить онлайн-игры, фильмы, сайты с рецептами.

    Если вы планируете создавать свой проект именно в такой тематике, то должны понимать – чтобы завоевать доверие ПС, потребуется больше времени, контент должен быть не хуже, чем у лидеров, а желательно и в чем-то превосходить их, иметь свою изюминку, выделяющую сайт.

    Внешне хороший сайт, который быстро начал бы набирать обороты в менее конкурентной тематике, может долго не индексироваться или быть оценен как неоригинальный, вторичный, малополезный и сразу уйти под АГС.

    Собственно, информацию об этом можно почерпнуть из памятки вебмастеру на самом Яндексе:

    Еще одна ошибка – это выбор слишком широкой тематики

    Например:

  • — сайт про бизнес;
  • — портал о здоровье;
  • — все про строительство.
  • Возможно, со временем ваш проект и станет авторитетом и лидером в целом направлении, но на старте такие «наполеоновские планы» скорей погубят проект и затраченные на его развитие средства.

    Поэтому брать на старте такие широкие темы мы не рекомендуем.

    Лучше и быстрее заработать авторитет и доверие со стороны ПС в небольшой нише, что позволит в дальнейшем расширять проект.

  • Неестественные даты (частота) публикаций

    В течение 5 минут на сайт заливается 5-7 статей, и это еще хороший вариант. Встречали ситуации, когда в один момент заливается 15-20 публикаций или делается месячный план. Возможно, это удобно для вебмастера, но вряд ли выглядит естественно и удобно для пользователей.

    Распределяйте материалы равномерно, чтобы поддерживать интерес к проекту.

    Указывайте дату публикации, это важная информация для посетителей, и ее отсутствие может снижать оценку качества материалов.

    Если вы опасаетесь, что материалы в вашей тематике могут устаревать и это негативно скажется на ранжировании, то сигнализировать алгоритмам, что статья остаётся по-прежнему актуальной, могут свежие комментарии. Для наиболее интересных материалов можно делать дополнения и публиковать дату обновления материалов.

  • Неестественные даты публикаций комментариев и отзывов

    Активное участие пользователей в обсуждении важно для поведенческих факторов, а сами комментарии – это уникальный пользовательский контент и дополнительные НЧ-запросы, полагаю, это очевидно. Большинство вебмастеров прекрасно понимают это и заботятся о том, чтобы комментарии под статьями были.

    Здесь ситуация аналогичная с датами публикаций. Встречаются проекты, на которых владельцы, стараясь создать видимость активности пользователей, заливают за минуту 3-5 комментариев. В таких комментариях псевдопосетители успевают обсудить статью, поделиться своими мыслями. Других комментариев после таких «взрывов активности» часто нет. Говорить о том, что дата таких комментариев явно свидетельствует о неестественности, тоже не приходится.

    Удручающе выглядят и вопросы пользователей, которые могут висеть по несколько лет без ответа автора.

    Если вы все-таки готовите отзывы сами, например, чтобы стимулировать читателей, то следите, чтобы даты выглядели естественно.

    И, конечно же, не забывайте отвечать на вопросы читателей.

  • Нет информации об авторе

    Если вы тратите свое время на анализ или сбор информации, пишете на тему, в которой считаете себя специалистом, вкладываетесь в материал, то захотите, чтобы под ним стояла ваша подпись. Это важно как для авторитета автора, так и для читателей, чтобы понимать, можно ли доверять его мнению. Особенно это важно, если речь идет о темах, связанных со здоровьем, финансовыми рисками или безопасностью людей. Доверия к безымянным материалам в таких случаях не будет.

    Указывайте информацию об авторе, даже если все материалы для проекта готовят 1-2 постоянных специалиста.

    Пользователь, перешедший на конкретный документ из выдачи, не знает этого, и такая информация может быть для него полезна.

  • Нет служебных и информационных страниц

    На самом сайте должны быть размещены данные о проекте и его создателях. Большинству пользователей «О компании», «Правила проекта» и тому подобные страницы не интересны. Но наличие таких разделов на сайте сигнализирует о том, что владельцы проекта открыты для контакта, готовы предоставить информацию о себе и проекте.

    Не следует забывать и о служебных страницах. На сайте это могут быть страницы «Рекламодателям», «Как стать нашим автором», «Новости проекта» – все зависит от тематики и специфики сайта. Наличие таких страниц показывает, что проект нацелен на развитие, открыт к сотрудничеству. Владельцы проектов, попавших под санкции, часто забывают об этом, и проект, кроме статей и их списков, содержит минимум полезной информации.

    Подумайте, какая дополнительная информация о проекте может понадобиться посетителям, посмотрите, что реализовано у конкурентов, и добавьте необходимую информацию на свой сайт.

  • Еще 6 ошибок, мешающих жить „сайту для заработка“

  • Нет обратной связи

    Если проект рассчитан на людей, то должна быть предусмотрена и обратная связь Понятно, что далеко не для всех проектов подходит публикация телефона или адреса.

    Но e-mail, форму обратной связи, icq, skype, ссылку на соц. аккаунты желательно разместить.

    Наиболее популярный канал для контакта с посетителями можно продублировать в шаблоне, чтобы он был на всех страницах сайта. Не стоит забывать и про ответы пользователям в комментариях.

  • Отсутствуют другие источники трафика

    Проекты рассчитаны на монетизацию поискового трафика, и он на них преобладает – это понятно. Но желательно, чтобы были и другие источники (переходы по ссылкам, прямые заходы, соц. сети). Отсутствие таких источников в статистике может сигнализировать алгоритму, что с сайтом не все в порядке. Очевидно, что без интересного контента вы не заставите пользователей возвращаться на сайт или упоминать его.

    Но есть моменты, которые забывают и посещаемые проекты с хорошим полезным контентом:

  • — разместите кнопки «Поделиться» популярных соц. сетей;
  • — предложите добавить страницу в закладки;
  • — настройте в комментариях отправку уведомления на почту после ответа на вопрос.
  • Не учитываются поведенческие факторы

    Пользователи просматривают не более одной страницы сайта, возвращаются в поиск, проводят мало времени на сайте, не делают повторных заходов. Все это – явные сигналы, что пользователь не находит ответа на свой запрос, соответственно, страницы не релевантны.

    Например, показатель отказов на уровне 50% – это явный сигнал бить тревогу:

    Нужно заботиться не только о том, чтоб загнать страницу в ТОП и получить переход, но и стараться удержать посетителя на сайте.

    Например:

  • если у вас объемная публикация, ее можно разбить на несколько страниц;
  • более популярный контент (анализируем карту кликов) размещаем так, чтобы пользователь не должен был искать его на странице;
  • ссылки на другие дополняющие публикации размещаем не за 2 минуты, во время публикации, а планируем, давая задание копирайтеру. Тогда они будут естественно включены в текст и вероятнее заинтересуют посетителей.
  • Отсутствие добавочной ценности

    Что такое добавочная ценность сайта? Если кратко, то это то, что отличает проект от конкурентов, выделает его на фоне десятка или сотни аналогичных сайтов. Далеко не всегда это должна быть уникальная информация. Это может быть и удачная подборка, удобная структура документа, анализ информации с других источников, оригинальная подача информации, удобный тематический сервис. Для конкурентных тематик наличие добавочной ценности, своей изюминки, часто принципиально важно, чтобы удерживаться в ТОПе.

    Про добавочную ценность можно писать отдельную статью. Поэтому дам ссылку на пост Елены Камской, где подробно рассмотрено, что это такое и где ее взять: http://optimizatorsha.ru/master-classes/smyslovaya-unikalnost/

  • Навязчивая реклама на сайте

    Сколько можно разместить рекламных блоков, где их лучше размещать, чтобы не последовали санкции, но было больше кликов? Каждая ситуация индивидуальна, и одного ответа тут быть не может. Яндекс по этому поводу предлагает только общие рекомендации.

    Если проект резко потерял переходы, то обратить внимание следует и на этот момент.

    Учитывайте не только количество блоков, но и:

  • — количество полезной информации и рекламы в первом экране;
  • — не является ли реклама агрессивной и не мешает ли просмотру основного контента;
  • — молодым проектам (до года) с рекламой следует быть более аккуратными.
  • Отсутствие навигации

    Если у вас несколько сотен статей, а нормальной группировки, хлебных крошек, меню, тегирования, поиска по сайту не предусмотрено, то навигации на сайте нет. Для инфоресурсов, попавших под санкции, это частая проблема. Вряд ли много людей станет листать список всех статей и искать нужный материал. Владельцы в этих случаях рассматривают как точку входа сами статьи.

    Да, это обычно ключевые точки входа. Но авторитетный проект – это и постоянная аудитория, и посетители, которым понравилась статья, и они решили посмотреть другие разделы. Отсутствие навигации сигнализирует, что об удобстве посетителей не позаботились. Однозначный минус проекту.

    Поставьте себя на место пользователя или попросите взглянуть на сайт знакомых и посмотрите, насколько легко можно найти нужную информацию.

    Если проблемы с навигацией есть, их, конечно же, нужно устранить. Не страшно, если найти статью можно разными путями. Кто-то воспользуется меню и категориями, кто-то – тегами, кто-то – поиском по сайту. Поведенческие факторы и удобство проекта от этого только выиграют.

  • В качестве заключения

    Основная ценность, за которой приходят пользователи, – контент. И если вы сами понимаете, что название «ГС» для проекта подходит, то устранение перечисленных проблем «конфетку» из него не сделают.

    Все эти ошибки относятся, в основном, к оформлению публикаций и сайта в целом. Они могут повлиять на ранжирование или сигнализировать алгоритмам, что сайт заслуживает санкций, но низкое качество контента устранение этих ошибок, конечно же, не компенсирует. Поэтому следите за качеством своих сайтов и зарабатывайте на них так, чтобы они не попали под санкции Яндекса.

    P.S. Если вы хотите безопасно зарабатывать на партнерской программе – мы предлагаем сотрудничать с нами.

    Если сайт ваших знакомых (клиентов, коллег) попал под фильтр или у него есть проблемы с позициями, посещаемостью, конверсией и т.д. – порекомендуйте обратиться за помощью к нам. За нового клиента мы перечислим вам 10% от стоимости его заказа.

    Вывод сайта из под фильтра Google Пингвин — пошаговое руководство

    Сегодня речь пойдет про самые основные и распространенные фильтры. А именно:

  • Ручной фильтр Google за искусственные входящие ссылки
  • Автоматический фильтр Google за обратные ссылки
  • Все они так или иначе относятся к алгоритму под названием Google Penguin, который вступил в силу более года назад и уже успел наделать много шума.

    Симптомы такого фильтра

  • обвал позиций
  • резкий спад посещаемости сайта
  • На практике это выгладит таким образом:

    Не совсем приятная ситуация. Особенно когда в большинстве случаев ваш основной источник привлечения посетителей поисковый трафик.

    А теперь рассмотрим детально для каждого типа фильтра за обратные ссылки.

    Ручной фильтр Google за искусственные входящие ссылки

    Зачастую все начинается с того, что приходит сообщение в панели для Вебмастеров Google. Выглядит оно так:

    В уведомлении сообщение такого характера:

    Сообщения бывают разные, например:

    Чтобы найти сообщения о ручном фильтре, для этого:

    После того, как приходит уведомление об искусственных входящих ссылках, обычно такие последствия:

    А) В течении 2-3 недель позиции сильно падают, после чего пропадает посещаемость из поиска Google

    Б) Сразу вылетают позиции и посещаемость падает

    Причины ручного фильтра Google

    Основной сигнал, из-за которого приходит такое уведомление – это анкор ссылки и его переспам.

    На заметку: анкор ссылки сильно влияет на ранжирование сайта в Google, но и в тоже время является самым сильным сигналом для алгоритма Google Penguin.

    Основные сигналы:

  • анкор ссылки
  • качество ссылок
  • динамика
  • Как выглядит спамный анкор лист обратных ссылок?

    Это очень частый вопрос, и лучше просто привести пример:

    В примере, текст обратных ссылок на один из сайтов, который затронул фильтр. Основная причина фильтра – переспам анкором.

    То есть сайт сразу выходит в топ, но далее получает уведомление и падает в поиске по всем ключевым словам.

    Еще пример:

    Если посмотреть по уникальным доменам, то получается такая картина:

    Использование обратных ссылок с коммерческими или другими ключевыми словами приводит к ручному фильтру, потери позиций и посещаемость.

    Что же тогда делать и как быть?

    Решение предельно простое – не использовать большой процент ссылок с ключевыми словами.

    Google постоянно борется с покупными ссылками, и в конечном результате страдают даже очень крупные мировые бренды. Например недавняя история с Expedia.com. (http://www.searchengines.ru/news/archives/expedia_poterya.html.)

    Пошаговая инструкция по снятию ручного фильтра Google

  • Уведомление в Google
    Проверяем, есть ли уведомление в Google Webmaster Tools. Если есть, то переходим к следующему пункту.
  • Запрос на пересмотр
    В первом запросе на пересмотр важно уточнить какие именно ссылки нарушают правила поиска, и спросить, что необходимо сделать для снятия ручных санкций.
  • Получаем ответ

    В большинстве случаев в ответе указывают те ссылки, по мнению которых сайт нарушает правила поиска. Например:

    В итоге мы можем определить на какие именно ссылок обращает внимание Google и считает их спамными.

    В нашем случае это были арендованные ссылки, что довольно таки просто снять.

  • Производим указанные действия

    Дальнейшие действия сильно зависят от вашего ссылочного профиля.

    Ситуация 1

    На ваш сайт стоит большое количество арендованных ссылок, и в большинстве случаев это прямые анкоры, в которых содержаться ключевые слова.

    В таком случае – необходимо:

  • почистить ссылки с анкорами (в том числе те, которые есть в примере Гугл)
  • переходить к следующем пункту – новый запрос на пересмотр
  • Если действительно убрать большую часть таких ссылок, то ручной фильтр можно снять с одного – двух запросов.

    Ситуация 2

    Вы на сайт размещали только вечные ссылки. В большей части которых содержится прямой анкор.

    Но снять такие ссылки практически невозможно, или очень очень долго.

    В там случае – необходимо:

  • просмотреть все обратные ссылки (можно с помощью сервисов проверки обратных ссылок, например: Ahrefs, MajesticSeo, LinkPad)
  • составить список ссылок, которые нежелательные (основные критерии: анкор, низкое качество сайта)
  • добавить ссылки в Disawov Tool — https://www.google.com/webmasters/tools/disavow-links-main?/
  • подождать 1-2 недели (из практики необходимо для того, чтобы ссылки пере индексировались)
  • Далее переходим к следующему пункту и отправляем запрос на пересмотр.

  • Отправляем новый запрос на пересмотр

    В запросе на пересмотр необходимо:

  • четко описать что вы сделали
  • просто и понятно
  • и уточнить, что еще необходимо сделать для снятия фильтра
  • Дальше отправляем запрос на пересмотр.

    После чего, необходимо немного времени для пересмотра вашего сайта. Это может занять от пару дней до 3-4 недель.

  • Промежуточный ответ

    В промежуточном ответе обычно содержание такого характера:

    Это уведомление от Google приходит практически сразу после отправки запроса на пересмотр.

  • Ждем решения

    Ответ приходит обычно в течении 1-2 недель, иногда дольше, а иногда быстрее.

    В нем либо негативный ответ, например:

    Если ответ негативный, то:

  • заново пересматриваем ссылки
  • добавляем в Google Disawov
  • или просто снимаем ссылки
  • в любом случае нужно сделать действия
  • отправляем новый запрос на пересмотр
  • Но ответ после выше проделанных действий может быть и позитивный, например:

    В этом случае – поздравляю вас! Ручной фильтр Google снят.

    В нашем примере – был не быстрый способ вывода сайта из под ручного фильтра Google, вот так выглядит хронология событий:

    Важные моменты при самостоятельно снятии фильтра:

  • не сдаваться
  • делать действия (а не просто слать запросы на пересмотр)
  • если сделать все, как выше описано, то ручной фильтр от Гугл снимется, вы вернете позиции и трафик
  • Вот информация, которая дополнит данный материал и поможет вам успешно снять фильтр:

  • Кейс — снятие ручного фильтра Google на сайте форекс тематики под США
  • Кейс — как снять ручные санкции Google с помощью Disavow Tool, вернуть позиции и посещаемость
  • Кейс — как снять ручные санкции Google, вернуть позиции и трафик
  • В ручном фильтре нет ничего страшного, самое главное не поленится и сделать ряд действий, который приведет к нужному результату.

    Как результат – это возвращение посещаемости на прежний уровень, например:

    В данном примере рассмотрены пару сайтов, фильтры с которых снимались в разное время.

    По времени снятия фильтра:

  • рекорд за 4 дня
  • самый долгий срок 3.5 месяца
  • Но в любом случае нужно действовать оперативно, а так же учитывать выше описанные моменты.

    Автоматический фильтр за обратные ссылки

    С автоматическим фильтром от Google – все на порядок сложнее. Так как о нем не приходит сообщение.

    Важно: автоматические санкции могут сняться при официальном обновлении алгоритма Google Penguin, которое в среднем происходит раз в 2-4 месяца.

    Чтобы вы не делали, до обновления алгоритма – ничего не изменится, если это автоматические санкции.

    Мы не раз снимали автоматический фильтр, но не всегда все происходит быстро.

    Признаки фильтра

    Все тоже самое, как и с ручным, только не приходит никакого уведомления.

    Обычно:

  • позиции сначала проседают в – 30-50
  • падает трафик на сайт
  • И потом долгое время не возвращается.

    Основные причины:

  • Прямое вхождение анкора ссылки
  • Некачественные обратные ссылки
  • Пошаговое руководство по снятию автоматического фильтра

    В данном случае в отличии от ручного все на порядок дольше, и сложнее.

  • Просмотр ссылочного профиля

    Нужно тщательно просмотреть ссылочный профиль. Выявить:

  • качественные сайты
  • сайты на которых прямой анкор ссылки
  • спамные сайты
  • Критерий качественного сайта:

  • тематика сайта
  • посещаемость сайта
  • уникальность контента
  • индексация сайта
  • обновление сайта
  • обратные ссылки на сайт донор (чтобы был более менее естественный ссылочный профиль)
  • динамика роста ссылок
  • Это самые базовые моменты, на которые как минимум стоит обратить внимание.

  • Замена анкоров ссылок

    Есть 2 варианта замены анкора:

    А) Попросить вебмастеров поменять на безанкорную ссылку

    Довольно таки долгий процесс, но имеет право на жизнь.

    Б) Усилить ссылочный профиль сайта – новыми безанкорными ссылками

    Статья как дополнение: Правильное безанкорное продвижение сайта, инфографика и список естественных анкоров на русском

  • Динамика

    В большинстве случаев просто нужно продолжать добывать обратные ссылки на сайт, но с учетом того, что нужно сильно разбавить анкор лист.

    Вот так выглядит нормальная динамика:

  • Качество ссылочных доноров

    В данном случае необходимо не класть все яйца в одну корзину, а использовать разные источники ссылок.

    Например:


  • контекстные ссылки

  • ссылки в статях

  • ссылки с форумов

  • ссылки из социальных сетей

  • социальные закладки

  • качественные каталоги

  • комментарии в блогах

  • ссылки из блогов

  • ссылки со СМИ сайтов
  • Чем более разносторонний у вас будет ссылочный профиль, тем быстрее это повлияет на снятие с сайта автоматических санкций.

  • Время

    В нашем случае время лечит. Нужно работать над сайтом, разбавлять анкор лист, работать над низко частотными запросами и сайтом в целом и ждать.

    У нас есть пример, когда с сайта снимали фильтр спустя 4 месяца работы над ним. Как результат – самые топовые высокочастотные запросы вылезли в топ.

    Важно: Если у вас точно автоматический фильтр за обратные ссылки, то есть фильтр Google Penguin. То не стоит ожидать быстрых результатов.

    В нашей практике быстрых результатов не было для белых проектов, и обычно это занимает от 2-3 месяцев и более.

  • В заключение про фильтр Google Penguin

    Алгоритм был запущен в 2012 году и постоянно дорабатывается. Его основной задачей является – борьба со спамом и искусственным манипулированием результатов поиска.

    Чтобы не попасть под фильтр, необходимо:

  • не использовать прямой анкор лист сильно заметно, или не использовать вовсе
  • привлекать качественные ссылки на сайт
  • стараться делать акцент на продукте и его качестве, чтобы получать естественные ссылки (да, это можно делать даже в реалиях рунета)
  • соблюдать динамику – Google любит постоянную динамику
  • Тогда у вас не возникнет вопросов с фильтрами и ваш трафик будет постоянно расти. Естественно если вы будете работать над:

  • контентом сайта
  • привлечением естественных ссылок (не покупных)
  • Даже если вы уже наступили на грабли и получили санкции со стороны Google, то не стоит разочаровываться – решение всегда есть.

    Я надеюсь, что данное пошаговое руководство поможет решить вашу проблему – вернуть позиции и посещаемость из поисковой системы Google.

    Важно: в статье рассмотрены только фильтры, связанные с алгоритмом Google Penguin и обратными ссылками.

    Если у вас резко упали позиции и посещаемость, то причина может быть вовсе не в ссылках, а например, в контенте. За это отвечает алгоритм Google Панда.

    Disavow links или как определить под каким фильтром Гугла (Панда или Пингвин) находится сайт

    В этом посте я хочу чуть-чуть порассуждать о том, что у меня сейчас крутится в голове. В основном все мысли заняты проблемой выхода из-под фильтров Яндекса и Гугла, под которые меня угораздило угодить за последние полтора года. По приведенной ссылке вы найдете статью, где я описываю сложившуюся ситуацию, включая переписку с техподдержкой зеркала рунета.

    За прошедшие с момента выхода той публикации четыре с половиной месяца, я по очереди (начиная с первых постов за 2009 год) вычитывал и вносил правки (убрал возможный спам любыми словами, а так же обуздал внутреннюю перелинковку до вменяемых пределов) в 360 своих статей из 411 существующих на данный момент. Несколько десятков из них были полностью переписаны, во многих десятках обновлены скриншоты, внесены исправления, дополнения и т.д.

    В общем, делал все, что мог, не покладая рук. Проявилась за это время чудовищная работоспособность (по 12 часов в сутки пахал и от 2 до 6 статей умудрялся за это время окучивать). Появились и первые положительные результаты в плане улучшившихся позиций и увеличившейся посещаемости с Яндекса и Google.

    Послабление фильтров с Яндекса и Гугла

    Как я уже упоминал, работоспособность сейчас имеет место быть просто феноменальная и было бы здорово ее приложить еще к чему-то полезному и перспективному, ибо статей для переделки осталось уже не много, да и спама в них уже не найти, разве что только мелочи разные подправляю.

    Ребят, сразу извиняюсь, что далее буду использовать нетолерантное „трафик“, а не количество посетителей с такой-то поисковой системы, ибо так реально проще и доступнее получается (меньше слов, а больше смысла). Ничего личного, только бизнес. Спасибо.

    25 сентября я обнаружил, что получаю с Яндекса трафика в два-три раза больше, чем обычно в последнее время.

    На общей картине посещаемости это отразилось примерно так:

    Во-первых, это было несколько неожиданно, ибо как раз к этому времени я полностью смирился со сложившейся плачевной ситуацией и просто продолжал пахать без особых претензий на результат. Причем, еще летом я порой готов был рвать и метать из-за бессилия чего-то изменить в лучшую сторону, а тут полностью перестал дергаться.

    Во-вторых, не имея опыта выхода из под фильтров, не знаю что и думать о будущих перспективах. Трафик по Яндексу вернулся не весь и я себя успокаиваю тем, что и падал он не сразу, а в течении нескольких апов.

    Мне кажется, что апдейты Яндекса не являют всеобъемлющими, т.е. не захватывают всего объема корпуса запросов, а окучивают их планомерно от апа к апу. Ну, время покажет. Я сейчас вообще ни в чем не уверен и если все бахнется обратно, то, наверное, даже не удивлюсь.

    С другой стороны, если судить по отзывам на популярный форумах сео тематики, то у многих трафик возвращался сразу и в полном объеме. Тут возможны нюансы, ибо могли при этом быть всего десяток трафикогенерирующих запросов и им ничего не стоило апнуться всем сразу. Опять же, это мои домыслы.

    Кстати, я так еще и не спросил у Платона Щукина — „а был ли мальчик?“ Ну, в смысле, а состоялся ли выход из под фильтра. Ибо может быть всякое.

    Что приятно, на рост трафика с Яндекса откликнулся и Гугл, хотя и с небольшой задержкой. Когда я угодил под фильтр зеркала рунета, то Google тоже откликнулся, но с чуть большим лагом:

    Вот и гадай теперь, то ли апдейты гугловских панды или пингвина совпали так с Яндексом, то ли рост трафика с одной поисковой системы привел к изменению отношения другой. Опять же никаких соображений на этот счет у меня нет. А у вас?

    Вот, кстати, наглядная демонстрацию того, что происходило с трафиком с Гугла за последние два с половиной года:

    Панда и Пингвин — ссылки в Google стали влиять негативно

    Давайте я вкратце поясню, что это за звери такие (панда и пингвин), если кто-то не знает, и зачем это Disavow надо. Ну, и заодно станет понятно, почему до весны 2012 оптимизаторы ругались и бранили исключительно Яндекс, а Гугл считали этаким дурачком, которому какую ссылку не сунь, он все ее в плюс для сайта обращает.

    Сейчас же на форумах бранят исключительно Google и их политику „жадности“, а про Яндекс все большее хорошее говорят, ну, или просто молчат. Тут все дело заключается в резкой смене политики, которая по рунету ударила особенно сильно, ибо в буржунете гайки были затянуты посильнее и ссылочное там наращивали еще тогда аккуратно и в меру.

    А у нас рулила и, как не странно, продолжает рулить Сапа. Ее столько раз хоронили, что и не сосчитать, а она живее всех живых. В основном, конечно же, это обусловлено главенствующим положением Яндекса в рунете. Коммерческие запросы пользователи вводят по большей части там, а Google в основном окучивает информационные.

    Продвигаться ссылками с Сапы под Гугл будет становиться со временем все сложнее и сложнее, ибо эта поисковая система реально наказывает за плохие (спамные, покупные) ссылки (тот самый пресловутый Пингвин). Яндекс же их просто не учитывает (если обнаружит, конечно же).

    Произошло то, что по словам SEO оптимизатора не могло произойти никогда — обратные ссылки в ряде случаев стали злом. Раньше они имели только два возможных эффекта влияния на продвижение: либо положительное, либо никакое. Примерно так дело сейчас и обстоит в нашем отечественном поисковике.

    Google же пошел дальше, добавив еще один эффект влияния на продвижение: отрицательный. Оптимизаторы говорили, что этого не могло случиться потому, что после этого начнется хаос и конкуренты начнут топить друг друга, покупая тоннами спамные дешевые ссылки на сайты друг друга.

    Гугл это не испугало. Определенно есть доля истины в высказываниях тех, кто говорит, что рожденный хаос и чехарда в выдачах преследует только одну цель — заставить потенциальных клиентов отказаться от ничего не гарантирующего Сео и вливать деньги исключительно в Адвордс.

    Но формально к Google придраться очень сложно, ибо хитрые ребята из этой мега корпорации предоставили всем желающим возможность убрать негативное влияние спамных ссылок с помощью инструмента Disavow links. Вас топят конкуренты? Проставили 10 000 ссылок с ГС? Не беда.

    Найдите все эти плохие бэклинки, сформируйте из них текстовый файлик и сообщите о нем Google через форму Disavow links. Не пройдет и двух недель (двух месяцев или года) и все попытки вас утопить будут нивелированы. Не беда, что полгода или год вы не будет получать трафика (иметь продаж), в конце концов справедливость восторжествует.

    А какие ссылки считать спамными? Какие критерии брать в рассмотрение? Как быть владельцу мелкого магазинчика, у которого нет Сео специалиста? Наверное, многие из тех, кто задается этим вопросом, через некоторое время понесут свои денежки в Адвордс, ибо там есть гарантия получения трафика. Что и требовалось доказать.

    Нам же с вам в Адвордс нельзя, ибо большинство информационных проектов как раз и зарабатывает там, а точнее в его оборотной стороне под название Адсенс. Нам нужно решать эту задачку с Disavow links. Или хотя бы четко для себя определить, что этого не требуется. А как это сделать?

    Как мне кажется, при возникновении проблем с гугл-трафиком, нужно попробовать как-то понять, под какой именно фильтр влетел ваш сайт, ибо это определит дальнейшую стратегию выхода из-под него.

    Я довольно много читал и про Панду и про Пингвина, но думаю, что провести между ними реальную грань и дать их четкое определение могут только разработчики. Где-то они пересекаются, но в основном можно, наверное, считать, что:

  • Пингвин наказывает за спамные ссылки, т.е. за внешние факторы чрезмерной поисковой оптимизации
  • Панда наказывает за спамные тексты, внутреннюю линковку и накрутку поведенческих. Т.е. огрубляя — за то, что вы делаете сами на своем проекте.
  • Оба этих фильтра накладываются и снимаются только автоматически — пингвин в свои апдейты, а Панда в свои (правда, последнее время она уже не имеет ярко выраженных апов для всех сайтов). Писать в техподдержку Google бесполезно и подавать на пересмотр тоже.

    Но есть еще и меры применяемые к сайту вручную (например, по стуку конкурентов) и от них тоже зачастую можно избавиться с помощью Disavow links. После этого нужно будет подать сайт на пересмотр в панели инструментов Гугла («Поисковый трафик» — «Меры принятые вручную»)

  • Панда появилась чуть раньше, но по большому счету точкой отсчета для них обоих можно назвать 2012 год. Оба этих фильтра имели в свое время четкие даты обновлений, что позволило оптимизаторам косвенно судить о том, за что получил пенальти тот или иной сайт (ориентируясь на дату, когда начал падать трафик).

    Чтобы не попасть под эти фильтры оптимизаторы пересмотрели уже довольно давно политику продвижения сайтов. Анкоры ссылок с прямыми вхождениями стараются использовать ограничено, все больше становятся популярными разбавленные вхождения или же вообще безанкорные ссылки.

    Так же в безанкорных используются и слова „тут“, „здесь“, „сюда“. Иногда даже размещают неактивные бэклинки, т.е. те, по которым нельзя кликнуть и совершить. Даже с прописанным внутри атрибутом rel=»nofollow» покупают, ибо в естественном ссылочном профиле такие ссылки обязательно присутствует.

    Многие ссылочные биржи сейчас перестраиваются под такие потребности. Например, Сапа, или все та же биржа статей WebArtex, недавно обновила свой ссылочный ассортимент, о чем я упоминал в этой публикации.

    Кстати, загнать по фильтр можно не только тонной ссылок с ГС (у меня в начале этой весны наблюдался чудовищный всплеск ссылочного в несколько тысяч бэков и не к одному из них я причастен не был). Могут пытаться играть и на поведенческом, т.е. ухудшать метрики как поведения пользователей в выдаче, так и на сайте.

    Например, все той же весной у меня появился тысячный трафик с каких-то сайтов анекдотов, приколов и прочей ерунды, которые ничем иным, как ГС, и назвать-то было трудно. Что это было — не понятно. Например, при переходе к чтению очередного анекдота пользователь попадал на мою страницу 404 и не знал, что ему делать. Пришлось даже свою страничку 404 переделать под таких посетителей, чтобы хоть чуток снизить показатель их отказов.

    Пингвин до сих пор придерживается принципа общего обновления алгоритма фильтрации и можно четко отследить (если этим заморочиться) все его апдейты. Сейчас, кстати, похоже идет его очередное обновление до версии 2.1, что подтверждают соответствующие ветки на Сео форумах.

    Как определить под каким фильтром Google находится сайт — под Пандой или под Пингвином

    Кстати, именно такой способ предлагает использовать буржуйский онлайн ресурс Barracuda, а именно его продукт под названием Panguin Tool.

    Panguin Tool

    Проблема в том, что этому сервису нужно будет предоставить доступ к статистике вашего счетчика Гугл Аналитикс, а он уже наложит на выдранный из него график точные даты апдейтов Панды и Пингвина, чтобы понять что именно из этого дуэта подкосило ваш ресурс.

    По началу я подумал, что у меня есть по крайней мере две причины этого не делать:

  • Во-первых, у меня Аналитикс еще и года не стоит, ибо раньше меня полностью устраивала статистика собираемая Метрикой от Яндекса, ну, и ЛИ счетчик тоже вполне себе информативный.
  • Во-вторых, на том же аккаунте в Google у меня висит и Адсенс, а это же деньги, которые никому не стоит доверять. Но чуть погодя я вспомнил, что Аналитикс, равно как и Метрика, имеет возможность создания гостевых аккаунтов, чем я и попробовал воспользоваться.
  • В общем, я зашел в своем основном аккаунте Аналитикса в администрирование и делегировал права на просмотр и анализ статистики другому своему аку в Гугле, к которому вообще ничего такого не привязано.

    Как делегировать права на просмотр статистики Гугл Аналитикса

    После этого в том браузере, где я уже был авторизован под этим не слишком важным аккаунтом, перешел по ссылке «Log-in to Analytics» со страницы Panguin Tool и меня попросили подтвердить мое желание предоставить этому приложению данные по статистике из Аналитикса.

    Баракуда просит доступ к данным Гугл Аналитикса

    Я не возражал. После этого меня попросили выбрать конкретный счетчик.

    Выбираем аккаунт Гугл Аналитикса

    Ну, и в конце концов предоставили желаемый график с датами релизов Панды и Пингвина, но, как упоминал чуть выше, счетчик этот у меня стоит не так давно и начало 2012 года он не захватил.

    Сопоставление дат апдейтов фильтров Гугла и трафика на сайте

    Поэтому определить, какой именно фильтр наложил Гугл на мой сайт, таким образом не удалось. К тому же, в конце весны и начале лета этого года я вообще снимал код Аналитикса по не понятным мне сейчас причинам. То снижение трафика с Google, которое имело место быть весной этого же года, вроде бы ни с Пандой, ни с Пингвином не коррелируются.

    Но, возможно, вам повезет больше. На графике и в приведенных ниже таблицах еще можно посмотреть статистику по приземляющим страницам и по ключевым словам, с которых шел трафик.

    Второй способ определиться с тем, какой именно зверь вас покусал, это посмотреть на косвенные признаки (отпечатки зубов). Например, считается, что при попадании под Пингвин у вас просядут позиции только по отдельным запросам, целевые страницы которых окажутся заспамленны плохими входящими ссылками.

    При Панде же, скорее всего, будет общее проседание трафика, как будто бы у вас уменьшился траст сайта, хотя о самой уместности употребления этого термина ведутся споры. У меня ситуация в этом плане больше похожа на второй вариант.

    Disavow links — как сообщить Гуглу о плохих ссылках на сайт

    Если это была Панда, то остается только ждать и надеяться, а если это был все же страшный Пингвин, то имеет смысл заморачиваться и озаботиться подготовкой списка для Disavow links. Начало этой процедуры практически при любом сценарии ее дальнейшего развития будет заключаться в том, чтобы выгрузить из Гугл Вебмастера все обратные ссылки на ваш сайт, которые данная поисковая система знает и которыми готова с вами поделиться.

    Делается это на вкладке «Поисковый трафик» — «Ссылки на ваш сайт». Над приведенным списком у вас будет три кнопки, которые позволят выгрузить все найденные в Google бэки. Мне больше всего нравится последний вариант, ибо там будет иметь место сортировка по дате появления беклинков.

    Выгрузка из Вебмастера внешних ссылок ведущих на сайт

    Однако, тут будет приведена информация только по 1000 доменам, с которых проставлено на ваш сайт больше всего беклинков. Судя по различным сервисам анализа беков, на мой блог проставлены ссылки с трех тысяч доменов и их общее число больше доступных в Гугле тридцати тысяч.

    Но не суть. Давайте представим, что я пробежался по этим Урлам и с высокой долей вероятности выявил те странички или даже целые домены, которым не место в моем ссылочном профиле. Теперь остается только оформить все это богатство в один файл с расширение txt и любым удобным вам названием.

    При составлении файла для Disavow links необходимо будет придерживаться простых правил:

  • Урл каждой новой страницы или домен пишутся на отдельной строке: http://plohoysite.ru/plohaystranichka.html
  • Домен оформляется по следующему принципу: domain:plohoysite.com
  • Можно добавлять комментарии, но перед ними обязательно должна стоять решетка (# — хеш)
  • Правила вставки урлов и доменов в список на отклонение ссылок в Гугле

    Как только список подготовите, то переходите на страницу Disavow links (прямого пути из интерфейса Google вебмастера я не нашел, видимо боятся, что будут использовать этот инструмент не обдумано):

    Где находится инструмент отклонения ссылок в инструментах для вебмастеров Гугла

    Выбираете из списка нужный вам сайт и жмете на кнопку «Отклонение ссылок». Вас предупредят о возможных отрицательных последствиях сего действа, хотя я, вроде бы еще не встречал подобных отзывов на форумах, но возможно что те, кто добавлял сюда свои списки, уже не имели трафика с Гугла, а уйти в минус, как известно, не возможно.

    Кнопка Отклонение ссылок

    Кстати, лично меня эта надпись настораживает, ибо не хотелось бы необдуманными действия усугубить, а не улучшить сложившуюся ситуацию. Ну, а если вы все же решитесь на эксперимент, то на следующей странице вам предложат загрузить с компьютера подготовленный файл с Disavow links и отправить его Гуглу на рассмотрение.

    Загружаем файл с ссылками и доменами, которые хотим отклонить

    Но проставить в столбик отобранные URL адреса или домены — это самое простое. А вот самое сложно как раз и состоит в отсеивании этих самых спамных и плохих обратных ссылок, чтобы потом попросить Google их не учитывать.

    Положение усугубляется еще и тем, что нет однозначного мнения о пользе этого действа, даже если вы точно знаете, что ваш сайт пострадал от Пингвина или на него были наложены ручные санкции. Мнения специалистов разделились. Например, Девака ради дела даже добавил в Disavow links все до единого беки на свой блог, но результата не увидел, хотя именно он склоняется к полезности этого инструмента, как ни странно.

    Кстати, при наложении ручных санкций ситуация с выходом из-под фильтра может быть даже более простой, а точнее более быстрой. Фильтры наложенные вручную сейчас можно увидеть в Гугл Вебмастере на вкладке «Поисковый трафик» — «Меры принятые вручную».

    Как отбирать плохие обратные ссылки для добавления в Disavow links

    В случае же Пингвина и удачного удаления спамных ссылок результата придется ждать довольно долго — до следующего апдейта этого алгоритма. Возможно, что это будет занимать месяцы, а возможно что и год. Вы по-прежнему хотите попробовать Disavow links? Ну, что же, тогда я поделюсь с вами теми моментами, которые я почерпнул при поиске способа создания этого списка.

    Делать это вручную у меня не получилось не из-за огромного количества монотонной работы, а из-за того, что я не обладаю должной интуицией, чтобы по внешнему виду и тем небольшим статистическим данным, которые собирают Сео расширения для моего Гугл Хрома, делать выводы о добавлении данной страницы или всего домена в список неблагонадежных.

    Тут однозначно нужна автоматизация, которая должна четко отделить зерна от плевел и ни в коем случае не «выплеснуть вместе с водой и ребенка». Очевидно, что нужны какие-то сервисы, которые кроме того, что смогут собрать всю ссылочную массу ведущую на ваш сайт, способны были бы еще и вынести оценку качества для каждого из доноров.

    Такие сервисы есть и многие вебмастера, а уж тем более оптимизаторы, их знают. Другое дело, что за анализ большого количества бэков в этих сервисах придется заплатить и очень даже не малое количество денег. Причем, если вы профессионально используете подобные ресурсы каждый день, то деньги окупятся сторицей, но для нашей задачи это будет расточительством, как мне кажется.

    На серче проскакивала публикация, где представитель одной из крупных SEO контор делился своим опытом подбора кандидатов для списка Disavow links. Он предложил использовать три ссылочных сервиса: буржуйский от Moz под названием Open Site Explorer, а так же отечественные Solomono (Линкпад) и Ahrefs.

    Как я понял, мне нужно месяц ни есть и не пить, чтобы оплатить проверку моих нескольких десятков тысяч беклинков и выгрузить все данные по ним для дальнейшего анализа и обработки. Конечно же, крупная Сео контора всеми этими платными пакетами и так обладает, ибо они полностью окупаются при постоянной работе с десятками, а то и сотнями проектов заказчиков.

    Но метод его довольно-таки убедителен. Товарищ предлагает выгрузить из Open Site Explorer, Solomono и Ahrefs показатели качества доноров. Они называются Domain Authority, iGood и Ahrefs Domain Rank, соответственно.

    Затем свести все это дело в одну таблицу и отбирать кандидатов в Disavow links по принципу наименьших весовых коэффициентов качества донора во всех этих трех сервисах в купе. Это позволит снизить вероятность ошибки.

    К сожалению, позволить себе такую роскошь могут не многие, хотя, если бы кто-то вынес это на аутосорсинг, то я бы не отказался воспользоваться за умеренную плату, но при этом мне бы хотелось получить не просто список кандидатов для Disavow links, а именно все эти выгрузки из Open Site Explorer, Solomono и Ahrefs, чтобы самому убедиться в справедливости сделанных выводов и в том, что меня не водят за нос.

    Второй вариант поиска спамных обратных ссылок в своем ссылочном профиле, который мне попался на глаза, заключался в использовании платной программы ФастТраст от Алаича (известный блогер). Собственно, на промо сайте этой программы я наткнулся как раз на описание подготовки списка кандидатов на удаления для Disavow links.

    Вроде бы все замечательно. Цена 3000 рублей, что хотя и дороговато, но терпимо, тем более, что ее можно приобрести и за бонусы Профит Партнера, которых у меня как раз имеется нужное количество.

    Бонусы Профит Партнера

    Но! Я присмотрелся повнимательнее к требованиям и желательным условиям, при которых данная программа будет работать корректно. Оказалось, что не все так просто:

    Условия работы ФастТраст

    В общем, это охладило мой пыл и я понял, что купить программу это еще полдела, а нужно будет еще прокси искать, деньги в Ahrefs вкладывать, чтобы получить наиболее актуальный результат. Да и времени на сбор данных, думаю, уйдет довольно много.

    Поэтому решил взять паузу и, пока из головы не вылетело, записать все свои текущие мысли по поводу Пингвина и Disavow links в этом посте, чтобы потом к этому вернуться.

    Ну, вот, где-то так, примерно. А вы что думаете по поводу фильтра примененного Гуглом к ktonanovenkogo? Это Панда или Пингвин? С Disavow links линк стоит заморачиваться? Если стоит, то каким образом вычленять галимые бэки?

    Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

    Источник: ktonanovenkogo.ru

    НЕТ КОММЕНТАРИЕВ

    Оставить комментарий