Фильтры Google: их должен знать каждый вебмастер. Фильтры поисковой системы Google

Хочу сегодня обратить ваше внимание на фильтры от поисковой системы Google.

Когда я только создал свой блог, я понятия не имел, что алгоритмы поисковиков созданы настолько грамотно, что если им встречается некачественный сайт, тогда они могут на него наложить некоторые ограничения.

Конечно, если вернуть время назад, я развивал бы свой ресурс совсем другим образом и не стал бы делать тех ошибок, которые привели меня к плачевному результату.

Как говорится, если осведомлен — значит вооружен.

Виды фильтров у Google

1) «Песочница» или Sandbox . Этот фильтр накладывается на молодые сайты в момент их рождения в сети интернет.

Это своего рода испытание для сайтов, чтобы не попали на топовые места, мало живущие дорвеи, блоги однодневки и др.

Сами подумайте зачем, Гуглу ставить непроверенные сайты на верхние места выдачи, если через определенное время такой сайт может и вовсе перестать существовать.

Выход из-под фильтра

— ждать;
— наращивать естественную ссылочную массу;
— писать регулярно ;
— купить старый домен;

2) Google Florida . Этот фильтр накладывается на сайты, имеющие чрезмерную оптимизацию страниц.

Он отслеживает злоупотребление мета-тегов: strong, h1-h6, насыщенное количество ключевых слов и их плотность.

Выход из-под фильтра

— заменить seo оптимизацию на нормальную;

3) Google Bombing . Понижение конкретной страницы в выдаче, за счет ссылающихся одинаковых анкоров в большом количестве.

Если вы будете продвигать какую-нибудь страницу, используя внешние ссылки с одинаковым анкором, тогда результат получится полностью наоборот.

Выход из-под фильтра

4) «Минус 30» . Под данный фильтр google попадают сайт, которые используют для продвижения «черную» оптимизацию. Такие ресурсы Гугл понижает на 30 позиций.

Причины попадания под фильтр

— резкое увеличение ссылочной массы с некачественных площадок (каталогов, гостевых книг и комментариев);
— помойки ссылок;
— редирект при помощи java script, а также ;

Выход из-под фильтра

— не использовать вышеперечисленные пункты для продвижения сайта;
— убрать редирект;

5) «Дополнительные результаты» или Supplemental Results . Если страницы окажутся под таким фильтрам, тогда они будут выводиться в поиске, только если «качественных» сайтов будет недостаточно, кликнув по ссылке «дополнительные результаты».

Выход из-под фильтра

— уникализировать на странице мета-теги и title;
— закупить несколько трастовых ссылок на данную страницу;
— увеличить объем уникального контента страницы;

Выход из-под фильтра

— избавиться от нерабочих ссылок;

7) «Неуникальный контент» . Если сайт использует ворованный контент (копипаст), тогда этот фильтр будет понижать его в результатах выдачи.

Хотя бывают случаи, когда фильтр Google накладывается не на ворующего, а на того, у кого своровали. а играет очень важную роль.

Выход из-под фильтра

— не воровать чужой материал;
— ускорить индексацию страниц;
— удалить неуникальный материал;

8) «Время загрузки страниц сайта» . Когда робот заходит на сайт и не получает доступ к его содержимому (по причине некачественного хостинга или сервера), тогда он такие страницы пропустит и они не смогут попасть в индекс.

Выход из-под фильтра

— поменять хостинг на качественный, у которого 99,95%;

9) «Цитирование» или Co-citation Linking Filter . Суть его в том, что ссылаться стоит только на качественные сайты, которые в свою очередь тоже должны ссылаться на качественные площадки.

В основном под такой фильтр могут попасть только сайты .

Выход из-под фильтра

Выход из-под фильтра

— ссылаться на сайты по цепочке 1 на 2, 2 на 3, 3 на 1.

11) «Много ссылок сразу» . Этот фильтр Гугла понижает сайты в выдаче, а иногда даже накладывает бан, за участи площадки в линк помойках, больших закупок ссылок и др.

Выход из-под фильтра

12) «Много страниц сразу» . Если на блоге появляется огромное количество контента за маленький промежуток времени, тогда Google может посчитать, что это не естественно и наложить фильтр.

Выход из-под фильтра

— соблюдайте естественность;
— если используете , тогда поставьте ограничение на количество добавляемого материала;

13) «Степень доверия» или Trust Rank . Чем больше вы получите доверия от Google, тем выше будут ваши позиции в выдаче ТОП. Этот фильтр включает все, что было перечислено выше.

— возраст домена;
— качество входящих ссылок;
— количество исходящих ссылок;
— качество ;

14) Google Panda . Этот фильтр появился не так давно, но уже успел потрепать нервишки многим сеошникам.

Суть его заключается в том, что говносайты не должны попадать в индекс, подробно о нем я рассказал в статье « ».

Выход из-под фильтра

— делайте СДЛ сайт, используя все вышеприведенные рекомендации;

15) Google Пингвин . Самый последний из фильтров. Суть его заключается в том, чтобы понизить в выдаче сайты, которые для продвижения используют покупные ссылки.

В ходе его работы на многих блогах сократилась посещаемость, а на других наоборот выросла. Очень подробно о нем я рассказал в прошлой статье « ».

Выход из-под фильтра

Еще хочу добавить, что если вы делаете сайт для людей (СДЛ), часто обновляемый, содержащий уникальный контент и приносящий пользу, он никогда не попадет под фильтры Гугла, а показатели ТИЦ, PR и Траст будут расти сами собой.

Если все-таки вас фильтр не обошел стороной, тогда не отчаивайтесь и развивайте свой проект дальше.

С выходом Минусинска фильтры Яндекса стали еще больше дублировать фильтры западной ПС Google, при этом последние куда меньше изучены сеошниками Рунета, чем первые. В этой статье я постарался охватить те санкции Гугла, которые я сам знаю. Возможно, есть и другие. Сразу подмечу - по тем сведениям, что имеются, можно сделать вывод, что некоторые фильтры Google дублируют функции друг друга. То есть, допустим, за неуникальный контент может покарать как Панда, так и Google Duplicate Content. Поэтому я такие «дубли» в отдельные пункты не выделял (вот что значит борьба с дублями в Google, старик).

Вот тут Рэнд Фишкин рассказывает, как под эти фильтры не попасть:

Виды санкций Google

Первый тип классификации — это разделение на фильтры за косяки на самом сайте и на фильтры за косяки при внешнем продвижении. По этому типу мы и пройдемся в статье подробнее.

Но помимо этого есть еще деление на ручные и автоматические санкции. Различие между ними в том, что автоматические санкции накладываются на вас машиной, а ручные — модератором. Первые снять гораздо легче, так как они и снимаются в основном автоматом. О вторых вас оповестит Google вебмастер, создав сообщение во вкладке «Меры, принятые вручную». А вот об автоматических санкциях вас информировать никто не будет.

Фильтры за внутренние нарушения

Под внутренними нарушениями подразумевается недобросовестная работа над созданием контента, переоптимизация текста, отсутствие внутренней оптимизации ресурса в целом и так далее.

Панда

Фильтр призван находить страницы сайтов с неуникальным заспамленным контентом, который, вероятней всего, был создан для поискового робота. С помощью Google Analytics можно отследить уровень органического трафика с Гугла, который значительно снизится, если сайт попадет под фильтр. Естественно, последствия Панды выражаются в существенном проседании позиций в выдаче.

Вот отличное видео от Виктора Карпенко о Панде:

Союзниками Панды являются более узкоспециальные фильтры, такие как Duplicate Content (дублирование контента) и Omitted Results (схожий контент), направленные на борьбу с похожим, повторяющимся контентом. В целом, Панда является самым распространенным фильтром, охватывающим большое количество внутренних факторов ресурсов.

Как ни крути, а от плохого контента нужно избавляться путем изменения или удаления вредоносных страниц. Старайтесь размещать на сайте только уникальный качественный контент, которые понравятся алгоритмам поисковой системы.

Песочница

Песочница, или Sandbox, предназначена для ограничения молодых сайтов, то есть фильтр накладывается не за нарушение, а за отсутствие траста. Если сайту меньше года, то шансы занять места в топе по запросам крайне низки. Косвенным результатом работы Песочницы могут являться безуспешные попытки продвижения по ВЧ и СЧ запросам, когда не удается увидеть значимые сдвиги в поисковой выдаче Гугла.

Владельцам молодых сайтов не стоит отчаиваться, а следует развивать свой ресурс, наполняя его уникальным релевантным контентом. Как вариант, можно получить ссылки с тематически близких сайтов, которые уже обрели трастовость у поисковых систем и имеют высокое значение PR. Таким образом, можно ускорить «взросление» вашего сайта и выход из «детской» Песочницы.

Немного похож на песочницу фильтр Domain Name Age, проявляющийся в том, что сайты с доменом возрастом до 1 года могут плохо индексироваться.

Сопли

Фильтр «Supplemental Results», в простонародье «Сопли», предназначен для нахождения страниц сайта, которые содержат похожий контент. В случае обнаружения подобных документов, фильтр перемещает их в дополнительные (по умолчанию скрытые) результаты поисковой выдачи Гугла. Обычно, под действие фильтра попадают страницы-дубли сайта.

Про борьбу с соплями у WPnew есть неплохие материалы. Вкратце — следует удалять бесполезные страницы со служебной информацией и технических дубли, а также применять редирект с канонической ссылкой.

Broken Link

Если на сайте находится слишком много битых ссылок, Гугл может наложить на ресурс соответствующий фильтр. В случае превышения допустимого предела по битым ссылкам, ресурс может потерять траст, а за этим последует и снижение в поисковой выдаче.

Google -30

Фильтр «минус 30» накладывается на ресурс в случае подозрения в запрещенных махинациях, которые любят использовать «черные» сеошники, то есть создатели дорвеев и прочих ГС с целью заработка легких денег на быстротечных ресурсах. Под махинациями подразумеваются осуществление клоакинга и редиректов, которые видят пользователи, но не видят ПС. Со временем роботы обнаруживают нечестную игру и понижают ресурс на тридцать позиций в выдаче.

Если убрать запрещенные скрипты, через некоторое время фильтр снимется и можно будет вздохнуть с облегчением. Что касается дорвеев, то скорей всего такие сайты и вовсе вылетят из индекса, так как зачастую клоака является неотъемлемой частью схемы слива трафика.

Bombing

Когда на сайт ведет большое количество внешних ссылок с одинаковыми анкорами, в силу вступает фильтр Bombing, который существенно снижает вес ссылок.

Чтобы снять этот фильтр нужно разнообразить анкоры ссылок. Рекомендуется увеличить количество «естественных» анкоров. Можно снять часть ссылок и добавить новых со всевозможными текстами.

Co-Citation

Этот фильтр накладывается за присутствие ссылок на сайте-доноре, который распространяет материалы запрещенных тематик.

Не ленитесь проверять доноры на тематики перед закупкой ссылок во избежание наложения фильтра.

To Many Links at Once

Наложение фильтра грозит ресурсам, на которых появляется резкий прирост внешних ссылок. Фильтр обычно косит молодые сайты, оптимизаторы которых пытаются закупить большое количество ссылок за короткий отрезок времени.

Во избежания проблем с действием этого фильтра, необходимо наращивать ссылочную массу максимально медленно и небольшими темпами. Если вы занимаетесь продвижением молодого сайта, рекомендуется покупать не больше 3-10 хороших ссылок в сутки. При успешном продвижении количество можно увеличить.

Что еще не любит Гугл

Все нижеперечисленное может создать проблемы в продвижении и привести к проблемам в продвижении:

  • Ссылки с иноязычных сайтов;
  • Использование тега h1 на странице чаще, чем 1 раз;
  • Отсутствие карты сайта;
  • Скрытый контент;
  • Спам в комментариях;
  • Нерабочая страница 404;
  • Низкое качество мобильной версии;
  • Домен с плохой историей.

Фильтры за возраст сайта:

DNA

Фильтр на недавно зарегистрированные домены DNA (Domain Name Age). Накладывается на «молодые» домены. Для того, что б сайт на недавно зарегистрированном домене смог подняться в топе Googl`а, нужно завоевать «доверие» у системы Google. Выход из под фильтра:

  • Просто подождать;
  • Набирать так называемый траст, поставить на себя ссылки со старых тематических сайтов.

Песочница (или по научному SandBox)

Под фильтр песочница попадают молодые сайты. Основная причина заключается в низком доверии поисковика к сайту. От DomainNameAge, SandBox отличается тем, что под него могут попасть сайты на старых доменах, если эти сайты плохо или совсем не обновляются, не обрастают бэклинками и у них низкий уровень посещаемости.

Выход из под фильтра:

  • Наращивание естественных ссылок с тематических сайтов;
  • Развивать проект дальше.

Фильтры Google за манипуляции с внутренними факторами

Google Florida

Фильтр за чрезмерное использование инструментов оптимизации страницы. Один из самых старых фильтров использующий множество параметров для анализа.

Причина наложения фильтра - неправильная (слишком частое употребление «ключевиков» в тексте, чрезмерное выделение ключевых слов тегами и т.д.).

Последствия - сайт существенно теряет позиции в выдаче.

Выход из под фильтра - заменить всю сео-оптимизированную текстовку на хорошо читаемую (сократить плотность вхождений ключевых слов и фраз). Если не помогает, то на страницах попавших под фильтр оставьте только одно прямое вхождение ключа. Вот так выглядел алгоритм Флориды:

Очень страшно и не понятно 🙂 Сейчас этого фильтра как такового нет, он существовал 7 - 5 лет назад, после чего Гугл его прикрыл, поняв его не состоятельность, ведь фильтр накладывался на определённые страницы, а не сайты и по этому оптимизаторы создавали по несколько версий сайта, одна часть переоптимизирована, а другая недооптимизирована, чтоб обмануть алгоритм этого фильтра. Сейчас работает более лояльная модификация этого фильтра, который уже по ювелирному оценивает содержимое страницы.

Google Supplemental Results или просто Сопли

Перенос сайта из основного раздела в дополнительные разделы поиска. Проверить можно таким способом - Посмотреть основную выдачу таким запросам:

site:сайт/& или site:сайт/*

потом посмотреть всю выдачу:

Разница между запросами 2 и 1 будет ровняться количеству страниц находящимися под фильтром.

Выход из под фильтра:

  • Удаление повторяющихся страниц;
  • Уникализация каждой отдельно взятой страницы;
  • Покупка на зафильтрованные страницы трастовых ссылок;
  • Уникализация title и мета-тегов; * - самое главное
  • Написать полностью уникальный контент; * - самое главное
  • Убрать битые ссылки.

У Шакина например половина страниц под соплями и не смотря на это, с Гугла идёт хороший трафик.

Google Omitted Results

Перенесение сайта из основного раздела выдачи в опущенные результаты поиска Налаживается на страницы, которые по своей структуре и содержанию очень схожи со страницами других сайтов или страницами этого же сайта. Может применяться одновременно с фильтром Supplemental Results.

Признаки - сайт отсутствует в основной выдаче, но он находится, после нажатия на ссылку «повторить поиск, включив опущенные результаты». Выглядит это чудо вот так:

Выход из под фильтра:

  • Сделать продвигаемые страницы уникальными(контент, мета-теги);
  • Удалить все дубли.

Google Duplicate Content

Фильтры Google за манипуляции ссылками

Google Bombing

Фильтр за одинаковые анкоры ссылок. Если на ваш сайт ссылается много сайтов и анкоры ссылок везде одинаковые, то сайт попадает под фильтр и бэки начинают передавать вес намного меньше.

Признаки - проседание позиций или застрявание сайта на одних и тех же позициях длительное время, нет результата от увеличения ссылок на ваш сайт.

Методы выхода и защиты:

  • добавить в анкор-лист новых, разбавленных слов.
  • Увеличить количество естественных ссылок (тут, клик и.т.п.)

Google -30

Накладывается за использование клоакинга, редиректов и других методов черной оптимизации. Признаки: падение сайта примерно на 30 позиций.

Методы выхода и защиты:

  • Стараться не использовать чёрные методы продвижения;
  • Если уже попали под фильтр, то скорей всего дальше будет бан.

ReciprocalLinksFilter и LinkFarming Filter

Понижающие фильтры за искусственное наращивание . Накладываются за участие в сетях по обмену ссылками, наличие линкопомоек и покупку ссылок на сайте. При этом у сайта наблюдаются понижение позиций или бан.

Методы выхода и защиты:

  • осторожно работать с покупкой, продажей и размещением ссылок;
  • устранить причины наложения фильтра.

Co-Citation Filter

Фильтр за бэки с сайтов, ссылающихся на “плохие” сайты. В общем если на вас ссылается сайт и в то же время он ссылается на какие-нибудь ГС (запрещенные тематики и т.п.), то это плохо.

Методы выхода и защиты: - старайтесь получать ссылки только с хороших и тематических сайтов.

To Many Links at Once Filter

Фильтр за быстрый прирост бэклинков. Надо во всём соблюдать естественность и набор ссылочной массы тоже должен быть естественным, тем более для молодого сайта.

PS: Очень буду благодарен за ваш ретвит.

UP:08.01.2017

Последние годы основные фильтры у Google стали Панда и . Первый пессимизирует сайты за использование не качественного контент, а второй соответственно, за продвижение с помощью SEO ссылок.

Приветствую всех посетителей моего блога!

Сегодня исполняю то, что обещал. Недавно я написал статью и о том, как не попасть под действие того или иного фильтра. В той статье я обещал вам написать немного позже по той же теме, но про поисковик от Google.

Сегодня как раз подходящее время. Поэтому в этой разберем, какие санкции накладывает Google на веб-ресурсы и как не стать жертвой этих злобных фильтров.

Дело в том, что многие задаются одними и теми же вопросами. Почему так медленно развивается, и посещаемость остается на том же уровне? Я же пишу новые довольно таки часто, а результатов все нет и нет. Да, бывает и такое, ребята, причем довольно часто.

Самое опасное заключается в том, что вы сами можете не осознавать, что у вас с блогом небольшие проблемы! И со временем может случиться так, что эти проблемы перерастут из небольших в очень весомые и серьезные. И вот тогда уже точно беда! Поэтому, чтобы исключить некоторые из этих неприятностей я решил написать статью про фильтры и санкции поисковой системы Google.

Хочу отметить то, что поисковая система Яндекс более лояльна к различным недочетам и . А вот Google в большинстве своем не жалеет никакие веб-ресурсы и строго наказывает их за несоблюдение рекомендаций по созданию и продвижению сайтов.Вам не помешает узнать подробно про эти рекомендации.

Итак, сегодня в этой статье я буду говорить о фильтрах и санкциях поисковика Google.

В принципе, если вы читали мою предыдущую статью про Яндекс и его фильтры, то вам будет проще понять эту тему. Если сказать в общем, про наказания этих поисковых систем, то у них схожие требования ко всем веб-ресурсам в Интернете: создавайте полезные сайты и блоги для людей и наполняйте их уникальным контентом, который будет основным поисковым запросам пользователей. И в этом случае ваш ресурс не попадет под действие санкций и фильтров.

Однако не стоит забывать, что Google более придирчив и строг в вопросах, касающихся технической стороны по сравнению с другими поисковиками.

С момента создания своего блога и до настоящего времени при я выявил очень большое количество разных технических ошибок.

И, самое коварное заключается в том, что эти ошибки не заметны невооруженным глазом. Их можно определить только при более тщательном осмотре. А вот отлично видны все недочеты с момента создания вашего блога.

И хочу отметить, что данная ситуация отражена почти на всех блогах. 90% блогов выглядят подобным образом в глазах поисковых роботов. Вообще, если вы установили и начали заливать контент на блог, то этого более чем достаточно для того, чтобы поисковые системы обратили свое внимание на Ваш веб-ресурс.

Да и мы все тоже хотим заслуженного внимания в виде увеличения показателей своего веб-ресурса и постепенного увеличения количества посетителей. Однако поисковые системы придерживаются своего мнения насчет этого, а также используют свои методы воздействия для исправления вебмастером всех недочетов и ошибок на его сайте или блоге. И зачастую этот поисковик безжалостен к таким ресурсам и может их строго наказать.

Нужно ли вам такое внимание? Мне кажется, нет. И вот в чем кроется проблема. Зачастую эти ошибки появляются с первого дня жизни сайта или блога. Это в основном связано с системой (появлением дублей страниц или дублированных картинок), создание блога с помощью бесплатного , а также наличие всевозможных скрытых и битых ссылок, присутствие ошибок в коде, и другие недочеты, которых пруд пруди.

Ну, а внешне все смотрится отлично-просто превосходный блог. Единственное что огорчает — посещаемость который год остается на том же месте и не растет…

Но, не стоит огорчаться и грустить. Все эти недочеты и ошибки можно исправить!

Только делать это нужно очень осторожно, иначе можете наломать дров, и это приведет к непредвиденным последствиям – различным фильтрам и санкциям со стороны поисковых систем. В этом вы уже не сможете обвинить шаблон или , потому что виноваты вы сами!

Поэтому нужно всегда помнить, что поисковые системы могут наказать ваш блог как за бездействие, так и за неправильные действия.

Санкции и фильтры от Google

Ну, а теперь расскажу подробнее про каждый фильтр.

Фильтр от Google «Песочница» (Sand Box) .

Все веб-ресурсы, которые появились недавно на просторах Интернет, оказываются под действием этого фильтра.

Но не стоит страшиться этого факта, ребята. Это просто прописано в алгоритмах поисковика. Все новые сайты и блоги не способны создавать конкуренцию другим возрастным веб-ресурсам по в результатах выдачи.

Новоиспеченному молодому блогу выделяется время на становление в пределах от 3-х месяцев до одного года. В течение этого времени вы обязаны продемонстрировать поисковой системе то, что вы настроены решительно, должны досконально поработать над своим ресурсом, и навести на нем полный порядок исходя их обязательных рекомендаций.

И еще, чтобы вы знали, вместе с этим фильтром (песочницей) для ресурсах, созданных на новом домене, существует фильтр на «возраст домена». Эти веб-ресурсы достаточно медленно индексируются, а также им в меньшей степени доверяет поисковая система.

Им нужно будет хорошо постараться для того, чтобы это доверие появилось. Развивайте свой блог правильно, чтобы это произошло как можно быстрее!

Фильтр от Google «Пингвин» (Penguin) .

Это более серьезный фильтр от данного поисковика. В то время, когда он появился, достаточно большое количество веб-ресурсов просто напросто исчезли из результатов поисковой выдачи.

Этим фильтром наказываются сайты и блоги за спам. Первичная цель его создания очистка результатов выдачи от веб-ресурсов, которые оказались там незаслуженно.

Поэтому не нужно увлекаться спамом при оптимизации своих статей. Все должно быть в меру. И тогда вы не попадете под этот фильтр.

Фильтр от Google «Панда» (Panda) .

Очень жестокий фильтр, который вешается на ресурсы с некачественным контентом, а также сайты с различной в больших объемах, не соответствующей его общей . А также за переспам ключевыми запросами и дублированный контент.

Вот так Google разводит целый «зоопарк» для контроля над всеми веб-ресурсами.

Фильтр от Google «Дополнительные результаты» (Supplementary Results) .

Данный фильтр схлопочет ваш блог в том случае, если вы в срочном порядке не решите проблему дублей страниц и другого ненужного хлама на своем блоге.

Что примечательно, данный фильтр начинает действовать, если на вашем блоге имеется неуникальный контент. И если вы пишете статьи с уникальностью от 95 до 100 %, и у вас при этом имеются дубли этих страниц, то вы просто тратите свое время впустую. Уберите дубли и ваш блог начнет развиваться с новой силой.

Для того чтобы проверить есть ли у вас дубли страниц, достаточно ввести в строке поиска Google вот это:

Если вы увидели внизу строку «скрытые результаты поиска», то у вас проблемы с дублями страниц. Кликните по этой строчке. Какое количество страниц прописано вверху? 500? 1000? Вы написали столько статей на своем блоге? Если да, то это похвально, а вот если нет, то у вашего блога серьезные неприятности! Решайте эту проблему как можно скорее!

У меня тоже были проблемы с дублями страниц при выводе древовидных комментариев, и моя проблемная ситуация постепенно решается. А всё потому, что я устранил источник этой заразы. Вы тоже учтите, что на удаление из индекса Google этих дублированных страниц потребуется время, и причем немалое.

Ну, а я тоже скоро напишу статью про удаление дублированного контента на своем блоге и продемонстрирую вам свои результаты в этом направлении, чтобы не быть голословным.

Фильтр от Google «Минус тридцать» (-30) .

Данный фильтр награждает вебмастеров, которые используют «темное SEO». Он понижает на 30 пунктов в результатах выдачи и предупреждает о том, что будет хуже, если вебмастер будет продолжать в том же духе.

Проще говоря, не нужно обманывать поисковые системы, если не знаете, как это нужно делать правильно.

Фильтр от Google «Бомбёжка» (Bombing) .

Этот фильтр присваивается за то, что позиции блога по какому-либо поисковому запросу остановились.

В основном это получается из-за в большом количестве с применением одного и того же . В итоге получается большое число ссылающихся сайтов-доноров с одним анкором. Необходимо обязательно разбавлять свой анкор-лист, а не использовать один и тот же. Это грубейшая ошибка. Да вы и сами понимаете, что это выглядит вообще .

Фильтр от Google «Флорида» (Florida) .

Данный фильтр применяется к веб-ресурсам за неправильное продвижение своего ресурса, а точнее за пере оптимизацию (пере спам) ключевыми запросами в теле статей, в тегах -H6 и Title.

Еще раз это говорит о том, что во всем нужно знать меру. Оптимизируйте на здоровье, но не увлекайтесь. Не забывайте о том, что вы пишете статьи, прежде всего для людей, а уже потом для поисковых роботов.

Фильтр от Google «Неуникальный контент» (Duplicate Content) .

Этот фильтр применяется к сайтам и блогам, которые имеют неуникальный контент.

Поэтому не нужно с других ресурсов. За это вас по голове не погладят, только накажут, и стыдно потом будет. Если не умеете писать, то покупайте копирайт или рерайт. И тогда все у вас будет хорошо.

Этот фильтр, я думаю, вам понятен. Ясно, что он применятся к сайтам и блогам, на которых есть битые ссылки. Что такое битые ссылки, как их вычислить и избавиться от их присутствия, читайте в моей статье . Проверяйте время от времени свой блог на наличие этих ссылок, и будет вам счастье!

Этот фильтр придет к вам, если страниц вашего блога очень медленная. Поэтому повышайте скорость загрузки блога. Читайте мою статью и применяйте на практике. Там все подробно расписано.

Фильтр от Google «Искусственная ссылочная масса» (Reciprocal Links Filter и Link Farming Filter) .

Этот фильтр накладывается за искусственное наращивание , а также заспамленность блога мусорными ссылками и если вы бездумно и продаете ссылки.

Если вы участвуете в автоматизированных системах обмена ссылками, то вы тоже в зоне риска. Все это не есть гуд, ребята. Избавляйтесь от этого дерьма!

Фильтр от Google «Цитирование» (Co-citation Linking Filter) .

Смысл этого фильтра заключается в бездумном проставлении ссылок со своего веб-ресурса на сомнительные или подозрительные сайты и блоги. Друзья, проставляйте ссылки только на проверенные ресурсы! Не захламляйте свой блог. Если вы будите ссылаться на некачественные ресурсы, то Google и ваш блог примет за низкокачественный. Старайтесь фильтровать то, что рекомендуете своим посетителям.

Фильтр от Google «Быстрый прирост контента» (Filter Quick Simple Content) .

Он применяется к ресурсам, которые очень часто обновляются.

Этот факт очень подозрителен и намекает на автоматическую генерацию контента. Опять же повторюсь, найдите золотую середину. Ребята, будьте естественнее. Вы же не робот. Робот имеется в наличии только у поисковой системы.

Ну, вот я и описал, как обещал, все основные фильтры поисковой системы Google. Мне кажется, вы поняли, что если соблюдать эти рекомендации, то можно избежать серьезных проблем в процессе создания и продвижения своего блога. И не придется причитать потом, что Google и Яндекс вас и не любит и поэтому жизнь не имеет смысла.

Не нужно бегать с бубном возле ноутбука и вызывать дух всемогущего Google в надежде на снисхождение и увеличение посещаемости вашего детища. Нужно просто соблюдать эти истины и все.

Итак, еще раз об основных тонкостях:

— создавайте СДЛ (сайт для людей);

не тащите чужие тексты из чужих статей (друзья, это позорно и тупо. Вас поймают и навешают люлей!);

обращайте внимание на техническую сторону вопроса (скорость загрузки блога, правильный без мусора, битые ссылки и скрытые ссылки, и другой ненужный хлам);

продвигайте свой блог постепенно , шаг за шагом, не гонитесь за быстрыми результатами — они обманчивы;

мотивируйте посетителей осуществлять какие-либо действия на вашем блоге для улучшения поведенческих факторов.

Если вы еще не добавили свой блог в Google вебмастер , то прямо сейчас сделайте это. Это отличная подсказка, в которой отражены многие ошибки, имеющиеся на блоге. Он вам отлично поможет в продвижении.

Ну, а я в свою очередь хочу попрощаться с вами. Надеюсь, вам понравилась эта статья, и вы многое узнали для себя. Жду ваших комментариев. До встречи в моих новых материалах! Пока.

Хорошего настроения всем читателям — сайт!

Представляю Вашему вниманию основные фильтры Google вместе со способами их ликвидации.

У поисковой системы Google, так же как и у Яндекса, есть ряд фильтров, которые накладываются на Веб-ресурсы оптимизаторов. В целом, фильтры Google и Яндекса основаны на похожих принципах. Однако способы вывода сайта из-под того или иного фильтра все же отличаются.

Итак, приступим. Попробуем разобраться, какие есть фильтры у Гугла и что делать, когда сайт попадает под пессимизицию.

1. Самым распространенным фильтром поисковой машины Google является «Sandbox », так называемая «песочница». Этот фильтр автоматически накладывается на молодые сайты. При этом Веб-ресурс может быть вне индекса до 3 -х месяцев.

Способы вывода из-под фильтра «Sandbox». – нужно связать страницы сайта между собой. Можно осторожно закупать ссылки, но только очень осторожно, чтобы не попасть под другие санкции («Много ссылок сразу»).

При этом нужно очень тщательно выбирать площадки-доноры, обращая внимание на такой показатель, как Trust Rank (степень доверия Google к Интернет-ресурсам). Или же можно просто ждать, когда Гугл самостоятельно посчитает сайт «пригодным».

2. Следующий фильтр Google – это «Domain Name Age » (возраст доменного имени). Данный фильтр может быть наложен на сайты с доменными именами возрастом до 1 года, которые практически не имеют доверия от поисковиков. Гугл плохо начинает такие ресурсы, чем не позволяет искусственно завысить позиции сайта.

Способы вывода из-под фильтра «Domain Name Age». Можно попробовать закупаться ссылками со старых сайтов, трастовых ресурсов. Также можно попробовать сменить домен, на тот, которому уже более 1 года.

3. «Supplementary Results » (вспомогательные результаты). Этот фильтр накладывается, когда на сайте имеются страницы, которые дублируют друг друга. Google просто перемещает такие сайты в отдельную группу «Дополнительные результаты поиска», поэтому на эти страницы пользователи практически никогда и не попадают.

Способы вывода из-под фильтра «Supplementary Results». Нужно либо убрать дублированные страницы, либо размещать на каждой странице уникальный и полезный контент.

4. Фильтр «Bombing » (бомбежка). Как правило, данный фильтр накладывается на сайт из-за большого количества ссылок с других ресурсов с одинаковыми анкорами. Эти ссылки просто не учитываются поисковиком, поэтому позиции сайта не растут.

Способы вывода из-под фильтра «Bombing». Нужно просто убрать часть ссылок с одинаковыми анкорами. Вместо них лучше прикупить ссылки с уникальными анкорами, которые поисковик еще не учитывал ранее.

5. Фильтр «Bowling » (боулинг). Если к привлечению вышеописанных фильтров был причастен в основном сам оптимизатор, то к фильтру «Bowling» зачастую имеют отношение недобросовестные конкуренты, которые воруют контент (), пишут письма с жалобами, накручивают поведенческие факторы, размещают ссылки на забаненных сайтах и т.д. Этот фильтр очень опасен для молодых сайтов, к которым нет особого доверия со стороны поисковика (низкий показатель Trust Rank).

Способы вывода из-под фильтра «Bowling». Выход один – нужно обращаться к специалистам Google с объяснительным письмом, в котором нужно разъяснить всю ситуацию и попробовать доказать свою правоту.

6. Фильтр «Broken Links » (так называемые « »). Накладывается такой фильтр при большом количестве ссылок, которые выдают ошибку 404. При этом ресурс практически всегда теряет свои позиции в поисковой выдаче.

Способы вывода из-под фильтра «Broken Links». Нужно проверить все ссылки на сайте и найти эти самые ссылки с . Обнаружить их можно с помощью ПО Xenu Link Sleuth или же в панели Яндекс. Вебмастер.

7. Фильтр «Too Many Links at once » (фильтр еще называют «много ссылок сразу»). Если за которое время поисковая система обнаруживает очень много ссылок на определенный Веб-ресурс, то, скорее всего, на этот сайт будет наложен фильтр «Too Many Links at once». При этом Google может полностью проигнорировать все купленные ссылки.

Способы вывода из-под фильтра «Too Many Links at once». Нужно начинать постепенно, начиная с минимального числа, постепенно повышая его.

8. Фильтр «Links » (так называемые «линкопомойки»). Если на одной странице сайта очень много исходящих ссылок, то Google обязательно наложит данный фильтр. Кроме того, он просто будет игнорировать все ссылки. Таким образом, не только позиции партнеров не будут расти, сам сайт-донор также может очень сильно потерять свои позиции в поиске Гугла.

Способы вывода из-под фильтра «Links» очень просты. Если на странице более 25 исходящих ссылок, нужно такие страницы просто удалить или скрыть от индексации.

9. Фильтр «Page Load Time » (время загрузки сайта). Этот фильтр накладывается на страницы, очень долго загружающиеся при обращении к ним поискового робота. Сайт просто начинает терять позиции в выдаче.

Способы вывода из-под фильтра «Page Load Time». Нужно избавиться от «тяжелых» элементов сайта, которые перегружают исходный код страниц.

Также можно воспользоваться дополнительными модулями, которые предусмотрены для работы сайта.

10. Фильтр «CO-citation Linking Filter » (социтирование). Этот фильтр применяется, если на Интернет-ресурс ссылается много нетематических сайтов. Google просто снижает позиции таких сайтов.

Способы вывода из-под фильтра «CO-citation Linking Filter». Нужно отыскать такие ссылки, и попросить владельцев сайтов их удалить. При этом нужно только с тематических ресурсов.

11. Фильтр «Omitted Results » (опущенные результаты). Если на сайте неуникальный контент, встречаются дублированные страницы, малое количество исходящих ссылок и слабая перелинковка, то сайт с большой долей вероятности может попасть под данный фильтр. Такие страницы будут присутствовать только в выдаче расширенного поиска.

Способы вывода из-под фильтра «Omitted Results». Нужно удалить «дубли», осуществить , залить на сайт уникальный контент и купить ссылок с тематических ресурсов.

12. Фильтр «-30 ». Такие санкции накладываются на сайт при наличии скрытых редиректов, дорвеев (сайтов, направляющих на данный сайт) и клоакинга. Название фильтра о многом говорит: сайт понижается в поисковой выдаче на 30 позиций.

Способы вывода из-под фильтра «-30». Нужно попытаться устранить все эти сайты, которые предоставляют поисковой системе разную неправдивую информацию.

13. Фильтр «Duplicate Content » (дублированный контент). Естественно, этот фильтр накладывается за неуникальный контент. Такие страницы сайта пессимизируются Гуглом или же просто удаются из выдачи.

Способы вывода из-под фильтра «Duplicate Content». Размещать на сайте нужно только . С помощью различных скриптов можно попробовать защитить его от воровства, хотя и этот метод не всегда помогает.

14. Фильтр «Over Optimizzation » (чрезмерная оптимизация). Фильтр накладывается, когда сайт перенасыщен ключевыми словами. Такие страницы удаляются из выдачи или попадают под жесткую пессимизацию.

Способы вывода из-под фильтра «Over Optimizzation». Нужно сделать так, чтобы на страницах не превышала 5 -7 %.

15. Фильтр «Panda » (панда). Как правило, данный фильтр накладывается на Веб-ресурсы за некачественный контент: низкую уникальность текста, присутствие нерелевантной рекламы, большого количества ключевых слов, дублированных страниц и т.д.

Способы вывода из-под фильтра «Panda». Нужно удалить часть ненужных ссылок, добавить на сайт уникальный контент, удалить нерелевантную рекламу и «дубли».

16. Фильтр «Penguin » (пингвин). Если на сайте плотность ключевых слов превышает отметку в 7 %, имеется точное вхождение ключевых слов в анкорах ссылок, имеются скрытые ссылки и дублированные страницы, а также наблюдается высокий темп роста наращивания ссылочной массы, то такой фильтр просто неизбежен.

Способы вывода из-под фильтра «Penguin». Нужно убрать часть ключевых слов, разбавить анкоры синонимами, удалить скрытые ссылки и «дубли», и, в общем, поработать над «естественностью сайта».

Но не стоит забывать, что поисковые системы регулярно обновляют свои фильтры, а также добавляют новые. Нужно следить за обновлениями, хотя сами поисковые системы не так и активно о них сообщают.
На сегодня это всё.

Если Вам известны другие фильтры Google, обязательно сообщите, я дополню ими существующий список.

До новых статей…

С уважением, Денис Черников!

  • Сергей Савенков

    какой то “куцый” обзор… как будто спешили куда то