Выход из-под фильтра АГС - 17 Яндекса | Блог Интернет-Серфера

девушка с Яндекса)Конец месяца принес много сюрпризов... Начал зарабатывать в интернете на обучение и Яндекс поднес большущий сюрприз - загнал под фильтр АГС-17 один из сайтов, который был подключен к бирже статей Liex.

Вчера вылетело 90% всех статей в Лиексе и  доход упал примерно до 5-и долларов! Опять начинаю все почти сначала...

Ну, Яндекс хоть оставил небольшое окошечко в поисковую выдачу - 10 страничек... хоть не забанил полностью... попробую выбраться.

Мне кажется, что попал сайт под фильтр благодаря КСапу... решил попробовать на свою голову) Слишком уж много исходящих ссылок вышло. Сегодня сниму ссылки и за несколько АПов посмотрим на результат. Если не прокатит такой эксперимент, то будем удалять и Сапу...

P.S. Самым лучшим вариантом остается создание СДЛ и именно на это нужно делать упор, хотя многие вебмастрера жалуются, что их белые проекты попали тоже под фильтр... наверное, не такие они уже и белые!)

Мой блог находят по следующим фразам
nice girl
girl
адалт заработок
индексация доменов .net
серфинг фото
дополнительный заработок





Комментарии (17) на запись «Выход из-под фильтра АГС — 17 Яндекса»

  1. Xstroy | 02.10.2009 в 10:58

    Столкнулся с такой же проблемой.
    Будем искать выход вместе.
    Найдёшь раньше — поделись.
    Одно замечание: оставили одну главную страницу на блоге, подключеном к Сапе, но в тот период на нём не было ни одной ссылки!!!
    Яндексоиды тоже умеют пользоваться поиском в Сапе.

  2. admin | 02.10.2009 в 15:27

    Я напишу обзор, если получится выйти из-под фильтра. Они пользоваться то умеют, но скорее всего, что причина не в этом. Сайтов в Сапе очень много и адреса многих из них скриты и,думаю, всех их перебирать они явно не станут. Скорее всего, что это совпадение… Сайт наполнен качественным контентом? Одна страничка еще не значит, что это фильтр. У меня были такие же случаи, но через несколько АПов все странички возвращались в выдачу.

  3. Игорь | 14.10.2009 в 18:19

    Фильт настоящая зараза.
    Поначалу помогало простановка на внутренние страницы ссылок с внешних ресурсов.
    Впрочем это и сейчас помогает.
    Но временно.
    Страницы возвращаются в индекс, но через некоторое время снова вылетают.
    Мне с 12 страниц удавалось до 24-х страниц в индексе увеличить.
    Но через некоторое время они опять вылетели из индекса.

  4. Kiberman007 | 19.10.2009 в 22:01

    Ещё и месяца не прошло как скорей всего по стуку, яша выкинул из индекса все страницы, оставив только главную. Сапа виновата, но снятие всех ссылок и добавление нового контента, равно как и докупка постовых в блогуне не дала результата.

    Я вот думаю, может перенести блог на новый домен, по моему это проще чем выгрызать дырки в яшефильтрах. Только не знаю, как с контентом быть, он весь уникальный, но при переносе его на другой домен тот же яша не посчитает ли его дублем? Вылет из индекса ещё не значит удаление кеша из пс. Кто нибудь может посоветовать как лучше сделать?

  5. admin | 20.11.2009 в 11:30

    Главное, чтобы контента не был в кеше Яндекса. т.е. Если Сайт вылетел полностью, то тогда можно начинать процесс переноса сайта на другой домен. Если же не все странички вылетели, то просто закрывайте индексацию в robots.txt и ждите, пока сайт не будет исключен полностью.
    Мое ИМХО заключается в том, что Ваш уникальный контент не мог попасть под фильтр! У Вас случайно не какой-нить там варезник под фильтр попал? У меня сайт, который попал под АГС имел 50% очень *плохого* контента. На страничках была картинка и краткое описание к ней (три, четыре предложения), но контент уникальный…

  6. Kimb | 03.12.2009 в 21:29

    Под АГС попали 2 белых и пушистых новичка с уником, единственная беда которых оказалась в том что с домена верхнего уровня барыжились ссылки в Сапе.

  7. Просто блоггер | 28.01.2010 в 16:42

    Уже вышло несколько версий фильтра АГС (17, 30, скоро ещё что-то будет), но Интернет до сих пор не пришёл к единому мнению. Одни утверждают, что сайты в принципе нельзя вывести из-под этого фильтра. А если такое чудо и происходит, то это глюк, помноженный на глюк Яндекса. То есть сначала по ошибке кастрировали, а потом вернули на место.

    Другие же считают, что есть действенные методы, которые гарантированно помогают сайтам. Лично я пробовал и смену ЧПУ, и обновление контента на регулярной основе, и переписывал мета-теги, и даже запрещал индексировать боту Яндекса сайт, чтобы он забыл его (так называемый SEO-рестарт), и убирал всевозможные дубли (теги, пагинацию, календарь, анонсы в рубриках и так далее).

    И ничего не помогло. Сейчас прочитал об эксперименте очередного бомжа. Якобы он купил 200-300 ссылок на внутреннюю страницу сайта под АГС и через несколько Апов она попала в индекс. Он считает, что так можно вернуть все страницы, хоть они и запрещены к индексации, если их добавлять в аддурилку.

    Как думаете, это поможет? Стоит ли тратить время, силы и деньги? А то после Апа тИЦ забаненные и зафильтрованные домены за счёт естественных ссылок получили прибавку тИЦ. Как-то жалко сдавать их без боя.

  8. admin | 29.01.2010 в 11:34

    Сайт в любом случае можно вывести, только для этого нужно преложить кучу усилий, чтобы доказать, что он действительно белый!
    Ну, если честно, то покупать по 200-300 ссылок врядли стоит. В таком случае действительно лучше перейти на новый домен, если бы не ТИЦ.
    Если контент нормальный, то действительно стоит попробовать вывести его с АГС и если страничек много(чтобы после вывода окупить затраты)!

  9. Дмитро | 05.03.2010 в 05:52

    «Как-то жалко сдавать их без боя.» Вот вот. Да и тем более, что не Яндексом единым. Потому что вот и у меня сайтик под FUC попал, и лечить пока что я его собираюсь описанными вами методами — добавлять контент и ставить ссылки — не обязательно покупные — разные.

    И вот то, что вы пишете, что обновление текстов не помогает, это конечно, неприятно. Но ничего, попробуем в комплексе. В крайнем случае продажные ссылки снимем (или они сами отвалятся)…

    Кстати, как у вас сейчас дела с теми фильтрами? Полегчало?

  10. mcbod | 24.03.2010 в 10:27

    Я уже все способы выхода из под АГС перепробовал, менял дизайн, тайтлы, структуру URL, писал Платону,ничего не помагало. ХЗ, наверно лучше ждать пока сайт сам не влетит обратно в индекс.

  11. kyoks | 11.05.2010 в 21:43

    А что если сменить названия/наименования внутренних ссылок + чуть подрерайтить контент? Может в таком случае возможно выйти из АГС? У кого-нить так не прокатывало случаем?

  12. Сергей | 24.06.2010 в 11:48

    Сапа тут точно не причем вот я на своем сайте http://www.vasava.ru продавал ссылки на сапе в больших количествах, и что вы думаете пришел яша посмотрел на мой сайт сказал молодец вручил мне тиц 10 и ушел ))))

  13. Алексей | 24.07.2010 в 03:29

    А что это такое АГС-17? Просветите! Впервые слышу! :(

  14. admin | 24.07.2010 в 06:39

    Вот тут написано про АГС-17
    http://webserfing.com/anti-govno-site-17-yandex

  15. Валерий | 01.04.2011 в 01:30

    М-да… Сколько проблем у многих от этого АГС, а действенных «пилюлек» найти никак не могу :( Знаю точно, что ссылки в сапе часто приводят сайты к АГС. Но не только это. Я 2 месяца назад создал новый проект по жирной-жирной коммерческой тематике. Торговля ссылками меня не интересует. Внешняя индексируемая ссылка только одна — на фидбарнер. Через 2 недели с момента создания влетел под АГС. Я полтора месяца понять не мог, что за фигня: 10 первых страниц в поиске, а новый посты Яндекс не замечает. Потом узнал про этот АГС. На основе своего опыта могу сказать (2 блога уже 1,5 года), что под АГС попадают сайты определенных тематик. Я на своих абсолютно некоммерческих блогах за 1,5 года че только не делал. Меня уже Яндекс мог 10 раз заАГСить. Но ничего не происходило. А тут замутил коммерческий сайт…и хрясь… сразу в лоб — АГС. Тексты все уникальные и очень хорошие для людей. Стилистически все грамотно. Все остальные «показатели» тоже в норме. Причина АГС не ясна…
    Пробую выйти следующим образом:
    1) удаление robots.txt; Да-да, именно удаление, а не запрещение чего-то к индексации. Яндексу пофиг на все эти запреты. Например, я обнаружил, что в хелпе для вебмастеров Яндекса написано, что если в robots.txt два блока, один для всех поисковиков, а другой именно для Яндекса, то использоваться будет только блок предназначенный для Яндекса. Но это написано только, а на самом деле Яндекс и свой блок «читает» и у «соседа» «откусывает». 2-й пример, директива host. Я пытался на одном из блогов объединить зеркала. Добавил директиву, и все страницы кроме главной вылетели из поиска Яндекса. Писал платоше раз шесть. Каждый раз отвечали, что с блогом у меня все впорядке, и вот-вот страницы вновь появятся в индексе.»Вот» длилось более 3 месяцов. Потом я плюнул на все, удалил «host», и через неделю все страницы появились в поиске, правда по старому адресу. Зачем хочу удалить robots.txt? Считаю, что на всякий там дублированный контент Яндексу «чихать». Он ведь один фиг грузит все страницы, а те что дублированные в поиск не добавляет. Зато полной индексацией я, если получится, «разбавлю» контент. По качественному контенту, просеошенному, и при запрете других страниц, роботу яндекса догадаться, что это не полный олух, а какой-никакой вебмастер «замутил» сайт, как два пальца об асфальт. А чего хотят вебмастера?
    2) Временное удаление информации из всех сайдбаров. Разве что рубрики оставлю. Я, столкнувшись с АГС, вдруг осознал, что сайдбары WordPress — сквозные, т.е. их содержимое становится органической частью каждой страиницы. Если сайдбары напичканы ключами, а всякие там странички архивов, меток и прочее…коротенькие, то фактически все страницы в глазах робота становятся одинаковыми и пересеошенными.
    3)Другие работы по временному превращению большой и красивой темы в маленькую и уродливую. Как я понял, яндекс обажает маленьких «уродцев». Когда я вообще ничего не знал, и делал свои 2 первых блога через ж…, все было ОК. А стоило сделать по всем правилам — мой новый блог — ГС. Короче нужно больше ляпов, глупостей, кривых извилистых троп — тогда все будет хорошо, и яндекс полюбит сайт! :)

    P.S. Кстати, я у какого-то умного товарища читал, что сайт выходит из под АГС самостоятельно (если изменения утраивают робота), и за срок — 1-2 недели. Интересно, так ли это…

  16. Gotvald | 29.09.2011 в 19:12

    Золотые слова.
    Все было хорошо — поставил robot.txt, сайт вылетел на месяц из поисковиков, потом вернулся и robot.txt не изменялся.

  17. Елена | 29.11.2011 в 15:17

    У меня на одном из моих блогов яша выкинул практически все страницы из поиска, из почти 300 осталось 10, со мной таких казусов ещё не было, и не знаю ни причину не что делать. Платону писала, но пока не ответа не привета.

Оставить комментарий

Перед отправкой формы: