Всем привет! Не так давно я писал про тульский форум который все еще находится под фильтрами в яндексе, причину я уже знаю, но вот исправлять ситуацию пока лень ибо придется удалить столько копипаста, что руки устанут. Но до недавнего времени я думал что с форумом все хорошо хоть в google, но оказалось и там проблем предостаточно. А именно большинство страниц попало в так называемые «сопли гугла«.
Как обычно для начала немного теории. Дополнительный индекс гугла или сопли гугла (Google Supplemental Index) — как понятно из названия — лишь предаток нормальной выдаче google, эти страницы почти не учавствуют в поиске и очень сильно занижаются в выдаче.
Проверить какие страницы не попали в сопли очень просто, достаточно в строке поиска ввести “site:seoonly.ru/*” ( понятное дело без ковычек и используя адрес своего сайта). При такой манипуляции мы получим страницы которые находятся в основном индексе гугла, все остальное — либо не проиндексированные страницы, либо сопли.
Чтобы получить список только соплей нужно ввести “site:seoonly.ru -site:seoonly.ru/*“ ( опять без ковычек и со своим доменом).
В сопли попадают в основном страницы не имеющие достаточного авторитета в глазах поисковика и выбраться из соплей подчас очень трудная и долговременная задача.
Пока опыта в этой сфере у меня нет, зато есть прекрасный подопытный и поэтому по мере появления свободного времени и желания заниматься форумом буду рассказывать о действиях, которые предпринимал для вывода сайта в основной индекс из соплей гугла.
Кстати на досуге не забудьте посетить seo форум. Приятная и дружественная атмосфера располагает к позитивному продвижению сайтов
Спасибо за внимание.
У меня по такому запросу страниц не найдено. Но есть много страниц дублей в основном поиске, которые запрещены в роботс.txt (типа replytocom). В выдаче так и написано «содержание запрещено в роботс.txt».
Я так полагаю, что раз они запрещены в роботсе, то всё нормально? Или лучше ставить фильтр на индексацию страниц в вебмастере? А то сейчас получается, что по RDS-бар в индексе пару тысяч страниц из-за этих дублей.
Короче решения нет:(((
Самое главное почему страницы попадают в сопли это — поведенчиский фактор юзера. Если он зашел и сразу вышел с этой страницы или самого сайта (и так постоянно) в гугле отлаживается информация, что она не очень нужная для посетителя и бросает ее в сопли. И еще очень важна внутренняя перелинквка. На одном моем дорвее(!) я добился 70% основного индекса,только 30% в соплях
Полезная информация. Спасибо.
ПО запросам у меня такая выдача.
site:example.ru -site:example.ru/* тут около 1500 страниц, в основном несуществующие и с именами страниц на кириллице.
и
site:example.ru/* — тут 73 страницы причем некоторые содержаться в предыдущем запросе.