Причины выпадения сайта из индекса

Сегодня поговорим о причинах выпадения сайта из индекса. Главная задача после создания и публикации проекта –  обеспечение полной и своевременной индексации всех страниц сайта.

Посадочные страницы и соответствующие поисковые запросы – это и есть тот продукт, который предлагает владелец сайта пользователям Интернета. А если товаров нет на рынке, что, собственно, вы собираетесь продвигать? Без максимально полной индексации идея поискового продвижения теряет всякий смысл.

Проверка качества индексации сайта

Для начала полезно выяснить, сколько страниц сайта проиндексировано различными поисковыми системами. Для этого существуют несложные способы:

1. Задать в поисковой строке запрос mysite.ru. На первой странице выдачи можно будет увидеть число найденных страниц. Это и есть количество страниц в индексе данной поисковой машины.
2. Если вы используете браузер Mozilla Firefox или Opera, там можно найти специальный SEO-виджет, который будет показывать количество страниц сайта в индексах различных поисковиков и по каждой текущей странице – проиндексирована ли она.
3. Активнее обращайтесь к Помощи для Вебмастеров Google и Яндекс. Там можно узнать не только, какие страницы проиндексированы, но и предположительные причины имеющихся проблем.

Типичные причины выпадения страниц сайта из индекса

1. Неправильная настройка файла robots.txt

Robots.txt это пакетный управляющий файл, в котором содержатся команды, определяющие правила поведения поисковы роботов на страницах сайта:

• Какие страницы и с какой периодичностью индексировать.
• Какие страницы совсем не заносить в индекс.
• Порядок обхода сайта.

В процессе обслуживания веб-проекта администратор производит частые обновления и вполне возможно допущение ошибок в настройках файла robots.txt.

2. Наличие в URL страниц закрытых элементов

Эта причина проистекает из предыдущего пункта – некоторые адреса веб-страниц могут оказаться запрещенными для посещения ботами.

3. Дублирующий контент или дубли страниц

Наличие повторяющегося контента чаще всего присуще сайтам, работающим на некоторых типах систем управления контентом. По сути дела, это следствие ошибки разработчиков ПО, либо небрежная настройка CMS в процессе работы с сайтом.

Сюда же можно отнести и автоматически сгенерированные одинаковые метатеги Title, Description.

4. Недостаточное количество текста на веб-странице

В слишком коротких текстах поисковик видит либо небрежность веб-мастера, либо низкое качество контента и исключает такие бесполезные для пользователей страницы из индексации.

5. Плохая внутренняя перелинковка

Неправильно сделанная внутренняя перелинковка затрудняет предложение роботов по сайту. Некоторые страницы могут оказаться за пределами досягаемости.

6. Недоступная для поисковых роботов навигация

Всем известно, что поисковые роботы очень плохо видят и понимают разного рода рисунки и программные элементы. Поэтому скриптовая или графическая навигация может оказаться непонятной для поисковой машины. Такая ошибка грозит выпадением из индекса очень большого количества страниц.

7. Отсутствие карты сайта XML

Карта в формате XML это просто список всех страниц сайта. Естественно, отсутствие списка страниц затрудняет работу роботов по индексации.

8. Низкое информационное качество контента на страницах

Прекращение индексации сайта по причине низкого информационного качества или неуникальности текстов – это новшество последних лет. Скорее всего, исчезновение слабоинформационных страниц из индекса является следствием воздействия одного из поисковых фильтров.

9. Наличие на страницах некачественных внешних ссылок

Если сайт содержит много ссылок с линкопомоек или нерелевантных ссылок, это признак купли или продажи, с чем поисковики активно воюют. Отсюда и наказание в виде исключения подозрительных страниц из индексов.

10. Использование фреймов при создании сайта

Фреймы – это еще одна недоступная часть сайта, наряду со скриптами. Поэтому страницы с фреймами оказываются непонятными для поисковых алгоритмов и на всякий случай не индексируются.

11. Наличие на сайте страниц, вход на которые требует авторизации посетителя

Тут все понятно. Робот же не может знать пароль и логин пользователя. Тем более не способен зарегистрироваться.

12. Сайты на бесплатных доменах и платформах

Google вполне лояльно относится ко все типам сайтов, а вот другие поисковые машины часто недолюбливают сайты на бесплатных доменах второго уровня. В Яндексе, например, можно месяцами ждать индексации страниц сайта на бесплатной блоговой платформе.

13. Серверные проблемы: одинаковый IP-адрес для разных сайтов

Такая проблема типична для виртуальных хостингов. Если у одного сайта в кластере что-то не так настроено или другие технические проблемы, то это может сказаться на доступности к индексации и всех остальных веб-сожителей.

Вы можете развить свой сайт по нашей программе, для этого нужно пройти бесплатный курс. Познакомьтесь с программой курса.

Поделитесь информацией с друзьями.

2 комментария

Оставить комментарий
  1. полностью с вами согласен, все бесплатные плащадки и сервисы по созданию и размещению сайтов, особенно на юкос и викс, полный отстой

  2. Уведомление: Аудит сайта

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *