Вопрос 5. Сколько страниц уже в индексе поисковой системы?
Есть сразу несколько простых способов, которые вы наверняка уже знаете. Во-первых, это можно проверить с помощью специальный поисковых операторов. Просто введите в поисковой строке оператор site: и домен сайта:Вопрос 6. Как ускорить процесс индексации?
Это особенно актуально для медиа-порталов или для интернет-магазинов, где регулярно обновляются акции и новости. Такие страницы нужно отправить в индекс поисковика как можно быстрее. Как это сделать: В Яндекс.Вебмастере: во вкладке “Индексирование” переходим в подраздел “Переобход страниц”. Здесь введите URL тех страниц, которые вы бы хотели проиндексировать в первую очередь в приоритетном порядке (от самого важного до менее важного). Обратите внимание, что в этой полезной функции существует лимит - не более 20 страниц в день:- Правильно составленные файлы robots.txt и Sitemap - об этом мы писали в предыдущей части статьи, и снова напоминаем. Поисковые роботы обращают на них внимание в первую очередь.
- Как можно чаще обновляйте информацию на сайте. Роботы учитывают это и подбирают определенную тактику обхода под сайт.
- Общие требования по юзабилити и контенту. Удобно и интересно пользователю - нравится роботам.
- Постинг, активность в социальных сетях. Роботы могут также заходить на ваш сайт и по внешним ссылкам с крупных сайтов с хорошей репутацией и релевантной тематикой.
Вопрос 7. Какими должны быть ссылки и размер страниц?
- Количество входящих ссылок на ресурс, должно в разы превышать количество ссылок исходящих (seo in>seo out).
- Не увлекайтесь редиректами. А если ставите постоянное или временное перенаправление — ведите на целевую работоспособную страницу.
- Дублирующий контент на страницах усложняет процесс индексирования, такие страницы тратят краулинговый бюджет. Тег canonical помогает указать приоритетную страницу для выдачи
- Страницы с установленным тегом noindex не участвуют в выдаче, но сканируются роботом, т.е. на них расходуется бюджет, выделенный на весь сайт. Проверьте, оправданно ли наличие данного тега на странице, или ее можно спокойно закрыть в robots.
- Страницы с минимальным количеством контента чаще всего помечаются как некачественные и не участвуют в ранжировании, а страницы весом менее 1кб вообще не индексируются.
- Наличие ошибочных кодов ответа сервера (неработающие страницы, с кодом ответа 4xx, проблемы с сервером и ответ с кодом 5xx) для всех переобходов напрасно тратится бюджет. Только постоянный мониторинг сайта поможет избежать таких проблем.
- К URL также масса требований:
- без динамических параметров;
- ЧПУ;
- латиницей (кириллицу лучше не использовать, но допустимо);
- в идеале должен включать ключевой запрос, без пересапама, естественно;
- длиной 3-5 слов;
- не должен совпадать с H1;
- прописаны в нижнем регистре;
- в качестве разделителей использовать дефис, а не нижнее подчеркивание.
Вопрос 8. Краулинговый спрос и бюджет: что об этом нужно знать?
Этот вопрос касается исключительно поисковой системы Google и, судя по заявлениям представителя компании Гэри Илша, должен беспокоить только крупные сайты. Под краулинговым спросом понимается то количество страниц сайта, которые изначально хочет просканировать Google. Краулинговый бюджет - это число страниц, которое Googlebot и хочет, и может просканировать за определенный период. Смысл в том, что чем выше этот показатель у вашего сайта, тем быстрее робот Google сможет просканировать по-настоящему важные и ценные страницы вашего сайта. Проверить примерный краулинговый бюджет можно только в старой версии GSC. Для этого во вкладке “Сканирование” перейдите в раздел “Статистика сканирования”:с SEO-аудита вашего сайта
Получить предложение! Подпишись и следи за выходом новых статей в нашем монстрограмме Остались вопросы? Не нашли ответ на интересующий Вас вопрос? Или не нашли интересующую Вас статью? Задавайте вопросы и темы статей которые Вас интересуют в комментариях.
Комментарии
Спасибо, хорошо все описали