«Докажите, что вы не робот»: все о роботах поисковых систем

Array
(
    [ID] => 2128
    [~ID] => 2128
    [NAME] => «Докажите, что вы не робот»: все о роботах поисковых систем
    [~NAME] => «Докажите, что вы не робот»: все о роботах поисковых систем
    [IBLOCK_ID] => 25
    [~IBLOCK_ID] => 25
    [IBLOCK_SECTION_ID] => 
    [~IBLOCK_SECTION_ID] => 
    [DETAIL_TEXT] => 

Программы, действующие в поисковых системах — роботы, краулеры, пауки — существуют не сами по себе. Это важная часть механизма индексации сайта и один из ключевых способов указать на его существование во всемирной паутине. А значит, когда вы создаете страницу или работаете над ее оптимизацией, вы должны думать не только о том, какой ее увидит пользователь, но и о том, как она будет считываться ботами.

Поисковые боты — что это?

Программы-краулеры занимаются сканированием и индексацией сайтов. Задача робота — искать сайты, переходить по их страницам с помощью внутренних ссылок, собирать информацию и затем передавать ее на сервера поисковых систем. Это касается и новых, созданных недавно ресурсов, и старых страниц, на которых произошли изменения.

В дальнейшем эта информация, проанализированная и внесенная в базу, будет использоваться при выдаче сайта по запросам в браузере.

Алгоритм работы бота

«Пауки» обрабатывают веб-страницы по определенному алгоритму, который отличается от действий рядового пользователя.

Они переходят на сайт, сканируют первую страницу, сохраняют ее содержимое и переходят на следующую по внутренней ссылке, повторяя операцию. В том случае, если на портал не ведут внешние ссылки (или вы хотите ускорить процесс проверки), можно самостоятельно добавить сайт в очередь для индексирования.

Чтобы упростить и упорядочить работу программы, на сайт добавляются файлы robots.txt и XML Sitemap.

XML-карта сайта – файл формата XML, включающий ссылки на все страницы сайта, которые нужно посещать поисковому роботу. Это особенно важно для многостраничных порталов со сложной структурой, глубокой вложенностью и неоднозначной перелинковкой.

У файла robots.txt другая функция: он управляет действиями бота, ограничивая его посещения или глубину проникновения. Почему это бывает важно — мы поговорим чуть позже.

Основные поисковые роботы

У каждой поисковой системы есть свой набор «пауков», каждый из которых отвечает за ту или иную задачу.

Боты Яндекса

  • YandexBot – ключевой робот, выполняет индексацию.
  • YandexImages – работает с изображениями и графикой, добавляет их в индекс.
  • YandexMobileBot – помогает определить степень адаптации страницы для мобильных устройств.
  • YandexDirect – сканирует контент ресурсов-партнеров рекламной сети Яндекса.
  • YandexMetrika – привязан к сервису Яндекс.Метрика.
  • YandexMarket – то же самое для Яндекс.Маркета.
  • YandexNews – сканирует новостные материалы для добавления в Яндекс.Новости.
  • YandexScreenshotBot – работает со скриншотами документов.
  • YandexMedia – индексатор мультимедийных данных.
  • YandexVideoParser – робот Яндекс.Видео.
  • YandexPagechecker – отвечает за микроразметку.
  • YandexOntoDBAPI – программа-краулер объектного ответа, занимается скачиванием изменяющихся данных.
  • YandexAccessibilityBot – скачивает загруженные на сайт файлы, чтобы проверить, имеют ли к ним доступ посетители.
  • YandexSearchShop – работает с файлами формата Yandex Market Language, которые относятся к каталогам товаров.
  • YaDirectFetcher – собирает страницы, содержащие рекламу, чтобы проверить их доступность для посетителя и проанализировать тематику.
  • YandexirectDyn – отслеживает динамические баннеры.

Боты Google

  • Googlebot – ключевой индексатор содержимого страниц для ПК и мобильных устройств.
  • AdsBot-Google – отслеживает рекламу (и ее качество) на страницах, оптимизированных под ПК.
  • AdsBot-Google-Mobile – занимается тем же, но для мобильных страниц.
  • AdsBot-Google-Mobile-Apps – оценивает рекламу в приложениях для Android.
  • Mediaparnters-Google – собственный бот маркетинговой сети Google AdSense.
  • APIs-Google – юзер-агент пользователя APIs-Google для отправки пуш-уведомлений.
  • Googlebot-Video – индексирует видеоматериалы, размещенные в интернете.
  • Googlebot-Image – индексирует изображения на сайтах.
  • Googlebot-News – сканирует страницы с новостями и добавляет их в Google Новости.

Как узнать, что сайт посещали роботы?

Узнать, есть ли URL в индексе Яндекса или Google, можно с помощью сервисов Яндекс Вебмастер и Google Search Console соответственно.

Для поиска страницы в индексе Яндекса откройте отчёт «Страницы в поиске» в Яндекс.Вебмастер. Также можно открыть панель управления Вебмастера, перейти на страницу Индексирование, а затем – Статистика обхода. Обновление данных проводится ежедневно, результат будет отображен не позже, чем через 6 часов после посещения робота.

Еще один способ узнать, что поисковый паук посещал сайт – просмотреть логи сервера. Здесь хранится вся информация о тех, кто посещал ресурс: IP-адрес, история просмотра страниц, ответ, полученный на сайте.

Как управлять пауками?

Не всегда свободное перемещение поискового бота по страницам сайта — это хорошо. Есть случаи, когда их можно и нужно ограничивать:

  • слишком частые визиты могут создать нагрузку на сервер и замедлить работу ресурса;
  • на странице находится конфиденциальная информация — например, данные пользователей;
  • на странице находится малополезная информация — как правило, это служебные страницы и дубли.

Для того, чтобы заставить поисковых роботов посетить определенные страницы сайта, существуют специальные сервисы поисковых систем, называемые аддурилками (сленг., сокр. от англ. add url, или добавить адрес сайта).

Например, аддурилка Яндекса.

Добавление важных страниц в аддурилку позволит сократить сроки, необходимые для их индексации.

Хакерские атаки на сайт часто маскируются под визиты «пауков» - поэтому так важно их отслеживать и контролировать. Чтобы проверить, кто именно посещал сайт — настоящий робот поисковой системы или спамеры/хакеры, скопируйте IP-адрес, с которого был сделан запрос к сайту, в логах сервера хостинг-провайдера. Далее проверьте данный IP с помощью специализированного сервиса (например, MyIp). Адрес, указанный в строке IP Reverse DNS (Host), должен совпадать с исходным в логах сервера.

Для управления краулерами используются уже знакомые вам файлы: sitemap.xml и robots.txt.

  • Теги и в файле sitemap.xml позволяют установить частоту обновления и приоритет каждой страницы (соответственно). Например, для статичной страницы «О компании» можно снизить эти показатели без большого ущерба для продвижения, а вот раздел новостей или каталог товаров лучше индексировать вовремя.
  • Директива Disallow в файле robots.txt закроет определенные страницы для всех ботов — или только для некоторых из них. Скрывать стоит материалы, которые должны присутствовать на сайте, но могут помешать его SEO-продвижению.
  • При работе с файлом robots.txt стоит учесть, что закрытые страницы все равно могут попасть в индекс. Полностью исключить такую вероятность поможет метатег robots или доступ к материалам только после аутентификации.

Грамотно выстроенная работа с поисковыми роботами — одна из важных составляющих успешного продвижения вашего сайта в сети Интернет.

[~DETAIL_TEXT] =>

Программы, действующие в поисковых системах — роботы, краулеры, пауки — существуют не сами по себе. Это важная часть механизма индексации сайта и один из ключевых способов указать на его существование во всемирной паутине. А значит, когда вы создаете страницу или работаете над ее оптимизацией, вы должны думать не только о том, какой ее увидит пользователь, но и о том, как она будет считываться ботами.

Поисковые боты — что это?

Программы-краулеры занимаются сканированием и индексацией сайтов. Задача робота — искать сайты, переходить по их страницам с помощью внутренних ссылок, собирать информацию и затем передавать ее на сервера поисковых систем. Это касается и новых, созданных недавно ресурсов, и старых страниц, на которых произошли изменения.

В дальнейшем эта информация, проанализированная и внесенная в базу, будет использоваться при выдаче сайта по запросам в браузере.

Алгоритм работы бота

«Пауки» обрабатывают веб-страницы по определенному алгоритму, который отличается от действий рядового пользователя.

Они переходят на сайт, сканируют первую страницу, сохраняют ее содержимое и переходят на следующую по внутренней ссылке, повторяя операцию. В том случае, если на портал не ведут внешние ссылки (или вы хотите ускорить процесс проверки), можно самостоятельно добавить сайт в очередь для индексирования.

Чтобы упростить и упорядочить работу программы, на сайт добавляются файлы robots.txt и XML Sitemap.

XML-карта сайта – файл формата XML, включающий ссылки на все страницы сайта, которые нужно посещать поисковому роботу. Это особенно важно для многостраничных порталов со сложной структурой, глубокой вложенностью и неоднозначной перелинковкой.

У файла robots.txt другая функция: он управляет действиями бота, ограничивая его посещения или глубину проникновения. Почему это бывает важно — мы поговорим чуть позже.

Основные поисковые роботы

У каждой поисковой системы есть свой набор «пауков», каждый из которых отвечает за ту или иную задачу.

Боты Яндекса

  • YandexBot – ключевой робот, выполняет индексацию.
  • YandexImages – работает с изображениями и графикой, добавляет их в индекс.
  • YandexMobileBot – помогает определить степень адаптации страницы для мобильных устройств.
  • YandexDirect – сканирует контент ресурсов-партнеров рекламной сети Яндекса.
  • YandexMetrika – привязан к сервису Яндекс.Метрика.
  • YandexMarket – то же самое для Яндекс.Маркета.
  • YandexNews – сканирует новостные материалы для добавления в Яндекс.Новости.
  • YandexScreenshotBot – работает со скриншотами документов.
  • YandexMedia – индексатор мультимедийных данных.
  • YandexVideoParser – робот Яндекс.Видео.
  • YandexPagechecker – отвечает за микроразметку.
  • YandexOntoDBAPI – программа-краулер объектного ответа, занимается скачиванием изменяющихся данных.
  • YandexAccessibilityBot – скачивает загруженные на сайт файлы, чтобы проверить, имеют ли к ним доступ посетители.
  • YandexSearchShop – работает с файлами формата Yandex Market Language, которые относятся к каталогам товаров.
  • YaDirectFetcher – собирает страницы, содержащие рекламу, чтобы проверить их доступность для посетителя и проанализировать тематику.
  • YandexirectDyn – отслеживает динамические баннеры.

Боты Google

  • Googlebot – ключевой индексатор содержимого страниц для ПК и мобильных устройств.
  • AdsBot-Google – отслеживает рекламу (и ее качество) на страницах, оптимизированных под ПК.
  • AdsBot-Google-Mobile – занимается тем же, но для мобильных страниц.
  • AdsBot-Google-Mobile-Apps – оценивает рекламу в приложениях для Android.
  • Mediaparnters-Google – собственный бот маркетинговой сети Google AdSense.
  • APIs-Google – юзер-агент пользователя APIs-Google для отправки пуш-уведомлений.
  • Googlebot-Video – индексирует видеоматериалы, размещенные в интернете.
  • Googlebot-Image – индексирует изображения на сайтах.
  • Googlebot-News – сканирует страницы с новостями и добавляет их в Google Новости.

Как узнать, что сайт посещали роботы?

Узнать, есть ли URL в индексе Яндекса или Google, можно с помощью сервисов Яндекс Вебмастер и Google Search Console соответственно.

Для поиска страницы в индексе Яндекса откройте отчёт «Страницы в поиске» в Яндекс.Вебмастер. Также можно открыть панель управления Вебмастера, перейти на страницу Индексирование, а затем – Статистика обхода. Обновление данных проводится ежедневно, результат будет отображен не позже, чем через 6 часов после посещения робота.

Еще один способ узнать, что поисковый паук посещал сайт – просмотреть логи сервера. Здесь хранится вся информация о тех, кто посещал ресурс: IP-адрес, история просмотра страниц, ответ, полученный на сайте.

Как управлять пауками?

Не всегда свободное перемещение поискового бота по страницам сайта — это хорошо. Есть случаи, когда их можно и нужно ограничивать:

  • слишком частые визиты могут создать нагрузку на сервер и замедлить работу ресурса;
  • на странице находится конфиденциальная информация — например, данные пользователей;
  • на странице находится малополезная информация — как правило, это служебные страницы и дубли.

Для того, чтобы заставить поисковых роботов посетить определенные страницы сайта, существуют специальные сервисы поисковых систем, называемые аддурилками (сленг., сокр. от англ. add url, или добавить адрес сайта).

Например, аддурилка Яндекса.

Добавление важных страниц в аддурилку позволит сократить сроки, необходимые для их индексации.

Хакерские атаки на сайт часто маскируются под визиты «пауков» - поэтому так важно их отслеживать и контролировать. Чтобы проверить, кто именно посещал сайт — настоящий робот поисковой системы или спамеры/хакеры, скопируйте IP-адрес, с которого был сделан запрос к сайту, в логах сервера хостинг-провайдера. Далее проверьте данный IP с помощью специализированного сервиса (например, MyIp). Адрес, указанный в строке IP Reverse DNS (Host), должен совпадать с исходным в логах сервера.

Для управления краулерами используются уже знакомые вам файлы: sitemap.xml и robots.txt.

  • Теги и в файле sitemap.xml позволяют установить частоту обновления и приоритет каждой страницы (соответственно). Например, для статичной страницы «О компании» можно снизить эти показатели без большого ущерба для продвижения, а вот раздел новостей или каталог товаров лучше индексировать вовремя.
  • Директива Disallow в файле robots.txt закроет определенные страницы для всех ботов — или только для некоторых из них. Скрывать стоит материалы, которые должны присутствовать на сайте, но могут помешать его SEO-продвижению.
  • При работе с файлом robots.txt стоит учесть, что закрытые страницы все равно могут попасть в индекс. Полностью исключить такую вероятность поможет метатег robots или доступ к материалам только после аутентификации.

Грамотно выстроенная работа с поисковыми роботами — одна из важных составляющих успешного продвижения вашего сайта в сети Интернет.

[DETAIL_TEXT_TYPE] => html [~DETAIL_TEXT_TYPE] => html [PREVIEW_TEXT] => [~PREVIEW_TEXT] => [PREVIEW_TEXT_TYPE] => text [~PREVIEW_TEXT_TYPE] => text [DETAIL_PICTURE] => [~DETAIL_PICTURE] => [TIMESTAMP_X] => 22.03.2021 11:01:14 [~TIMESTAMP_X] => 22.03.2021 11:01:14 [ACTIVE_FROM_X] => 2021-03-22 00:00:00 [~ACTIVE_FROM_X] => 2021-03-22 00:00:00 [ACTIVE_FROM] => 22.03.2021 [~ACTIVE_FROM] => 22.03.2021 [LIST_PAGE_URL] => /o-kompanii/blog/ [~LIST_PAGE_URL] => /o-kompanii/blog/ [DETAIL_PAGE_URL] => /o-kompanii/blog/dokazhite-chto-vy-ne-robot-vse-o-robotakh-poiskovykh-sistem/ [~DETAIL_PAGE_URL] => /o-kompanii/blog/dokazhite-chto-vy-ne-robot-vse-o-robotakh-poiskovykh-sistem/ [LANG_DIR] => / [~LANG_DIR] => / [CODE] => dokazhite-chto-vy-ne-robot-vse-o-robotakh-poiskovykh-sistem [~CODE] => dokazhite-chto-vy-ne-robot-vse-o-robotakh-poiskovykh-sistem [EXTERNAL_ID] => 2128 [~EXTERNAL_ID] => 2128 [IBLOCK_TYPE_ID] => content [~IBLOCK_TYPE_ID] => content [IBLOCK_CODE] => blog [~IBLOCK_CODE] => blog [IBLOCK_EXTERNAL_ID] => [~IBLOCK_EXTERNAL_ID] => [LID] => s2 [~LID] => s2 [NAV_RESULT] => [NAV_CACHED_DATA] => [DISPLAY_ACTIVE_FROM] => 22.03.2021 [IPROPERTY_VALUES] => Array ( [ELEMENT_META_TITLE] => «Докажите, что вы не робот»: все о роботах поисковых систем [ELEMENT_PAGE_TITLE] => «Докажите, что вы не робот»: все о роботах поисковых систем ) [FIELDS] => Array ( ) [PROPERTIES] => Array ( ) [DISPLAY_PROPERTIES] => Array ( ) [IBLOCK] => Array ( [ID] => 25 [~ID] => 25 [TIMESTAMP_X] => 12.08.2019 11:03:42 [~TIMESTAMP_X] => 12.08.2019 11:03:42 [IBLOCK_TYPE_ID] => content [~IBLOCK_TYPE_ID] => content [LID] => s2 [~LID] => s2 [CODE] => blog [~CODE] => blog [API_CODE] => [~API_CODE] => [NAME] => Блог [~NAME] => Блог [ACTIVE] => Y [~ACTIVE] => Y [SORT] => 500 [~SORT] => 500 [LIST_PAGE_URL] => /o-kompanii/blog/ [~LIST_PAGE_URL] => /o-kompanii/blog/ [DETAIL_PAGE_URL] => #SITE_DIR#/o-kompanii/blog/#ELEMENT_CODE#/ [~DETAIL_PAGE_URL] => #SITE_DIR#/o-kompanii/blog/#ELEMENT_CODE#/ [SECTION_PAGE_URL] => [~SECTION_PAGE_URL] => [PICTURE] => [~PICTURE] => [DESCRIPTION] => [~DESCRIPTION] => [DESCRIPTION_TYPE] => text [~DESCRIPTION_TYPE] => text [RSS_TTL] => 24 [~RSS_TTL] => 24 [RSS_ACTIVE] => Y [~RSS_ACTIVE] => Y [RSS_FILE_ACTIVE] => N [~RSS_FILE_ACTIVE] => N [RSS_FILE_LIMIT] => [~RSS_FILE_LIMIT] => [RSS_FILE_DAYS] => [~RSS_FILE_DAYS] => [RSS_YANDEX_ACTIVE] => N [~RSS_YANDEX_ACTIVE] => N [XML_ID] => [~XML_ID] => [TMP_ID] => [~TMP_ID] => [INDEX_ELEMENT] => Y [~INDEX_ELEMENT] => Y [INDEX_SECTION] => N [~INDEX_SECTION] => N [WORKFLOW] => N [~WORKFLOW] => N [BIZPROC] => N [~BIZPROC] => N [SECTION_CHOOSER] => L [~SECTION_CHOOSER] => L [LIST_MODE] => [~LIST_MODE] => [RIGHTS_MODE] => S [~RIGHTS_MODE] => S [SECTION_PROPERTY] => N [~SECTION_PROPERTY] => N [VERSION] => 1 [~VERSION] => 1 [LAST_CONV_ELEMENT] => 0 [~LAST_CONV_ELEMENT] => 0 [SOCNET_GROUP_ID] => [~SOCNET_GROUP_ID] => [EDIT_FILE_BEFORE] => [~EDIT_FILE_BEFORE] => [EDIT_FILE_AFTER] => [~EDIT_FILE_AFTER] => [SECTIONS_NAME] => [~SECTIONS_NAME] => [SECTION_NAME] => [~SECTION_NAME] => [ELEMENTS_NAME] => Посты [~ELEMENTS_NAME] => Посты [ELEMENT_NAME] => Пост [~ELEMENT_NAME] => Пост [PROPERTY_INDEX] => N [~PROPERTY_INDEX] => N [CANONICAL_PAGE_URL] => [~CANONICAL_PAGE_URL] => [REST_ON] => N [~REST_ON] => N [EXTERNAL_ID] => [~EXTERNAL_ID] => [LANG_DIR] => / [~LANG_DIR] => / [SERVER_NAME] => idea-promotion.ru [~SERVER_NAME] => idea-promotion.ru ) [SECTION] => Array ( [PATH] => Array ( ) ) [SECTION_URL] => [META_TAGS] => Array ( [TITLE] => «Докажите, что вы не робот»: все о роботах поисковых систем [ELEMENT_CHAIN] => «Докажите, что вы не робот»: все о роботах поисковых систем [BROWSER_TITLE] => «Докажите, что вы не робот»: все о роботах поисковых систем [KEYWORDS] => [DESCRIPTION] => ) )

Программы, действующие в поисковых системах — роботы, краулеры, пауки — существуют не сами по себе. Это важная часть механизма индексации сайта и один из ключевых способов указать на его существование во всемирной паутине. А значит, когда вы создаете страницу или работаете над ее оптимизацией, вы должны думать не только о том, какой ее увидит пользователь, но и о том, как она будет считываться ботами.

Поисковые боты — что это?

Программы-краулеры занимаются сканированием и индексацией сайтов. Задача робота — искать сайты, переходить по их страницам с помощью внутренних ссылок, собирать информацию и затем передавать ее на сервера поисковых систем. Это касается и новых, созданных недавно ресурсов, и старых страниц, на которых произошли изменения.

В дальнейшем эта информация, проанализированная и внесенная в базу, будет использоваться при выдаче сайта по запросам в браузере.

Алгоритм работы бота

«Пауки» обрабатывают веб-страницы по определенному алгоритму, который отличается от действий рядового пользователя.

Они переходят на сайт, сканируют первую страницу, сохраняют ее содержимое и переходят на следующую по внутренней ссылке, повторяя операцию. В том случае, если на портал не ведут внешние ссылки (или вы хотите ускорить процесс проверки), можно самостоятельно добавить сайт в очередь для индексирования.

Чтобы упростить и упорядочить работу программы, на сайт добавляются файлы robots.txt и XML Sitemap.

XML-карта сайта – файл формата XML, включающий ссылки на все страницы сайта, которые нужно посещать поисковому роботу. Это особенно важно для многостраничных порталов со сложной структурой, глубокой вложенностью и неоднозначной перелинковкой.

У файла robots.txt другая функция: он управляет действиями бота, ограничивая его посещения или глубину проникновения. Почему это бывает важно — мы поговорим чуть позже.

Основные поисковые роботы

У каждой поисковой системы есть свой набор «пауков», каждый из которых отвечает за ту или иную задачу.

Боты Яндекса

  • YandexBot – ключевой робот, выполняет индексацию.
  • YandexImages – работает с изображениями и графикой, добавляет их в индекс.
  • YandexMobileBot – помогает определить степень адаптации страницы для мобильных устройств.
  • YandexDirect – сканирует контент ресурсов-партнеров рекламной сети Яндекса.
  • YandexMetrika – привязан к сервису Яндекс.Метрика.
  • YandexMarket – то же самое для Яндекс.Маркета.
  • YandexNews – сканирует новостные материалы для добавления в Яндекс.Новости.
  • YandexScreenshotBot – работает со скриншотами документов.
  • YandexMedia – индексатор мультимедийных данных.
  • YandexVideoParser – робот Яндекс.Видео.
  • YandexPagechecker – отвечает за микроразметку.
  • YandexOntoDBAPI – программа-краулер объектного ответа, занимается скачиванием изменяющихся данных.
  • YandexAccessibilityBot – скачивает загруженные на сайт файлы, чтобы проверить, имеют ли к ним доступ посетители.
  • YandexSearchShop – работает с файлами формата Yandex Market Language, которые относятся к каталогам товаров.
  • YaDirectFetcher – собирает страницы, содержащие рекламу, чтобы проверить их доступность для посетителя и проанализировать тематику.
  • YandexirectDyn – отслеживает динамические баннеры.

Боты Google

  • Googlebot – ключевой индексатор содержимого страниц для ПК и мобильных устройств.
  • AdsBot-Google – отслеживает рекламу (и ее качество) на страницах, оптимизированных под ПК.
  • AdsBot-Google-Mobile – занимается тем же, но для мобильных страниц.
  • AdsBot-Google-Mobile-Apps – оценивает рекламу в приложениях для Android.
  • Mediaparnters-Google – собственный бот маркетинговой сети Google AdSense.
  • APIs-Google – юзер-агент пользователя APIs-Google для отправки пуш-уведомлений.
  • Googlebot-Video – индексирует видеоматериалы, размещенные в интернете.
  • Googlebot-Image – индексирует изображения на сайтах.
  • Googlebot-News – сканирует страницы с новостями и добавляет их в Google Новости.

Как узнать, что сайт посещали роботы?

Узнать, есть ли URL в индексе Яндекса или Google, можно с помощью сервисов Яндекс Вебмастер и Google Search Console соответственно.

Для поиска страницы в индексе Яндекса откройте отчёт «Страницы в поиске» в Яндекс.Вебмастер. Также можно открыть панель управления Вебмастера, перейти на страницу Индексирование, а затем – Статистика обхода. Обновление данных проводится ежедневно, результат будет отображен не позже, чем через 6 часов после посещения робота.

Еще один способ узнать, что поисковый паук посещал сайт – просмотреть логи сервера. Здесь хранится вся информация о тех, кто посещал ресурс: IP-адрес, история просмотра страниц, ответ, полученный на сайте.

Как управлять пауками?

Не всегда свободное перемещение поискового бота по страницам сайта — это хорошо. Есть случаи, когда их можно и нужно ограничивать:

  • слишком частые визиты могут создать нагрузку на сервер и замедлить работу ресурса;
  • на странице находится конфиденциальная информация — например, данные пользователей;
  • на странице находится малополезная информация — как правило, это служебные страницы и дубли.

Для того, чтобы заставить поисковых роботов посетить определенные страницы сайта, существуют специальные сервисы поисковых систем, называемые аддурилками (сленг., сокр. от англ. add url, или добавить адрес сайта).

Например, аддурилка Яндекса.

Добавление важных страниц в аддурилку позволит сократить сроки, необходимые для их индексации.

Хакерские атаки на сайт часто маскируются под визиты «пауков» - поэтому так важно их отслеживать и контролировать. Чтобы проверить, кто именно посещал сайт — настоящий робот поисковой системы или спамеры/хакеры, скопируйте IP-адрес, с которого был сделан запрос к сайту, в логах сервера хостинг-провайдера. Далее проверьте данный IP с помощью специализированного сервиса (например, MyIp). Адрес, указанный в строке IP Reverse DNS (Host), должен совпадать с исходным в логах сервера.

Для управления краулерами используются уже знакомые вам файлы: sitemap.xml и robots.txt.

  • Теги и в файле sitemap.xml позволяют установить частоту обновления и приоритет каждой страницы (соответственно). Например, для статичной страницы «О компании» можно снизить эти показатели без большого ущерба для продвижения, а вот раздел новостей или каталог товаров лучше индексировать вовремя.
  • Директива Disallow в файле robots.txt закроет определенные страницы для всех ботов — или только для некоторых из них. Скрывать стоит материалы, которые должны присутствовать на сайте, но могут помешать его SEO-продвижению.
  • При работе с файлом robots.txt стоит учесть, что закрытые страницы все равно могут попасть в индекс. Полностью исключить такую вероятность поможет метатег robots или доступ к материалам только после аутентификации.

Грамотно выстроенная работа с поисковыми роботами — одна из важных составляющих успешного продвижения вашего сайта в сети Интернет.




Вверх