SEO Log File Analyser – это анализатор лог-файлов, который позволяет загружать файлы журналов, проверять роботов поисковых систем, идентифицировать просканированные URL-адреса и анализировать данные/поведение поисковых роботов для получения бесценной информации о SEO. Что вы можете сделать с помощью SEO Log File Analyzer? Log File Analyzer – легкий, но чрезвычайно мощный инструмент, способный обрабатывать, хранить и анализировать миллионы строк данных о событиях файла журнала в интеллектуальной базе данных. Он собирает данные из ключевого файла журнала, чтобы позволить оптимизаторам принимать обоснованные решения.
Возможности:
Определить просканированные URL
Просматривайте и анализируйте, какие именно URL-адреса робот Google и другие поисковые роботы могут сканировать, когда и как часто.
Узнать частоту сканирования
Узнайте, какие поисковые роботы сканируют чаще всего, сколько URL сканируется каждый день и общее количество событий ботов.
Найти неработающие ссылки и ошибки
Узнайте все коды ответов, неработающие ссылки и ошибки, с которыми столкнулись поисковые роботы при сканировании вашего сайта.
Аудит перенаправления
Найдите временные и постоянные перенаправления, с которыми сталкиваются поисковые роботы, которые могут отличаться от тех, которые используются в браузере или при имитированном сканировании.
Улучшить бюджет сканирования
Проанализируйте свои наиболее и наименее просканированные URL-адреса и каталоги сайта, чтобы выявить потери и повысить эффективность сканирования.
Определить большие и медленные страницы
Просмотрите среднее количество загруженных байт и время, затраченное на выявление больших страниц или проблем с производительностью.
Найти неотсканированные и потерянные страницы
Импортируйте список URL-адресов и сопоставьте их с данными файла журнала, чтобы определить потерянные или неизвестные страницы или URL-адреса, которые робот Googlebot не сканировал.
Объединить и сравнить любые данные
Импортируйте и сопоставляйте любые данные в столбце «URL» с данными файла журнала. Поэтому импортируйте обходы, директивы или данные внешних ссылок для расширенного анализа.
Посмотреть
Скачать
Возможности:
Определить просканированные URL
Просматривайте и анализируйте, какие именно URL-адреса робот Google и другие поисковые роботы могут сканировать, когда и как часто.
Узнать частоту сканирования
Узнайте, какие поисковые роботы сканируют чаще всего, сколько URL сканируется каждый день и общее количество событий ботов.
Найти неработающие ссылки и ошибки
Узнайте все коды ответов, неработающие ссылки и ошибки, с которыми столкнулись поисковые роботы при сканировании вашего сайта.
Аудит перенаправления
Найдите временные и постоянные перенаправления, с которыми сталкиваются поисковые роботы, которые могут отличаться от тех, которые используются в браузере или при имитированном сканировании.
Улучшить бюджет сканирования
Проанализируйте свои наиболее и наименее просканированные URL-адреса и каталоги сайта, чтобы выявить потери и повысить эффективность сканирования.
Определить большие и медленные страницы
Просмотрите среднее количество загруженных байт и время, затраченное на выявление больших страниц или проблем с производительностью.
Найти неотсканированные и потерянные страницы
Импортируйте список URL-адресов и сопоставьте их с данными файла журнала, чтобы определить потерянные или неизвестные страницы или URL-адреса, которые робот Googlebot не сканировал.
Объединить и сравнить любые данные
Импортируйте и сопоставляйте любые данные в столбце «URL» с данными файла журнала. Поэтому импортируйте обходы, директивы или данные внешних ссылок для расширенного анализа.
Посмотреть
Скачать