9 отчетов в Screaming Frog и DeepCrawl

kermit-the-frog-ftr

Сделать полноценный аудит большого и сложного сайта невозможно без специальных программ, которые анализируют его.

Два наших любимых инструмента для анализа сайтов — это DeepCrawl и Screaming Frog. У обоих этих инструментов отличный функционал.

Обычно, мы используем DeepCrawl для корпоративных сайтов и Screaming Frog — для маленьких и средних сайтов. Также мы можем использовать оба этих инструмента, когда есть время провести более детальный анализ. Результат от комбинирования этих программ — DeepCrawl и Screaming Frog — получается лучше, чем если использовать их по отдельности.

Оба инструмента предоставляют ценные данные. И в этой статье мы расскажем, как на их основе составить серьезный отчет по SEO. Приступим.

Отчеты Screaming Frog

Оковы переадресации

Большинство SEOшников знают, что нужно перенаправлять пользователей со старых страниц на новые идентичные, когда сайт переделывают или он переезжает. Многие просто используют код состояния 301, и на этом всё. НЕ СОВЕРШАЙТЕ ЭТУ ОШИБКУ.

Код состояния 301 может вести к коду 200, что хорошо. Но он также может вести на ошибку 404, что плохо. Или он может вести на другой 301, и так пять раз. Или это может привести к ошибке приложения 500. Даже если вы прописали код 301, еще не значит, что все пойдет по плану после переадресации. Программа Screaming Frog укажет вам на эти ошибки.

В настройках обратите внимание на “Always Follow Redirects”, а затем проанализируйте все старые адреса (где идет переадресация).

hidden-reports-sf-redirect-chains-settings

Screaming Frog проверит переадресации и проложит полный путь: от начальной страницы до конечной 200, 301, 302, 404, 500 и т.п. Чтобы экспортировать отчет, нажмите на “Reports” в главном меню, а затем выберите Redirect Chains.

hidden-reports-sf-redirect-chains

В Excel вы увидите оригинальный адрес и адрес переадресации. Это очень важно, так как 301 страница, ведущая на 404 страницу, может являться причиной того, что вы потеряете позиции и трафик со страницы.

hidden-reports-sf-redirect-chains-excel

Небезопасный контент

Многие сайты переходят на протокол HTTPS, так как Google требует этого. Когда вы переходите на HTTPS, нужно проверить несколько элементов. Первый — несоответствие контента. Таким образом, вы передаете небезопасные элементы по безопасному урлу.

Если это правда, то появится следующая ошибка:

hidden-reports-sf-insecure-content-mismatch-error

Многие не знают, но программа Screaming Frog предоставляет отчет, в  котором показывается небезопасный контент. Снова, нажмите на “Reports” в главном меню и выберите “Insecure Content.” В отчете будет список ссылок с небезопасным контентом.

Как только вы перенесли сайт на протокол HTTPS, вы можете экспортировать отчет и передать данные разработчикам.

hidden-reports-sf-insecure-content

Канонические ошибки

Канонический тег урла — мощное средство, позволяющее определить, понимают ли поисковые системы ваши урлы. Это поможет вам избавиться от дуплицированного контента.

Но канонический тег урла также может разрушить SEO-продвижение с помощью одной строчки кода.  Это может стать причиной больших SEO проблем— например, канонизация целого сайта от домашних страниц до страниц с ошибками 404.

Существует много способов поправить тег rel=canonical, но проблема в том, что он лежит глубоко внутри. Тег незаметен невооруженным глазом, что делает его очень, очень опасным. Поэтому Screaming Frog предоставляет отчет о канонических ошибках, который поможет обнаружить эти проблемы быстро. Зайдите в “Reports” и выберите “Canonical Errors”.

hidden-reports-canonical-errors

После экспорта отчета вы сможете увидеть каждую каноническую ошибку, которую обнаружила программа Screaming Frog во время анализа. Вы будете шокированы от того, что обнаружите. Хорошая новость: вы сможете прислать отчет разработчику, чтобы он исправил ошибки.

hidden-reports-canonical-errors

Погружаясь на глубину с DeepCrawl

Нумерация: Первые страницы

Нумерация страниц присуща большим сайтам, особенно сайтам интернет-магазинов, где много категорий с товарами.

Проблемы с нумерацией страниц беспокоит многих SEOшников, которые часто жалуются, что они неправильно настроены.

DeepCrawl 1.9 (текущая версия) предоставляет несколько ценных отчетов, которые помогут вам решить эти проблемы. Например, когда вы анализируете большие и сложные сайты, нумерация страниц может уходить глубоко к корням сайта. Отчет “First Pages” покажет первые страницы в нумерации (ссылки, которые содержат тег a rel= “next”). Это поможет вам проследить все страницы, с которых начинается нумерация.

Чтобы найти отчеты в программе DeepCrawl, нажмите на вкладку “Content”, прокрутите вниз до Content Report. Скриншот отчета первых страниц.

hidden-reports-pagination-first-pages

Как только вы получили отчет о первых страницах с нумерацией, вы можете пойти дальше и узнать, правильно ли она настроена. Все ли страницы связаны друг с другом? Как насчет тега rel=canonical? Некоторые компоненты страниц не проиндексированы? Канонизированы ли они к первой странице?

Вы сможете найти ответы на все эти вопросы и даже больше. Но сначала нужно узнать обо всех пронумерованных страницах.

Нумерация страниц: Страницы без ссылок

Следующий шаг — проверить связанные друг с другом страницы, в которых есть теги next/prev, но они не ссылаются друг на друга. Например, урлы, которые содержат тег a rel next, должны быть связаны с другими компонентами на странице. Страницы с двумя тегами rel=”next” и rel=”prev” должны быть связаны и с предыдущей, и со следующей страницей. И так далее и тому подобное.

Если вы нашли теги rel next/prev без связанного урла, значит у вас проблемы. Может, вам нужно будет убрать унаследованный программный код. Может, ссылки на страницы не показываются в коде или на странице. Может, есть ошибка 404. Опять же, вы не узнаете, пока не проанализируйте сайт.

hidden-reports-pagination-unlinked-pages

Максимальное количество переадресаций

Как уже упоминалось раннее, если страница переадресовывается несколько раз — это нехорошо. И это может вредить SEO. Запомните, переадресация должна быть одна, на страницу назначения.

DeepCrawl выдает отчет о максимальном количестве переадресаций, в котором перечисляются все ссылки, которые переадресовываются более 4 раз. Это отличный способ просмотреть и проанализировать все урлы. Вы можете найти отчет Max Redirections в DeepCrawl, нажав вкладку “Validation” и прокрутить страницу вниз до “Other.”

hidden-reports-dc-max-redirections

Страницы с тегами hreflang (и без)

Hreflang — отличный способ связать урлы на различных языках вместе. Google сможет выдавать правильную версию страницу в поисковой выдаче в зависимости от языка пользователя.

Но ошибки встречаются и в тегах hreflang. Например, вы можете включить возвратные теги на страницах, ссылающиеся на другие страницы в кластере. Так, если “en” страница ссылается на  “es” страницу, тогда “es” страница должна ссылаться на “en” страницу. Пример ошибки “no return tags” в Google Search Console.

hidden-reports-hreflang-gsc-return-tags-b

Вдобавок, есть другие способы запороть теги  hreflang, указав неправильный язык или код страны. Важно, чтобы страница содержала тег  hreflang, но еще важнее, чтобы эти теги были установлены правильно.  

В программе DeepCrawl есть несколько отчетов о тегах hreflang. Например, отчет “Pages with hreflang Tags”. В нем указывается список страниц, которые содержат теги hreflang. Чтобы найти отчет, нажмите на вкладку “Validation” и прокрутите страницу вниз до “Other”.

Запомните, теги на странице легче собрать, если они есть в коде, но когда тег hreflang передается через заголовок отчета или в картах сайта, вы не сможете заметить его, просто просмотрев страницу. DeepCrawl предоставит эту информацию вам.

hidden-reports-dc-hreflang

Бонус: скоро выйдет новая версия DeepCrawl 2.0

Disallowed JS/CSS

Чтобы гугл бот правильно выдавал страницу, нужно находить правильные ресурсы (как CSS и JavaScript). Если все эти ресурсы заблокированы robots.txt, то Google не сможет корректно отдать страницу, как сделал бы обычный браузер. 

Используя Fetch, как в Google Search Console, и выбрав “fetch and render”, вы сможете проверить, правильно ли гугл бот отдает отдельные страницы.  Но что насчет проверки 50,000 страниц, 500,000 страниц, 1,000,000 страниц или больше? Что ж, для этого есть новый отчет в программе DeepCrawl 2.0, который перерабатывает неразрешенные ресурсы, как JavaScript и CSS, и это отличный способ узнать, какие ресурсы на сайте были заблокированы. И вы сможете быстро решить эту проблему.

hidden-reports-dc2-block-js-css

HTTP ресурсы на HTTPS

Существует много сайтов, перешедших на HTTPS. Но также существует много сайтов, который неправильно обрабатывают контент HTTP на HTTPS (ошибка несоответствия контента). DeepCrawl 2.0 поможет решить эту проблему. Как только вы перенесли ресурс с HTTP на HTTPS, вы сможете передать отчет об исправлении ошибок разработчикам.

hidden-reports-dc2-http-https

Следующие шаги: Проверяйте отчеты

Окей, сейчас вы можете составить 9 дополнительных отчетов. Они помогут вам решить многие проблемы при SEO-продвижении. Эти проблемы могут значительно влиять на позиции ранжирования. Поэтому анализируйте, проверяйте отчеты. Вы никогда не знаете, что найдете.

4 комментария

  1. Для проведения технического аудита сайта рекомендую посмотреть в сторону SiteAnalyzer — бесплатный аналог программ для аудита и технического анализа сайта. При этом по набору функций практически не уступает платным аналогам.

  2. На счёт Site Analyzer вы, конечно, загнули. Для бесплатного инструмента он хорош. Сам по началу пользовался, но, когда разобрался с Screaming Frog, то понял, что пока это для меня лучшее решение. Да, на английском. Для меня это не большая проблема. Да, платный. Скажем так, я нашёл выход )) И теперь моей радости нет предела. Очень рекомендую лягушку. Потенциал у программы бомбический.

  3. Статья была написана почти три года назад. В настоящее время повсеместно пользуемся Screaming Frog. Поддерживаем ваше мнение. Он прекрасен. :)

Оставьте ответ

Ваш e-mail не будет опубликован. Обязательные поля помечены *