Битые страницы
Показывает недоступные URL (например, из-за разрыва соединения, превышения времени ожидания ответа и др.) или адреса страниц, которые возвращают код ответа сервера 4хх и выше. Чтобы посмотреть специальный отчёт именно по битым ссылкам, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Битые страницы — это URL, недоступные для пользователей и поисковых систем (например, они были удалены, сервер не может обработать запрос и т.д.).
Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.
Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.
Как исправить
Нужно удалить ссылки на битые страницы или заменить ссылками на доступные адреса. Чтобы увидеть ссылки на битые страницы, нужно нажать на кнопку «Отчёт по ошибке» над основной таблицей.
Если во время сканирования появляется много URL с кодом ответа 429, 5xx или тайм-аутом — возможно, страницы стали недоступны из-за большой нагрузки на сайт. В таком случае нужно остановить сканирование, в настройках уменьшить количество потоков, установить интервал между запросами или использовать список прокси, после чего продолжить сканирование. Когда сканирование будет завершено, нужно пересканировать недоступные URL: достаточно выделить URL в таблице и нажать сочетание клавиш Ctrl+R.
Полезные ссылки
- Отчет об индексировании страниц, support.google.com
- Как найти битые ссылки на сайте с помощью Netpeak Spider, netpeaksoftware.com
- Как снизить нагрузку на сайт от Netpeak Spider?, support.netpeaksoftware.com
4xx ошибки: Client Error
Показывает URL, которые возвращают 4xx код ответа сервера.
Чем грозит
URL с 4xx кодом ответа входят в отчёт «Битые страницы», а также выделены в отдельный отчёт «4xx ошибки: Client Error», так как встречаются часто. Такой код ответа означает, что в запросе к серверу возникла ошибка (например, страницы нет на сайте, она удалена, или у пользователя нет прав для её посещения).
Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.
Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.
Как исправить
Нужно удалить ссылки на URL с 4xx ошибками или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
Если во время сканирования появляется много URL с кодом ответа 429 — возможно, страницы стали недоступны из-за большой нагрузки на сайт. В таком случае нужно остановить сканирование, в настройках уменьшить количество потоков, установить интервал между запросами или использовать список прокси, после чего продолжить сканирование. Когда сканирование будет завершено, нужно пересканировать недоступные URL: достаточно выделить URL в таблице и нажать сочетание клавиш Ctrl+R.
Полезные ссылки
- Отчет об индексировании страниц, support.google.com
- Как найти битые ссылки на сайте с помощью Netpeak Spider, netpeaksoftware.com
- Как снизить нагрузку на сайт от Netpeak Spider?, support.netpeaksoftware.com
5xx ошибки: Server Error
Показывает URL, которые возвращают 5xx код ответа сервера.
Чем грозит
URL с 5xx кодом ответа входят в отчёт «Битые страницы», а также выделены в отдельный отчёт «5xx ошибки: Server Error», так как встречаются часто. Такой код ответа означает, что сервер не может обработать запрос.
Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.
Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. А появление URL с 5xx кодом ответа во время посещения сайта поисковым роботом может резко снизить скорость сканирования сайта, и важные для продвижения страницы могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.
Как исправить
Нужно определить причины недоступности URL: например, для них может быть неправильно настроен код ответа сервера. В таком случае необходимо изменить настройки URL так, чтобы страницы возвращали код ответа 200 ОК.
Если во время сканирования появляется много URL с 5xx кодами ответа — возможно, страницы стали недоступны из-за большой нагрузки на сайт. В таком случае нужно её снизить: остановить сканирование, в настройках уменьшить количество потоков и/или установить интервал между запросами, после чего продолжить сканирование. Когда сканирование будет завершено, нужно пересканировать недоступные URL: достаточно выделить URL в таблице и нажать сочетание клавиш Ctrl+R.
Полезные ссылки
- Что такое 500 ошибка сервера, и как её исправить, netpeaksoftware.com
- Как легко проверить код ответа сервера? Понятно о HTTP status code, netpeaksoftware.com
- Как снизить нагрузку на сайт от Netpeak Spider?, support.netpeaksoftware.com
Ссылки с неправильным форматом URL
Показывает страницы, содержащие ссылки с неправильным форматом URL. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
URL с неправильным форматом не могут открыть ни пользователи, ни поисковые роботы, так как адрес недействителен.
Переходя по неработающим ссылкам, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.
Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. В итоге сайт может потерять поисковый трафик.
Как исправить
Чаще всего ошибка возникает из-за опечаток (ошибки в написании протокола, неверное начертание символа «/» и т.д.) или лишних символов в адресах ссылок.
Чтобы определить, в каких ссылках используется неправильный формат URL, достаточно нажать на кнопку «Отчёт по ошибке» над основной таблицей. Эти ссылки нужно исправить (чтобы они вели на доступные адреса) или удалить из кода страниц.
Полезные ссылки
Дубликаты страниц
Показывает полные дубли индексируемых страниц по всему HTML-коду страницы. В этом отчёте все URL сгруппированы по параметру «Хеш страницы».
Чем грозит
Дубликаты страниц появляются, когда одна и та же страница доступна по нескольким адресам. Например адреса c/без www, на разных протоколах (http/https), с/без знака «/» в конце и т.д.
Поисковым системам сложно определить, какой адрес среди дубликатов добавить в свою базу и показывать в поиске. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.
Большие сайты могут особенно пострадать от дубликатов: у поисковых роботов может не хватить ресурсов сканирования на целевые страницы, так как они были потрачены на неприоритетные. В итоге многие важные страницы могут не попасть в поисковую базу, и сайт потеряет трафик. А если дубликатов страниц особенно много, поисковые системы могут понизить позиции всего сайта (например, так работает алгоритм Google Panda).
Как исправить
Нужно определить основной URL среди дубликатов и настроить с них 301 редирект на этот URL. Для бесполезных URL (например, /index.php и /index.html) также можно настроить 404 или 410 код ответа сервера. При этом важно помнить, что на сайте не должно быть ссылок на редиректы и недоступные страницы.
Если не получается исключить дубликаты адресов предыдущими способами, или эти URL нужны на сайте (например, адреса с метками для веб-аналитики), укажите для них основной URL с помощью тега <link rel="canonical"> или HTTP-заголовка «Link: rel="canonical"».
Полезные ссылки
- Нормализация URL копий страниц и использование тега canonical, support.google.com
- Нормализация URL копий страниц и использование тега canonical, support.google.com
- Как найти дубли на сайте, blog.ringostat.com
- Что такое внутренние дубли страниц и как с ними бороться, netpeak.net
Дубликаты текста
Показывает дубликаты индексируемых страниц по текстовому содержимому блока <body>. В этом отчёте все URL сгруппированы по параметру «Хеш текста».
Чем грозит
Поисковые системы могут посчитать дубликатами страницы, у которых дублируется текст в блоке <body>, даже если содержимое блока <head> (например, <title>, <meta name='description'>) у них отличается.
Поисковым системам сложно определить, какой адрес среди дубликатов добавить в свою базу и показывать в поиске. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.
Большие сайты могут особенно пострадать от дубликатов: у поисковых роботов может не хватить ресурсов сканирования на целевые страницы, так как они были потрачены на неприоритетные. В итоге многие целевые страницы могут не попасть в поисковую базу, и сайт потеряет трафик. А если дубликатов страниц особенно много, поисковые системы могут понизить позиции всего сайта (например, так работает алгоритм Google Panda).
Как исправить
Необходимо сделать контент важных для продвижения страниц уникальным. А для неважных страниц настроить 301 редирект на основной URL (рекомендуется) или удалить их (настроить 404 или 410 код ответа). При этом важно помнить, что на сайте не должно быть ссылок на редиректы и недоступные страницы.
Если не получается исключить дубликаты адресов предыдущими способами, или эти URL нужны на сайте (например, адреса с метками для веб-аналитики), укажите для них основной URL с помощью тега <link rel="canonical" /> или HTTP-заголовка «Link: rel="canonical"».
Полезные ссылки
- Нормализация URL копий страниц и использование тега canonical, support.google.com
- Нормализация URL копий страниц и использование тега canonical, support.google.com
- Как найти дубликаты с помощью Netpeak Spider, netpeaksoftware.com
- Что такое внутренние дубли страниц и как с ними бороться, netpeak.net
Содержит Lorem ipsum
Показывает страницы, текст которых содержит словосочетание «Lorem ipsum».
Чем грозит
«Lorem ipsum» — шаблонный текст, который зачастую используют в макете страницы на этапе разработки. Иногда после публикации нового сайта или отдельных страниц его забывают заменить. Так как этот текст не несёт ценности для пользователей, поисковые системы могут воспринимать страницу с ним как низкокачественную и хуже ранжировать в результатах поиска.
Как исправить
Заменить шаблонный текст на контент, релевантный для страницы.
Полезные ссылки
- Lorem ipsum, ru.wikipedia.org
Дубликаты title
Показывает индексируемые страницы с дублирующимися тегами <title>. В этом отчёте все URL сгруппированы по параметру «Title».
Чем грозит
Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска. Теги title у разных страниц дублируются, если их содержание идентично. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты title генерируются автоматически по некачественным шаблонам.
Если у многих страниц title идентичен, поисковым системам сложно определить, какую страницу среди дубликатов показывать в поиске. Когда такие страницы отображаются рядом в выдаче, пользователям будет сложно различить страницы с идентичными заголовками и решить, на какую перейти. Потому страницы с дублирующимися title могут конкурировать за позиции между собой или вовсе не показываться в результатах поиска по важным ключевым словам.
Если title дублируется и не соответствует странице, поисковая система также может сама составить заголовок результата поиска, и он может оказаться неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.
Как исправить
Нужно составить для каждой страницы уникальный (в пределах сайта) title, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 140 символов.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- Что такое тег title, и как его правильно составить, netpeaksoftware.com
- (StatusCode = 403), moz.com
Дубликаты description
Показывает индексируемые страницы с дублирующимися тегами <meta name="description" />. В этом отчёте все URL сгруппированы по параметру «Description».
Чем грозит
Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.
Метатеги description у разных страниц дублируются, если их содержание идентично. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты description генерируются автоматически по некачественным шаблонам.
Когда страницы с дубликатами description отображаются рядом в выдаче, пользователям будет сложно различить страницы с идентичными описаниями и решить, на какую перейти. К тому же если description дублируется и плохо соответствует поисковому запросу для текущей страницы, поисковые системы могут самостоятельно изменить её описание в поиске исходя из текста на странице, и оно может оказаться неуместным и неинтересным для пользователей.
Всё это может отрицательно повлиять на кликабельность страницы в поиске и, соответственно, на трафик.
Как исправить
Нужно составить для каждой страницы уникальный (в пределах сайта) description, который будет ёмко описывать её контент, содержать целевые ключевые слова, а также побуждать пользователя перейти на сайт. Он должен быть кратким и информативным: оптимальная длина — от 100 до 160 символов.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- (StatusCode = 403), moz.com
Дубликаты H1
Показывает индексируемые страницы с дублирующимися заголовками <h1>. В этом отчёте все URL сгруппированы по параметру «Содержимое H1».
Чем грозит
Заголовок H1 — это важный элемент поисковой оптимизации. Он помогает пользователям понять содержание страницы при посещении сайта.
Теги H1 у разных страниц дублируются, если их содержание идентично. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты H1 генерируются автоматически по некачественным шаблонам.
Если заголовок H1 дублируется, он может неполно раскрывать суть и не соответствовать содержанию своей страницы — в таком случае пользователи и поисковые системы могут посчитать сайт некачественным. В итоге он может потерять поисковый трафик.
Как исправить
Нужно составить для каждой страницы уникальный (в пределах сайта) заголовок H1, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 3 до 7 слов.
Также рекомендуется, чтобы на странице был только один заголовок H1, не дублирующий содержимое тега <title>.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Headings SEO checklist 2023, hobo-web.co.uk
- How to Create the Perfect H1 Tag for SEO, neilpatel.com
Отсутствующий или пустой title
Показывает индексируемые страницы с отсутствующим или пустым тегом <title>.
Чем грозит
Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска.
Если у страницы title пустой или отсутствует, поисковым системам сложнее понять содержание страницы и оценить её релевантность целевым ключевым словам. В таком случае поисковая система сама составит заголовок результата поиска исходя из текста на странице, и он может оказаться неуместным и неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.
Как исправить
Если тег <title> отсутствует в коде страницы, необходимо проверить настройки сайта и включить добавление тега на страницы сайта.
Для каждой страницы нужно составить уникальный (в пределах сайта) title, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 140 символов.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- Что такое тег title, и как его правильно составить, netpeaksoftware.com
- (StatusCode = 403), moz.com
Отсутствующий или пустой description
Показывает индексируемые страницы с отсутствующим или пустым тегом <meta name="description" />.
Чем грозит
Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.
Если description страницы отсутствует, поисковые системы могут самостоятельно изменить её описание в поиске исходя из текста на странице, и оно может оказаться неуместным и неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.
Как исправить
Если тег <meta name="description" /> отсутствует в коде страницы, необходимо проверить настройки сайта и включить добавление тега на страницы сайта.
Для каждой страницы нужно составить уникальный (в пределах сайта) description, который будет ёмко описывать её контент, содержать целевые ключевые слова, а также побуждать пользователя перейти на сайт. Он должен быть кратким и информативным: оптимальная длина — от 100 до 160 символов.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- (StatusCode = 403), moz.com
Битый редирект
Показывает адреса страниц, возвращающие перенаправление на недоступные URL (например, из-за разрыва соединения, превышения времени ожидания ответа и др.) или URL, которые возвращают код ответа сервера 4хх или выше.
Чем грозит
Битый редирект равносилен битой ссылке — перенаправляет на URL, недоступные для пользователей и поисковых систем (например, они были удалены, сервер не может обработать запрос и т.д.).
Попадая на такие URL, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.
Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.
Как исправить
Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
После этого нужно перепроверить настройки каждого перенаправления: возможно, были допущены ошибки в конечном URL редиректа, потому он недоступен. Если же редирект настроен правильно, возможно, его конечный URL удалён. В таком случае нужно исправить недоступный адрес или настроить для него код ответа 200 OK.
Полезные ссылки
- Отчет об индексировании страниц, support.google.com
- Redirects: Which Redirect Code to Use and How to Set It Up, netpeaksoftware.com
Редиректы с неправильным форматом URL
Показывает адреса страниц, возвращающие перенаправление с неправильным форматом URL в HTTP-заголовках ответа сервера.
Чем грозит
Редирект с неправильным форматом URL равносилен битой ссылке — перенаправляет на ошибочные адреса, недоступные для пользователей и поисковых систем.
Попадая на такие URL, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.
Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.
Как исправить
Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
После этого нужно перепроверить настройки каждого перенаправления и исправить ошибки в конечном URL редиректа.
Полезные ссылки
- Переадресация и Google Поиск, support.google.com
- Redirects: Which Redirect Code to Use and How to Set It Up, netpeaksoftware.com
Бесконечный редирект
Показывает адреса страниц, которые перенаправляют в итоге сами на себя, образуя тем самым бесконечный редирект.
Чем грозит
Бесконечный редирект равносилен битой ссылке — перенаправляет на свой же адрес (сразу или по цепочке редиректов), а это ведёт к бесконечному циклу перенаправлений. Браузеры и поисковые системы воспринимают это перенаправление как недоступный адрес.
Попадая на такие URL, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.
Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.
Как исправить
Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
После этого нужно перепроверить настройки каждого перенаправления и убрать редиректы или цепочки редиректов, которые ведут к начальному URL.
Полезные ссылки
- Переадресация и Google Поиск, support.google.com
- Google Has Issues Crawling Recursive Redirects, seroundtable.com
Макс. количество редиректов
Показывает адреса страниц с более чем 4 редиректами (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Цепочка редиректов образуется, когда несколько URL поочередно перенаправляют пользователя. Например, цепочка из двух перенаправлений выглядит так: URL 1 → URL 2 → URL 3.
Длинные цепочки переадресации приводят к тому, что страницы загружаются медленнее, из-за чего пользователи могут посчитать сайт некачественным и покинуть его.
Также длинные цепочки редиректов затрудняют сканирование сайта поисковыми роботами, из-за чего могут возникнуть сложности с добавлением страниц в поисковую базу. Если цепочка содержит более 5 перенаправлений, то бот Google вообще не сканирует конечный URL. В итоге сайт может получить низкие позиции в поиске и потерять поисковый трафик.
Как исправить
Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
После этого нужно настроить перенаправление сразу на конечный URL без цепочек: например, вместо цепочки URL 1 → URL 2 → URL 3 сделать перенаправления URL 1 → URL 3 и URL 2 → URL 3. Специальный отчёт «Цепочки редиректов» покажет все такие цепочки: достаточно нажать в меню «Экспорт» → «Отчёты по ошибкам» → «Цепочки редиректов».
Полезные ссылки
- Переадресация и Google Поиск, support.google.com
- Is there a limit to how many 301 (Permanent) redirects I can do on a site?, youtu.be
Редирект, заблокированный в robots.txt
Показывает адреса страниц, возвращающие перенаправление на URL, который заблокирован в файле robots.txt. Обратите внимание: в отчёте будут отображены все URL из цепочки редиректов, которые ведут на заблокированный адрес. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Редирект, заблокированный в robots.txt, возникает, когда первый URL доступен для сканирования, а конечный адрес редиректа или любой другой URL в цепочке перенаправления закрыты. В таком случае поисковый робот переходит по ссылке, но не может продолжить сканирование, потому что попадает на заблокированный для него адрес.
Такие перенаправления отрицательно влияют на сканирование сайта поисковыми роботами и расходуют ссылочный вес. Из-за этого важные страницы сайта могут получить меньше ссылочного веса и меньший приоритет для поискового робота → следовательно, реже сканироваться, получать низкие позиции в поиске и приносить меньше трафика, чем могли бы.
Как исправить
Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
После этого нужно перепроверить настройки перенаправления: возможно, были допущены ошибки в конечном URL редиректа. Если ошибки нет, стоит закрыть в robots.txt начальный URL редиректа, чтобы поисковый робот не заходил на него.
Полезные ссылки
- Переадресация и Google Поиск, support.google.com
- Redirects: Which Redirect Code to Use and How to Set It Up, netpeaksoftware.com
Неиндексируемый канонический URL
Показывает страницы, у которых указана ссылка на неиндексируемый URL в теге <link rel="canonical" /> или HTTP-заголовке «Link: rel="canonical"».
Чем грозит
Когда страница доступна по нескольким адресам, или же на сайте существует несколько страниц с похожим контентом, поисковые системы рекомендуют указывать с помощью тега <link rel="canonical" /> или HTTP-заголовка «Link: rel="canonical"», какой URL нужно считать главным и показывать в поиске. Таким образом поисковые роботы не будут расходовать свои ресурсы на сканирование повторяющихся или неважных страниц.
Если канонический URL указывает на неиндексируемую страницу, то он будет проигнорирован поисковыми системами. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.
Обратите внимание: canonical — это рекомендация для поисковых роботов, а не строгое правило. Также его следует использовать только для очень похожих по контенту страниц, в противном случае он может быть проигнорирован.
Как исправить
Нужно заменить неиндексируемые канонические URL адресами индексируемых страниц.
Полезные ссылки
- Нормализация URL копий страниц и использование тега canonical, support.google.com
Цепочка канонических URL
Показывает страницы, которые начинают цепочку канонических URL (когда в каноническом URL указан адрес страницы, которая ссылается в <link rel="canonical" /> или HTTP-заголовке «Link: rel="canonical"» на другой URL) или участвуют в ней. Чтобы посмотреть подробную информацию, откройте дополнительную таблицу «Canonical» в меню «База данных».
Чем грозит
Канонический URL, который участвует в цепочке (к примеру, URL 1 → URL 2 → URL 3) и указывает на неканонический URL, может не учитываться поисковым роботом при сканировании сайта. Это может привести к появлению дубликатов на сайте и, как следствие, к потере трафика.
Как исправить
Необходимо установить в теге <link rel="canonical" /> или HTTP-заголовке «Link: rel="canonical"» адреса страниц, которые в свою очередь не ссылаются в этом теге или заголовке на другие URL.
Чтобы определить URL, которые участвуют в цепочке канонических URL, достаточно нажать в меню «Экспорт» → «Отчёты по ошибкам» → «Цепочки канонических URL» и экспортировать этот отчёт.
Полезные ссылки
- Нормализация URL копий страниц и использование тега canonical, support.google.com
Битые изображения
Показывает недоступные изображения (например, из-за разрыва соединения, превышения времени ожидания ответа и др.) или изображения, которые возвращают код ответа сервера 4xx или выше. Обратите внимание, что для определения этой ошибки должна быть включена проверка изображений на вкладке «Основные» в настройках сканирования. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Битые изображения могут появиться, когда файлы изображений удалены или недоступны (URL возвращает 5хх код ответа или другие ошибки сервера).
Эти изображения не отображаются на странице, и пользователь видит вместо них пустые участки, а потому может посчитать сайт некачественным и покинуть его. Также это отрицательный сигнал качества сайта для поисковых систем, что может привести к снижению позиций в поиске и потере трафика.
Как исправить
Необходимо заменить битые изображения на доступные или удалить их из кода страниц. Чтобы определить страницы с битыми изображениями, достаточно нажать на кнопку «Отчёт по ошибке» над основной таблицей.
Изображения также могут быть недоступными из-за большой нагрузки на сайт во время сканирования. В таком случае надо снизить нагрузку (уменьшить количество потоков и установить интервал между запросами в настройках сканирования), завершить сканирование и пересканировать недоступные URL (выделить их в таблице и нажать сочетание клавиш Ctrl+R).
Полезные ссылки
- Отчет об индексировании страниц, support.google.com
- Fast load times, developers.google.com
- Как снизить нагрузку на сайт от Netpeak Spider?, support.netpeaksoftware.com
Ссылки на localhost
Показывает страницы с исходящими ссылками, которые ведут на адреса 127.0.0.1 или localhost. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Localhost — зарезервированное название для хоста текущего компьютера. Ему соответствует IP адрес 127.0.0.1. Ссылки на такой хост используются во время разработки сайта, а потом заменяются на основной хост.
Ссылки на адреса с localhost могут остаться после публикации сайта с локального окружения разработчика. Они недоступны для пользователей и поисковых систем. Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.
Когда на сайте много ссылок на недоступные адреса, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование недоступных адресов, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.
Как исправить
Нужно заменить ссылки на localhost ссылками на доступные адреса. Чтобы увидеть ссылки на битые страницы, нужно нажать на кнопку «Отчёт по ошибке» над основной таблицей.
Полезные ссылки
- localhost, ru.wikipedia.org
PageRank: висячий узел
Показывает HTML-страницы, которые были определены алгоритмом расчёта внутреннего PageRank как «висячие узлы». Это страницы, на которые ведут ссылки, но на них самих отсутствуют исходящие ссылки, либо они закрыты от роботов инструкциями по сканированию.
Чем грозит
Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес). Если у страницы нет исходящих ссылок, или роботам запрещено их учитывать, то она не сможет передать ссылочный вес другим страницам сайта. В результате из-за таких «висячих узлов» полезные страницы могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.
Как исправить
Ссылки на недоступные URL (например, из-за разрыва соединения, превышения времени ожидания ответа и др.) или URL, которые возвращают код ответа сервера 4хх или выше, необходимо убрать с сайта или заменить на доступные.
Если это возможно, уменьшить количество ссылок на внутренние страницы с директивой «nofollow» в Meta Robots или X-Robots-Tag. Чтобы увидеть входящие ссылки на «висячие узлы», достаточно нажать комбинацию клавиш Shift+F1.
Полезные ссылки
- Netpeak Spider: Внутренний PageRank от А до Я, netpeaksoftware.com
- The Current State of Google PageRank & How It Evolved, ahrefs.com
Страницы без внутренних ссылок
Показывает HTML-страницы, на которые ведут ссылки, но на них самих отсутствуют исходящие внутренние ссылки.
Чем грозит
Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес). Если у страницы нет исходящих ссылок, она не сможет передать ссылочный вес другим страницам сайта. Чаще всего это происходит, когда страницы ещё не оптимизированы и генерируются автоматически по некачественным шаблонам.
В результате из-за таких тупиковых страниц полезные могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.
Как исправить
На всех целевых страницах сайта необходимо добавить исходящие внутренние ссылки.
Важно убедиться, что HTML-страницы являются полноценными страницами с контентом. Неполноценные и созданные по ошибке страницы нужно удалить (настроить 404 или 410 код ответа) и убрать с сайта все ссылки на них. Чтобы увидеть входящие ссылки на страницы без ссылок, достаточно нажать комбинацию клавиш Shift+F1.
Полезные ссылки
- 8 Tips on Internal Linking for Better SEO, netpeaksoftware.com
- Как оптимизировать внутренние ссылки, serpstat.com
Неправильный формат AMP HTML
Показывает AMP HTML документы, которые не соответствуют стандартам по документации AMP Project. Обратите внимание, к каждой AMP HTML странице предъявляется минимум 8 требований по оформлению.
Чем грозит
AMP-страницы с неправильным форматом не будут обработаны поисковыми системами, не отобразятся в поисковой выдаче и не принесут трафик.
Как исправить
Необходимо привести AMP-страницы к требуемому формату.
Полезные ссылки
- Спецификация AMP HTML, amp.dev
- Технология AMP: что это, и как её реализовать, netpeaksoftware.com
Содержит Flash
Показывает страницы, HTML код которых содержит элементы с расширением .swf или скрипты с названием «SWFObject».
Чем грозит
Flash — это устаревшая и небезопасная технология. Большинство браузеров не поддерживает или блокирует элементы flash, потому пользователи не увидят контент внутри этих элементов.
Как исправить
Удалить со страниц любой код, который вызывает или использует flash.
Полезные ссылки
- Webmaster Central Blog, webmasters.googleblog.com
- Adobe Flash Player EOL General Information Page, adobe.com
Hreflang: отсутствует ссылка на текущий URL
Показывает HTML-страницы или PDF-файлы, у которых в теге <link rel="alternate" /> или HTTP-заголовке «Link: rel="alternate"» есть ссылки с атрибутом hreflang на другие страницы, но при этом нет ссылки на текущий URL.
Чем грозит
Инструкция hreflang позволяет указать поисковым системам локализованные версии страницы. Это один из сигналов в региональном ранжировании результатов поиска.
Поисковые системы рекомендуют указывать ссылку с инструкцией hreflang на текущий URL. Отсутствие такой ссылки может привести к неверному определению языка или региона поисковой системой и, соответственно, к низким позициям в результатах регионального поиска и потере трафика.
Как исправить
На каждой странице с ошибкой необходимо указать ссылку с инструкцией hreflang на текущий URL. Если на анализируемом сайте все инструкции осознанно внедрены без ссылки на текущий URL, тогда ошибку можно проигнорировать.
Полезные ссылки
- Как отправить локализованные версии страниц в Google, support.google.com
- (TODO:H1), youtube.com
Hreflang: неверные языковые коды
Показывает HTML-страницы или PDF-файлы, у которых в теге <link rel="alternate" /> или HTTP-заголовке «Link: rel="alternate"» есть hreflang-ссылки с языковым кодом, не соответствующим стандартам ISO 639-1, ISO 3166-1 Alpha 2 и ISO 15924. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Инструкция hreflang позволяет указать поисковым системам локализованные версии страницы. Это один из сигналов в региональном ранжировании результатов поиска.
Инструкции с языковым кодом (может указывать на язык и регион), который не соответствует стандартам, не будут обработаны поисковыми системами, а это может привести к низким позициям в результатах поиска и потере трафика.
Как исправить
На страницах с ошибкой нужно применить языковой код (может указывать на язык и регион), соответствующий стандартам ISO 639-1, ISO 3166-1 Alpha 2 и ISO 15924.
Полезные ссылки
- Как отправить локализованные версии страниц в Google, support.google.com
- List of ISO 639-1 codes, en.wikipedia.org
- ISO 3166-1 alpha-2, en.wikipedia.org
- ISO 15924, ru.wikipedia.org
Hreflang: относительные ссылки
Показывает HTML-страницы или PDF-файлы, у которых в теге <link rel="alternate" /> или HTTP-заголовке «Link: rel="alternate"» есть относительные ссылки с атрибутом hreflang. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Инструкция hreflang позволяет указать поисковым системам локализованные версии страницы. Это один из сигналов в региональном ранжировании результатов поиска.
Инструкции с относительными URL (например <link rel="alternate" hreflang="en" href="/page" />), не будут обработаны поисковыми системами, а это может привести к низким позициям в результатах поиска и потере трафика.
Как исправить
Заменить все относительные URL абсолютными. Например, <link rel="alternate" hreflang="en" href="/page" /> заменить на <link rel="alternate" hreflang="en" href="https://site.com/page" />.
Полезные ссылки
- Как отправить локализованные версии страниц в Google, support.google.com
Hreflang: дубликаты языковых кодов
Показывает HTML-страницы или PDF-файлы, у которых в теге <link rel="alternate" /> или HTTP-заголовке «Link: rel="alternate"» есть ссылки на несколько разных URL с одинаковым значением hreflang. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Инструкция hreflang позволяет указать поисковым системам локализованные версии страницы. Это один из сигналов в региональном ранжировании результатов поиска.
Несколько инструкций hreflang с одинаковыми языковыми кодами (могут указывать на язык и регион) и разными целевыми URL с большой вероятностью не будут учтены поисковыми системами, а это может привести к низким позициям в результатах поиска и потере трафика.
Как исправить
Нужно определить среди дубликатов основной целевой URL для конкретного языкового кода, а остальные удалить.
Полезные ссылки
- Как отправить локализованные версии страниц в Google, support.google.com
Hreflang: ссылки на неиндексируемые URL
Показывает HTML-страницы или PDF-файлы, у которых в теге <link rel="alternate" /> или HTTP-заголовке «Link: rel="alternate"» есть ссылки с атрибутом hreflang, указывающие на неиндексируемые URL. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей. Обратите внимание, что для определения этой ошибки должно быть включено сканирование Hreflang на вкладке «Продвинутые» в настройках сканирования.
Чем грозит
Инструкция hreflang позволяет указать поисковым системам локализованные версии страницы. Это один из сигналов в региональном ранжировании результатов поиска.
Ссылки на неиндексируемые URL в инструкции hreflang не будут учтены поисковыми системами, а это может привести к низким позициям в результатах поиска и потере трафика.
Как исправить
Необходимо удалить или заменить ссылки на неиндексируемые URL.
Полезные ссылки
- Как отправить локализованные версии страниц в Google, support.google.com
Hreflang: отсутствуют обратные ссылки
Показывает HTML-страницы или PDF-файлы, у которых есть исходящие ссылки с атрибутом hreflang, но при этом нет соответствующих входящих ссылок с этим атрибутом. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Инструкция hreflang позволяет указать поисковым системам локализованные версии страницы. Это один из сигналов в региональном ранжировании результатов поиска.
Если страница A ссылается на страницу B, то вторая страница должна содержать обратную ссылку на первую. В противном случае поисковые системы могут не прочесть или неправильно интерпретировать атрибуты, а это может привести к низким позициям в результатах поиска и потере трафика.
Как исправить
Добавить обратные ссылки с инструкцией hreflang на страницы, где они отсутствуют.
Полезные ссылки
- Как отправить локализованные версии страниц в Google, support.google.com
Hreflang: не совпадает языковой код обратных ссылок
Показывает HTML-страницы или PDF-файлы, у которых языковой код входящих hreflang-ссылок не совпадает с собственным значением языкового кода (параметр «Языковой код hreflang»). Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей. Обратите внимание, что для определения этой ошибки должно быть включено сканирование Hreflang на вкладке «Продвинутые» в настройках сканирования.
Чем грозит
Инструкция hreflang позволяет указать поисковым системам локализованные версии страницы. Это один из сигналов в региональном ранжировании результатов поиска.
Если страница A ссылается на страницу B, то вторая страница должна содержать обратную ссылку на первую. При этом, языковой код в обратной ссылке должен соответствовать языковому коду страницы A. Если языковые коды страницы и обратных ссылок на неё не совпадают, поисковая система может не учитывать такие инструкции, а это может привести к низким позициям в результатах поиска и потере трафика.
Как исправить
Исправить входящие ссылки с инструкцией hreflang, у которых языковой код не совпадает с языковым кодом целевой страницы.
Полезные ссылки
- Как отправить локализованные версии страниц в Google, support.google.com
Большое время ответа сервера
Показывает адреса страниц, у которых время получения первого байта от сервера превышает 500 мс (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Скорость загрузки — один из важных факторов ранжирования для поисковых систем: чем быстрее загружается страница, тем более высокую позицию в поиске она может получить.
Быстрая загрузка страницы повышает удобство сайта для пользователя и способствует увеличению конверсии. Если же страница загружается долго (особенно на мобильных устройствах, где скорость интернета ниже), пользователь может посчитать сайт некачественным и покинуть его.
Обратите внимание, что Netpeak Spider измеряет скорость ответа сервера — одну из весомых составляющих суммарной скорости загрузки страницы.
Как исправить
Существует масса причин низкой скорости ответа сервера: медленная логика приложений, медленные запросы к базе данных, отсутствие кеширования и т.д.
Необходимо оптимизировать скорость ответа сервера для страницы: она должна составлять максимум 500 миллисекунд. В этом может помочь настройка сервера, переход на более мощный хостинг и использование CDN для ускорения загрузки статических файлов.
Полезные ссылки
- Reduce server response times (TTFB), developers.google.com
- Chrome DevTools, developers.google.com
- Оптимизация скорости сайта: как уменьшить время ответа сервера, netpeak.net
Отсутствующий или пустой H1
Показывает индексируемые страницы с отсутствующим или пустым заголовком <h1>.
Чем грозит
Заголовок H1 — это важный элемент поисковой оптимизации. Он помогает пользователям и поисковым системам понять содержание страницы при посещении сайта.
Если у страницы H1 пустой или отсутствует — это упущенная возможность оптимизировать её с помощью целевых ключевых слов. Из-за этого страницы могут получать низкие позиции в поиске.
Как исправить
Нужно составить для каждой страницы уникальный (в пределах сайта) заголовок H1, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 3 до 7 слов.
Также рекомендуется, чтобы на странице был только один заголовок H1, не дублирующий содержимое тега <title>.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Headings SEO checklist 2023, hobo-web.co.uk
- How to Create the Perfect H1 Tag for SEO, neilpatel.com
Орфографические ошибки
Показывает URL, которые содержат слова с орфографическими ошибками в одном или нескольких текстовых блоках (title, description, заголовки, атрибуты alt изображений, весь текст в блоке <body></body>).
Чем грозит
Пользователи и поисковые системы могут воспринимать контент низкокачественным. Также может снизиться релевантность текста важным ключевым словам, и соответственно снизится трафик из поиска.
Как исправить
Исправить ошибки в словах.
Обратите внимание, некоторые слова могут быть написаны правильно, но считаться ошибочными, потому что отсутствуют в словаре Windows. Такие слова нужно добавить в пользовательский словарь Windows (с помощью пункта «Добавить в пользовательский словарь Windows» в контекстном меню таблицы «Орфографические ошибки» внутренней базы данных) или в игнор-список в настройках сканирования. Начиная со следующего сканирования эти слова больше не будут считаться ошибочными.
Полезные ссылки
- Как найти орфографические ошибки на всём сайте, support.netpeaksoftware.com
Мин. размер контента
Показывает индексируемые страницы с менее чем 500 символов (по умолчанию) в блоке <body> (без HTML-тегов). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Поисковые системы используют в основном текстовый контент для определения соответствия веб-страницы поисковым запросам. Часто страницы с бóльшим количеством текста находятся выше в поиске, так как лучше раскрывают тему.
Обычно на страницах недостаточно текстового контента, когда они ещё не оптимизированы и генерируются автоматически по некачественным шаблонам. Зачастую они очень похожи или вовсе дублируются, а также могут содержать недостаточно релевантных ключевых фраз.
Также поисковые системы могут посчитать некачественными страницы, большую часть текста на которых составляет шаблон вёрстки (меню, хедер, футер), из-за чего их позиции в поиске понизятся.
Как исправить
Необходимо наполнить важные страницы достаточным объёмом полезного текстового контента, который наиболее полно раскрывает тему релевантных ключевых слов.
Полезные ссылки
- What is the Optimal Content Length? – Here’s What the Science Says, torquemag.io
- Google: Short Content Is Not Low Quality Content, seroundtable.com
- SEO ТЕКСТЫ для ИНТЕРНЕТ МАГАЗИНА? Написание сео текстов? Серьезно?, youtube.com
Изображения без атрибута alt
Показывает индексируемые страницы, содержащие изображения с отсутствующим или пустым атрибутом alt. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Атрибут alt используется для ранжирования изображений в поиске по картинкам, потому что помогает поисковым роботам определить, что изображено на картинке. Также правильно оптимизированные атрибуты alt у изображений положительно влияют на ранжирование HTML-страниц, где они размещены.
К тому же если изображение не удалось загрузить, или в браузере отключена загрузка изображений, пользователь увидит текст атрибута alt, а не просто пустой участок на странице.
Отсутствие alt в тегах изображений — это упущенная возможность текстовой оптимизации самих изображений и страниц, где те размещены. Для страниц, где основной контент — это изображения, использование атрибута alt критически важно.
Как исправить
Каждому важному изображению на сайте необходимо добавить атрибут alt, который будет кратко и ёмко описывать, что на нём изображено, и содержать релевантные ключевые слова.
Чтобы увидеть ссылки на изображения без атрибута alt, нужно нажать на кнопку «Отчёт по ошибке» над основной таблицей.
Полезные ссылки
- Рекомендации по поисковой оптимизации контента для Google Картинок, support.google.com
- Как оптимизировать изображения, netpeaksoftware.com
Макс. размер изображения
Показывает адреса изображений, размер которых превышает 100 Кбайт (определяется по HTTP-заголовку Content-Length). Для определения этой ошибки должен быть включён анализ изображений в настройках сканирования на вкладке «Основные». Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Изображения с большим весом загружаются медленнее и тем самым снижают скорость загрузки страницы. Если же страница загружается долго (особенно на мобильных устройствах, где скорость интернета ниже), пользователь может посчитать сайт некачественным и покинуть его.
Как исправить
Для фотографий необходимо использовать оптимальный растровый формат (JPEG, PNG, GIF) со сжатием без потери качества; для остальных изображений (например, логотипов, иллюстраций) — векторный формат. Для современных браузеров рекомендуется передавать изображения в форматах WebP или JPEG XR.
Также нужно загружать изображение с таким же размером, как HTML-блок, в котором оно выводится. Так браузер не будет тратить время на загрузку избыточных данных.
Оптимальный размер изображения — до 100 Кбайт.
Полезные ссылки
- Fast load times, developers.google.com
- Рекомендации по поисковой оптимизации контента для Google Картинок, support.google.com
- Как оптимизировать изображения, netpeaksoftware.com
- Полный гайд по оптимизации картинок на сайте, serpstat.com
3xx редиректы: Redirection
Показывает URL, которые возвращают перенаправление с 3xx кодом ответа сервера.
Чем грозит
Ссылки на URL с редиректами плохо влияют на пользовательский опыт, так как увеличивают время загрузки страниц (особенно на мобильных устройствах, где скорость интернета ниже). К тому же, если пользователь часто попадает не на тот URL, на который ожидал перейти, он может посчитать сайт некачественным и покинуть его.
Большие сайты могут особенно пострадать от редиректов: у поисковых роботов может не хватить ресурсов сканирования на целевые страницы, так как они были потрачены на лишние переходы во время посещения сайта. В итоге многие важные страницы могут не попасть в поисковую базу, и сайт потеряет трафик.
Как исправить
Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
Полезные ссылки
- Переадресация и Google Поиск, support.google.com
- Руководство по редиректам: как их обнаружить и настроить, netpeaksoftware.com
Цепочка редиректов
Показывает URL с цепочками перенаправлений (более 1 редиректа).
Чем грозит
Цепочка редиректов образуется, когда несколько URL поочередно перенаправляют пользователя. Например, цепочка из двух перенаправлений выглядит так: URL 1 → URL 2 → URL 3.
Длинные цепочки переадресации приводят к тому, что страницы загружаются медленнее (особенно на мобильных устройствах, где скорость интернета ниже), из-за чего пользователи могут посчитать сайт некачественным и покинуть его.
Также длинные цепочки редиректов затрудняют сканирование сайта поисковыми роботами, из-за чего могут возникнуть сложности с добавлением страниц в поисковую базу. Если цепочка содержит более 5 перенаправлений, то бот Google вообще не сканирует конечный URL. В итоге сайт может получить низкие позиции в поиске и потерять поисковый трафик.
Как исправить
Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
После этого нужно настроить перенаправление сразу на конечный URL без цепочек: например, вместо цепочки URL 1 → URL 2 → URL 3 сделать перенаправления URL 1 → URL 3 и URL 2 → URL 3. Специальный отчёт «Цепочки редиректов» покажет все такие цепочки: достаточно нажать в меню «Экспорт» → «Отчёты по ошибкам» → «Цепочки редиректов».
Полезные ссылки
- Переадресация и Google Поиск, support.google.com
- Is there a limit to how many 301 (Permanent) redirects I can do on a site?, youtu.be
Refresh редирект
Показывает адреса страниц, которые содержат директиву refresh в HTTP-заголовках ответа сервера или тег <meta http-equiv="refresh" /> в блоке <head>, указывающие на другой URL.
Чем грозит
Refresh направляет пользователя на новый (или тот же) URL через определённый период времени.
Не рекомендуется использовать этот метатег (или директиву) как способ переадресации (вместо 3хх серверных редиректов): он поддерживается не всеми браузерами, сильно замедляет скорость загрузки страницы и может вводить пользователей в заблуждение, из-за чего они могут посчитать сайт некачественным и покинуть его.
Как исправить
Если meta refresh используется на важных URL, необходимо убрать его или настроить 301 серверный редирект.
Однако meta refresh допустимо использовать на неважных страницах для определённых задач (например, на страницах авторизации или подтверждения оплаты).
Полезные ссылки
- Метатеги и атрибуты, которые распознаются роботами Google, support.google.com
- Почему от meta refresh и JavaScript-редиректов нужно отказаться, serpstat.com
Редирект на внешний сайт
Показывает внутренние URL, возвращающие 3хх редирект на внешний ресурс, который не является частью анализируемого сайта.
Чем грозит
Такие редиректы могут использоваться для скрытия ссылок на внешние сайты от поисковых роботов. Эту настройку стоит использовать очень осторожно: она может быть расценена как способ манипуляции поисковыми алгоритмами.
Также редиректы на внешние ресурсы могут появиться после взлома сайта: таким образом недоброжелатели перенаправляют пользователей на свой веб-ресурс.
Как исправить
Важно убедиться, что редиректы с внутренних URL на внешние сайты были настроены умышленно и не являются последствием действий недоброжелателей.
В противном случае необходимо удалить ссылки на URL с редиректом на внешние сайты или заменить ссылками на доступные внутренние страницы. Чтобы увидеть входящие ссылки таких URL, достаточно нажать комбинацию клавиш Shift+F1.
PageRank: перенаправление
Показывает URL, которые были определены алгоритмом расчёта внутреннего PageRank как перенаправляющие ссылочный вес. Это могут быть адреса страниц, возвращающих 3хх редирект или содержащих инструкции canonical / refresh, которые указывают на другой URL.
Чем грозит
Чаще всего адреса страниц, которые выполняют перенаправление или являются неканоническими, не будут участвовать в поиске и не принесут трафик.
Как исправить
Необходимо убедиться, что адресов важных страниц нет среди URL, перенаправляющих ссылочный вес. В противном случае стоит убрать перенаправление с адресов важных страниц, чтобы они участвовали в поиске.
Также стоит убрать с сайта внутренние ссылки на редиректы или страницы с директивой refresh или же заменить их ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
Полезные ссылки
- Netpeak Spider: Внутренний PageRank от А до Я, netpeaksoftware.com
- Netpeak Spider 2.1.1.2: Расчёт внутреннего PageRank, netpeaksoftware.com
- Google Shares How 301 Redirects Pass PageRank, searchenginejournal.com
Редиректы HTTPS → HTTP
Показывает страницы с протоколом HTTPS, которые перенаправляют на адреса с протоколом HTTP. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Если на сайте с HTTPS-протоколом есть адреса, которые перенаправляют на HTTP-протокол, это может привести к появлению бесконечных редиректов. Также, попадая на незащищённую страницу, пользователи могут посчитать сайт некачественным и покинуть его. Поисковые системы тоже могут посчитать сайт небезопасным и понизить его позиции в результатах поиска. В итоге сайт может потерять поисковый трафик.
Как исправить
Если основной протокол сайта — HTTP, можно игнорировать эту ошибку.
Если же основной протокол — HTTPS, необходимо проверить, почему определённые адреса перенаправляют на HTTP-протокол, и настроить правильный редирект. Чтобы увидеть входящие ссылки таких URL, достаточно нажать комбинацию клавиш Shift+F1.
Полезные ссылки
- Enabling HTTPS on your servers, support.google.com
- Гайд: как перевести сайт на HTTPS, netpeaksoftware.com
- Сертификат безопасности (SSL): что это, и какова его роль в продвижении сайта, netpeaksoftware.com
Смешанное содержимое
Показывает страницы с протоколом HTTPS, на которых есть ресурсы (тип ссылки JS, CSS или IMG) с протоколом HTTP. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Если на страницах с защищённым HTTPS-протоколом есть подгружаемые ресурсы (файлы скриптов, стилей или изображения) с HTTP протоколом, это приводит к ошибке «Смешанное содержимое».
В этом случае пользователи могут увидеть в браузере соответствующее предупреждение, посчитать сайт некачественным и покинуть его. Поисковые системы тоже могут посчитать сайт небезопасным и понизить его позиции в результатах поиска. В итоге сайт может потерять поисковый трафик.
Как исправить
Стоит заменить или убрать все ссылки на ресурсы с HTTP-протоколом. Чтобы увидеть такие ресурсы, нужно нажать на кнопку «Отчёт по ошибке» над основной таблицей.
Полезные ссылки
- (StatusCode = 404), developer.mozilla.org
- Enabling HTTPS on your servers, support.google.com
- Как проверить сайт на наличие смешанного контента с помощью Netpeak Spider, netpeaksoftware.com
Гиперссылки HTTPS → HTTP
Показывает страницы с протоколом HTTPS, на которых есть внутренние гиперссылки, ведущие на адреса с протоколом HTTP. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Если на страницах с защищённым HTTPS-протоколом есть гиперссылки на страницы или другие документы с HTTP-протоколом, это понижает доверие к сайту.
Если на сайте настроен редирект HTTP → HTTPS, это увеличивает время перехода по ссылке. Если редиректа нет, пользователи попадут на незащищённую страницу, могут посчитать сайт некачественным и покинуть его. Поисковые системы тоже могут посчитать сайт небезопасным и понизить его позиции в результатах поиска. В итоге сайт может потерять поисковый трафик.
Как исправить
Стоит заменить или убрать все исходящие гиперссылки на страницы с HTTP-протоколом. Чтобы увидеть гиперссылки на такие страницы, нужно нажать на кнопку «Отчёт по ошибке» над основной таблицей.
Полезные ссылки
- Enabling HTTPS on your servers, support.google.com
- Сертификат безопасности (SSL): что это, и какова его роль в продвижении сайта, netpeaksoftware.com
Несколько тегов title
Показывает индексируемые страницы, которые содержат более одного тега <title> в HTML-блоке <head>.
Чем грозит
Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска.
Несколько тегов title обычно возникают на странице при ошибках в настройках сайта. Так как поисковые роботы учитывают только один title, то выбранный ими тег может быть плохо оптимизированным или не соответствовать странице. В итоге сайт может потерять поисковый трафик.
Как исправить
Необходимо изменить настройки сайта, чтобы в блоке <head> на страницах выводился только один тег <title>.
Также важно сделать текст <title> уникальным в пределах сайта. Он должен ёмко описывать контент страницы, содержать целевые ключевые слова, а также быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 140 символов.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- Google: Multiple Title Tags Doesn't Cause Problems For Us, seroundtable.com
Несколько тегов description
Показывает индексируемые страницы, которые содержат более одного тега <meta name="description" /> в HTML-блоке <head>.
Чем грозит
Тег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.
Несколько тегов description обычно возникают на странице при ошибках в настройках сайта. Так как поисковые роботы учитывают только один description, то выбранный ими метатег может быть плохо оптимизированным или не соответствовать странице. В итоге сайт может потерять поисковый трафик.
Как исправить
Необходимо изменить настройки сайта, чтобы в блоке <head> на страницах выводился только один тег <meta name="description" />.
Также важно сделать текст description уникальным в пределах сайта. Он должен ёмко описывать контент страницы, содержать целевые ключевые слова, побуждать пользователя перейти на сайт, быть кратким и информативным: оптимальная длина — от 100 до 160 символов.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- (StatusCode = 403), moz.com
Одинаковые title и description
Показывает индексируемые страницы, у которых содержимое тега <meta name="description" /> совпадает с содержимым тега <title>.
Чем грозит
Дублирование title и description — это упущенная возможность оптимизировать тексты, из которых генерируются сниппеты в результатах поиска. Если description дублирует title и плохо соответствует поисковому запросу для текущей страницы, поисковые системы могут самостоятельно изменить её описание в поиске исходя из текста на странице, и оно может оказаться неуместным и неинтересным для пользователей. Всё это может отрицательно повлиять на кликабельность страницы в поиске и, соответственно, на трафик.
Чаще всего дублирование происходит, когда страницы ещё не оптимизированы, и тексты title и description генерируются автоматически по некачественным шаблонам.
Как исправить
Необходимо оптимизировать title и description, чтобы они были уникальными (в пределах сайта), ёмко описывали контент страниц, содержали целевые ключевые слова, а также побуждали пользователя перейти на сайт.
Оптимальная длина title — от 40 до 70 символов, максимальная — до 140 символов. Оптимальная длина description — от 100 до 160 символов.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- Что такое тег title, и как его правильно составить, netpeaksoftware.com
- Что такое сниппет, и как его правильно сделать, netpeaksoftware.com
GET-параметры содержат вопросительный знак
Показывает URL, которые содержат вопросительный знак в GET-параметрах. Например, URL вида https://example.com/?name=value?anothername=anothervalue.
Чем грозит
Зачастую вопросительный знак ошибочно используют вместо знака амперсанд «&», который разделяет GET-параметры. В таком случае поисковая система может воспринять вопросительный знак как обычный символ и учитывать несколько GET-параметров как один. Это потенциально может привести к образованию дубликатов страниц и, соответственно, к понижению позиций важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поисковой выдачи.
Как исправить
Заменить вопросительные знаки на амперсанд «&», если они были ошибочно использованы как разделители GET-параметров в URL.
Полезные ссылки
- Структура URL, support.google.com
URL с метками систем аналитики
Показывает внутренние URL, которые содержат метки систем аналитики: utm_source, utm_medium, utm_campaign, utm_term, utm_content, gclid, yclid, _openstat.
Чем грозит
Метки используют для лучшего указания системе аналитики данных о посещении.
Обычно переход по URL с меткой провоцирует начало нового сеанса в системе веб-аналитики. Потому использование внутренних ссылок с метками может сильно искажать и даже портить аналитические данные.
Как исправить
Убрать метки с внутренних ссылок и использовать их только в ссылках с внешних ресурсов.
Полезные ссылки
- Что такое UTM-метки, и как их правильно составить, netpeaksoftware.com
Индексируемые AMP-страницы
Показывает AMP HTML страницы, которые доступны для индексации поисковыми системами и при этом не содержат инструкции canonical на версию для компьютеров.
Чем грозит
AMP HTML страницы, у которых есть эквивалентная версия для компьютеров и отсутствует инструкция canonical на такую страницу, могут восприниматься поисковыми системами как дубликаты и потенциально хуже ранжироваться.
Как исправить
Для AMP HTML страниц, у которых есть версия для компьютеров, нужно установить инструкцию canonical на десктопную версию. Для независимых AMP HTML без версии для десктопных устройств текущая ошибка неактуальна.
Полезные ссылки
- Как сообщать о наличии AMP-версии страницы, amp.dev
- Технология AMP: что это, и как её реализовать, netpeaksoftware.com
Заблокировано в robots.txt
Показывает URL, запрещённые к сканированию с помощью инструкции Disallow в файле robots.txt.
Чем грозит
Файл robots.txt позволяет запретить поисковым роботам сканировать определённые страницы сайта — следовательно, они не будут участвовать в поиске.
Зачастую с помощью файла robots.txt закрывают неважные для поиска страницы (например, страницы внутреннего поиска, корзины, регистрации и т.д.) для экономии ресурсов робота на их сканирование.
Если на сайте много ссылок на закрытые от сканирования URL, полезные страницы могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.
Как исправить
Необходимо, чтобы важные страницы сайта были открыты для сканирования поисковыми роботами.
Также рекомендуется уменьшить количество ссылок на закрытые от сканирования страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.
Однако если ссылки полезны для навигации пользователя по сайту (например, на страницу корзины или регистрации), не стоит их убирать.
Полезные ссылки
- Общие сведения о файлах robots.txt, support.google.com
- Что такое robots.txt, и зачем он нужен сайту, netpeaksoftware.com
- Как закрыть сайт от индексации, netpeaksoftware.com
Заблокировано в Meta Robots
Показывает страницы, запрещённые к индексации с помощью директив «noindex» или «none» в тегах <meta name="robots" /> или <meta name="[bot name]" /> в блоке <head>, где [bot name] — имя конкретного поискового бота.
Чем грозит
Инструкции Meta Robots позволяют запретить поисковым системам показывать страницы сайта в результатах поиска. Зачастую с помощью Meta Robots закрывают не важные для поиска страницы (например, страницы корзины, входа, регистрации и т.д.). Чтобы обеспечить обязательное выполнение директив поисковыми роботами, не следует запрещать в robots.txt сканирование URL, для которых они заданы.
Как исправить
Необходимо убедиться, что поисковым роботам разрешено показывать важные страницы в поиске, а запрет используется только на неважных.
Полезные ссылки
- Блокировка индексирования при помощи правила noindex, support.google.com
- Спецификации тега Robots ( meta ), атрибута data-nosnippet и HTTP-заголовка X-Robots-Tag, developers.google.com
Заблокировано в X-Robots-Tag
Показывает URL, запрещённые к индексации с помощью директивы «noindex» или «none» поля X-Robots-Tag в HTTP-заголовках ответа сервера.
Чем грозит
Инструкции в заголовке X-Robots-Tag позволяют запретить поисковым системам показывать страницы сайта в результатах поиска, однако поддерживаются не всеми поисковыми системами.
X-Robots-Tag полезен в первую очередь для запрета индексации не HTML-документов, потому что находится в заголовке ответа сервера. Тем не менее, он также может использоваться для HTML-страниц.
Для HTML-страниц не рекомендуется одновременно использовать инструкции Meta Robots и X-Robots-Tag. Если по ошибке в этих настройках появятся разные директивы, важные страницы могут быть удалены из поиска.
Чтобы обеспечить обязательное выполнение директив поисковыми роботами, не следует запрещать в robots.txt сканирование URL, для которых они заданы.
Как исправить
Необходимо убедиться, что поисковым роботам разрешено показывать важные документы в поиске, а запрет используется только на неважных.
Если для HTML-страниц одновременно используются директивы в Meta Robots и X-Robots-Tag, важно убедиться, что они совпадают, а ещё лучше — оставить только один из вариантов: метатег или HTTP-заголовок.
Полезные ссылки
- Блокировка индексирования при помощи правила noindex, support.google.com
- Спецификации тега Robots ( meta ), атрибута data-nosnippet и HTTP-заголовка X-Robots-Tag, developers.google.com
GA: неиндексируемые страницы с трафиком
Показывает адреса страниц, которые недоступны для индексации поисковыми системами, но получили трафик за выбранный период (по данным сервиса Google Analytics). Обратите внимание, что ошибка актуальна только для сегментов, включающих бесплатный поисковый трафик.
Чем грозит
Страницы, которые закрыты от индексации, но принесли органический трафик, скорее всего находятся в индексе поиска по ошибке. Они могут забирать трафик у целевых страниц и снижать конверсию сайта.
Как исправить
В первую очередь нужно оптимизировать целевые страницы, которые потенциально могли получить меньше трафика из поиска из-за плохой оптимизации и конкуренции с нецелевыми. Необходимо сделать так, чтобы трафик из нецелевых страниц перешёл на целевые.
Затем проверить в инструментах для вебмастеров, корректно ли поисковый робот обработал настройки индексации нецелевых страниц, и инициировать повторное сканирование. При необходимости запросить удаление неиндексируемых URL из индекса.
Полезные ссылки
- Как запросить повторное сканирование страниц, support.google.com
- Инструмент удаления URL и Безопасный поиск, support.google.com
- Sign in, google.com
ЯМ: неиндексируемые страницы с трафиком
Показывает адреса страниц, которые недоступны для индексации поисковыми системами, но получили трафик за выбранный период (по данным сервиса Яндекс.Метрика). Обратите внимание, что ошибка актуальна только для сегментов, включающих бесплатный поисковый трафик.
Чем грозит
Страницы, которые закрыты от индексации, но принесли органический трафик, скорее всего находятся в индексе поиска по ошибке. Они могут забирать трафик у целевых страниц и снижать конверсию сайта.
Как исправить
В первую очередь нужно оптимизировать целевые страницы, которые потенциально могли получить меньше трафика из поиска из-за плохой оптимизации и конкуренции с нецелевыми. Необходимо сделать так, чтобы трафик из нецелевых страниц перешёл на целевые.
Затем проверить в инструментах для вебмастеров, корректно ли поисковый робот обработал настройки индексации нецелевых страниц, и инициировать повторное сканирование. При необходимости запросить удаление неиндексируемых URL из индекса.
GA: макс. показатель отказов
Показывает адреса индексируемых страниц, у которых показатель отказов превышает 70% (по умолчанию) по данным сервиса Google Analytics. Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Высокий показатель отказов — это плохой сигнал для страниц, которые должны вовлекать пользователя в посещение других страниц сайта: например, для главных страниц или категорийных.
Как исправить
Необходимо проверить, соответствуют ли страницы ожиданиям пользователей при переходе из поиска или рекламы. Страницы, которые нерелевантны поисковым запросам или рекламным объявлениям, обычно получают большое количество отказов. Также важно проанализировать, удобны ли страницы для пользователей и понятно ли им, как нужно двигаться дальше по сайту: видны ли элементы меню, кнопки CTA и т.д.
Полезные ссылки
- Показатель отказов, support.google.com
- Что такое показатель отказов (bounce rate), и как его снизить, netpeaksoftware.com
ЯМ: макс. показатель отказов
Показывает адреса индексируемых страниц, у которых показатель отказов превышает 70% (по умолчанию) по данным сервиса Яндекс.Метрика. Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Высокий показатель отказов — это плохой сигнал для страниц, которые должны вовлекать пользователя в посещение других страниц сайта: например, для главных страниц или категорийных.
Как исправить
Необходимо проверить, соответствуют ли страницы ожиданиям пользователей при переходе из поиска или рекламы. Страницы, которые нерелевантны поисковым запросам или рекламным объявлениям, обычно получают большое количество отказов. Также важно проанализировать, удобны ли страницы для пользователей и понятно ли им, как нужно двигаться дальше по сайту: видны ли элементы меню, кнопки CTA и т.д.
GSC: неиндексируемые страницы с показами
Показывает адреса страниц, которые недоступны для индексации поисковыми системами, но имеют показы в органическом поиске Google за выбранный период (по данным сервиса Google Search Console).
Чем грозит
Страницы, которые закрыты от индексации, но имеют показы, скорее всего находятся в индексе поиска по ошибке. Они могут забирать трафик у целевых страниц и снижать конверсию сайта.
Как исправить
В первую очередь нужно оптимизировать целевые страницы, которые потенциально могли получить меньше показов из поиска из-за плохой оптимизации и конкуренции с нецелевыми. Необходимо сделать так, чтобы показы получали только целевые страницы.
Затем нужно проверить в сервисе Search Console, корректно ли поисковый робот обработал настройки индексации нецелевых страниц, и запросить повторное сканирование. При необходимости запросить удаление неиндексируемых URL из индекса.
Полезные ссылки
- Как запросить повторное сканирование страниц, support.google.com
- Инструмент удаления URL и Безопасный поиск, support.google.com
- Sign in, google.com
Не HTTPS-протокол
Показывает URL, которые не используют защищённый протокол HTTPS.
Чем грозит
Если на сайтах с защищённым HTTPS-протоколом есть HTML-страницы, изображения или другие документы с HTTP-протоколом, это может привести к ошибке «Смешанное содержимое».
В этом случае пользователи могут увидеть в браузере соответствующее предупреждение, посчитать сайт некачественным и покинуть его. Поисковые системы тоже могут посчитать сайт небезопасным и понизить его позиции в результатах поиска. В итоге сайт может потерять поисковый трафик.
Как исправить
Если сайт использует незащищённый HTTP-протокол, можно игнорировать эту ошибку.
Если же основной протокол сайта — HTTPS, необходимо проверить, почему определённые страницы используют HTTP-протокол. Возможно, перестали работать редиректы с HTTP версии URL на HTTPS.
После проверки стоит заменить или убрать все ссылки на страницы с HTTP-протоколом. Чтобы увидеть входящие ссылки на такие страницы, достаточно нажать комбинацию клавиш Shift+F1.
Полезные ссылки
- Enabling HTTPS on your servers, support.google.com
- Гайд: как перевести сайт на HTTPS, netpeaksoftware.com
- Как проверить сайт на наличие смешанного контента с помощью Netpeak Spider, netpeaksoftware.com
- Сертификат безопасности (SSL): что это, и какова его роль в продвижении сайта, netpeaksoftware.com
Кодированные URL
Показывает URL, которые содержат кодированные (не ASCII) символы и пробелы. Например, URL вида https://example.com/пример кодируется как https://example.com/%D0%BF%D1%80%D0%B8%D0%BC%D0%B5%D1%80.
Чем грозит
Кодированные URL допускаются к использованию браузерами и поисковыми системами.
Тем не менее вне адресной строки браузера такие URL могут выглядеть непривлекательно для пользователей. А адреса, где используется сразу несколько способов формирования URL (к примеру, транслитерация, слова на другом языке и другие кодированные алфавиты) могут и вовсе плохо восприниматься пользователями. Пример плохого URL: http://site.com/electronics/mobilnie-telefony/самсунг/.
К тому же при неправильной настройке сервер может не обработать закодированные адреса, из-за чего могут возникнуть битые страницы и другие ошибки.
Как исправить
Если в URL на сайте было решено использовать не ASCII-символы, то нужно проверить правильность экранирования символов и корректность их обработки сервером.
Если URL сайта должны содержать только ASCII-символы, то необходимо установить, как появляются закодированные адреса, и устранить причины их появления. Возможно, в URL случайно попали спецсимволы, или вместо латинских символов по ошибке используются символы других алфавитов (например, вместо латинских с, о, р, е, у — кириллические c, o, p, e, y). Чтобы увидеть входящие ссылки на кодированные адреса, достаточно нажать комбинацию клавиш Shift+F1.
Также стоит избегать пробелов в URL в качестве разделителя, потому что они будут закодированы с помощью символов «%20» и выглядеть непривлекательно.
Полезные ссылки
- 10 Tips to Create SEO Friendly URL Structure, netpeaksoftware.com
URL с неправильным использованием дефиса
Показывает URL, которые содержат неправильное использование дефиса: сразу после слеша, в конце URL, два дефиса подряд. Например, URL вида https://site.com/category/-subcategory/test--page-
Чем грозит
Неправильное использование дефиса не влияет на ранжирование, но делает URL менее привлекательными для пользователей.
Чаще всего такие ошибки возникают при автоматической транслитерации или генерации URL из текстовых строк, когда пунктуация или другие символы заменяются на дефисы.
Как исправить
Исправить URL, настроить редирект со старого адреса на новый и заменить все входящие ссылки на него. Чтобы увидеть входящие ссылки таких URL, достаточно нажать комбинацию клавиш Shift+F1.
Полезные ссылки
- Структура URL, support.google.com
- Что такое URL — как создать корректный адрес сайта, netpeak.net
URL с нежелательными спецсимволами
Показывает адреса индексируемых страниц, которые содержат нежелательные спецсимволы (,_$@* и другие). Например, URL вида https://example.com/category/page-name[5]/?$a=123
Чем грозит
Спецсимволы в URL нормально обрабатываются браузерами и поисковыми системами. Однако такие URL могут выглядеть непривлекательно для пользователей.
Чаще всего ошибка возникает из-за опечаток в URL ссылок или при использовании нижнего подчёркивания вместо дефиса для разделения слов в URL.
Как исправить
Нужно заменить или убрать спецсимволы из адресов целевых страниц (кроме /-+?=&#), чтобы сделать их более привлекательными и читабельными.
После изменения нужно настроить редиректы со старых URL на новые и заменить их во входящих ссылках. Чтобы увидеть входящие ссылки на такие адреса, достаточно нажать комбинацию клавиш Shift+F1.
Полезные ссылки
- Структура URL, support.google.com
- 10 Tips to Create SEO Friendly URL Structure, netpeaksoftware.com
- Что такое URL — как создать корректный адрес сайта, netpeak.net
URL с заглавными буквами
Показывает URL, которые содержат заглавные буквы. Например, URL вида https://example.com/Category/Subcategory
Чем грозит
Использование заглавных букв не ухудшает ранжирование и восприятие пользователями. Но такие URL потенциально могут стать источниками дубликатов страниц, если не настроена корректная переадресация с таких же URL со всеми строчными буквами.
Как исправить
Убедиться, что настроена корректная переадресация с URL со строчными буквами на текущие URL. Например с https://site.com/Category/subcategory, https://site.com/category/Subcategory, https://site.com/category/subcategory должен стоять редирект на https://site.com/Category/Subcategory.
Полезные ссылки
- Структура URL, support.google.com
- Что такое URL — как создать корректный адрес сайта, netpeak.net
Одинаковые title и H1
Показывает индексируемые страницы, у которых заголовок <h1> совпадает с содержимым тега <title>.
Чем грозит
Дублирование title и H1 — это упущенная возможность использовать бóльшее количество релевантных для страницы ключевых слов. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты title и H1 генерируются автоматически по некачественным шаблонам.
Как исправить
Необходимо оптимизировать title и H1, чтобы они были уникальными (в пределах сайта), ёмко описывали контент страниц и содержали целевые ключевые слова.
Оптимальная длина title — от 40 до 70 символов, максимальная — до 140 символов. Оптимальная длина H1 — от 3 до 7 слов.
Полезные ссылки
- Google SEO: Should Titles & H1 Tags Be Exactly The Same?, seroundtable.com
- Заголовки H1 и TITLE. Делать ли их одинаковыми или разными?, devaka.info
- (StatusCode = ), alexeytrudov.com
Короткий title
Показывает индексируемые страницы, у которых длина тега <title> менее 10 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска.
Если у страницы title короткий, поисковым системам сложнее понять содержание страницы и оценить её релевантность целевым ключевым словам. В таком случае поисковая система может сама составить заголовок результата поиска исходя из текста на странице, и он может оказаться неуместным и неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.
Чаще всего на страницах выводятся короткие title, когда страницы ещё не оптимизированы, и тексты для этого тега генерируются автоматически по некачественным шаблонам.
Как исправить
Нужно составить для каждой страницы уникальный (в пределах сайта) title, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 140 символов.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- (StatusCode = ), alexeytrudov.com
Макс. длина title
Показывает индексируемые страницы, у которых длина тега <title> более 70 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска.
Поисковые системы отображают в результатах около 70 символов тега <title>, а остальной текст обрезают. В итоге сокращённый title может быть неинтересным для пользователей, и сайт может потерять поисковый трафик.
При этом поисковые системы учитывают до 12 слов из title, потому он может быть и дольше 70 символов, чтобы охватить больше релевантных для страницы ключевых слов.
Как исправить
Нужно составить для каждой страницы уникальный (в пределах сайта) title, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 12 слов или 140 символов.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- (StatusCode = ), alexeytrudov.com
Эмодзи или спецсимволы в title
Показывает страницы, содержащие в теге <title> символы эмодзи или другие специальные символы, которые могут привлекать внимание пользователей.
Чем грозит
Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска.
Графические Юникод-символы и эмодзи не влияют на позиции в поисковой выдаче, но могут затрагивать кликабельность страницы в результатах поиска. Эти символы по-разному отображаются в разных браузерах и устройствах, а поисковые системы могут не показывать некоторые из них в результатах поиска.
Чрезмерное использование графических символов или некорректное их отображение может ухудшить кликабельность страницы в поисковой выдаче, что, соответственно, скажется и на трафике.
Как исправить
Необходимо убедиться, что графические символы в теге <title> уместны, хорошо дополняют текст и правильно отображаются в приоритетных браузерах и устройствах.
Полезные ссылки
- Нужны ли в сниппетах спецсимволы, serpstat.com
- Эмодзи, ru.wikipedia.org
Короткий description
Показывает индексируемые страницы, у которых длина тега <meta name="description" /> менее 50 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.
Если description страницы короткий, поисковые системы могут самостоятельно изменить её описание в поиске исходя из текста на странице, и оно может оказаться неуместным и неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.
Чаще всего на страницах выводятся короткие description, когда страницы ещё не оптимизированы, и тексты <meta name="description" /> генерируются автоматически по некачественным шаблонам.
Как исправить
Для каждой страницы нужно составить уникальный (в пределах сайта) description, который будет ёмко описывать её контент, содержать целевые ключевые слова, а также побуждать пользователя перейти на сайт. Он должен быть кратким и информативным: оптимальная длина — от 100 до 160 символов.
Полезные ссылки
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- (StatusCode = 403), moz.com
- Description vs body: как формируется сниппет — исследование Serpstat, serpstat.com
Макс. длина description
Показывает индексируемые страницы, у которых длина тега <meta name="description" /> более 320 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.
Поисковые системы не указывают минимальное и максимальное количество символов для описаний. Но для их эффективного использования стоит ориентироваться на максимальную длину, которая отображается в поисковой выдаче — около 160 символов.
Как исправить
Для каждой страницы нужно составить уникальный (в пределах сайта) description, который будет ёмко описывать её контент, содержать целевые ключевые слова, а также побуждать пользователя перейти на сайт. Он должен быть кратким и информативным: оптимальная длина — от 100 до 160 символов.
Полезные ссылки
- Как управлять выбором ссылок-заголовков в результатах поиска, support.google.com
- (StatusCode = 403), moz.com
- Description vs body: как формируется сниппет — исследование Serpstat, serpstat.com
Эмодзи или спецсимволы в description
Показывает страницы, содержащие в <meta name="description" /> символы эмодзи или другие специальные символы, которые могут привлекать внимание пользователей.
Чем грозит
Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.
Графические Юникод-символы и эмодзи не влияют на позиции в поисковой выдаче, но могут затрагивать кликабельность страницы в результатах поиска. Эти символы по-разному отображаются в разных браузерах и устройствах, а поисковые системы могут не показывать некоторые из них в результатах поиска.
Чрезмерное использование графических символов или некорректное их отображение может ухудшить кликабельность страницы в поисковой выдаче, что, соответственно, скажется и на трафике.
Как исправить
Необходимо убедиться, что графические символы в метатеге description уместны, хорошо дополняют текст и правильно отображаются в приоритетных браузерах и устройствах.
Полезные ссылки
- Нужны ли в сниппетах спецсимволы, serpstat.com
- Эмодзи, ru.wikipedia.org
Несколько заголовков H1
Показывает индексируемые страницы, которые содержат более одного заголовка <h1>.
Чем грозит
Заголовок H1 — это важный элемент поисковой оптимизации. Он помогает пользователям понять суть и структуру контента страницы при посещении сайта.
В HTML5 допускается использование нескольких заголовков H1 на странице. Однако для поисковых систем это может быть сигналом о некачественной структуре контента. В итоге сайт может потерять поисковый трафик.
Как исправить
Рекомендуется, чтобы на странице был только один заголовок H1, не дублирующий содержимое тега <title>. Также если теги H1 используются исключительно для форматирования текста, их стоит удалить и выполнить соответствующую стилизацию с помощью CSS.
Важно, чтобы на каждой странице был уникальный (в пределах сайта) заголовок H1, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 3 до 7 слов.
Полезные ссылки
- My site's template has multiple H1 tags, youtube.com
- Headings SEO checklist 2023, hobo-web.co.uk
- How to Create the Perfect H1 Tag for SEO, neilpatel.com
Макс. длина H1
Показывает индексируемые страницы, у которых длина заголовка h1 более 65 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Заголовок H1 — это важный элемент поисковой оптимизации. Он помогает пользователям понять содержание страницы при посещении сайта.
Так как пользователям сложно читать и воспринимать длинные заголовки, H1 (как и тег title) должен содержать короткое и ёмкое описание страницы.
Как исправить
Рекомендуется сократить длинные заголовки и оставить в них только главную суть страницы.
Нужно составить для каждой страницы уникальный (в пределах сайта) заголовок H1, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 3 до 7 слов.
Также рекомендуется, чтобы на странице был только один заголовок H1, не дублирующий содержимое тега <title>.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Headings SEO checklist 2023, hobo-web.co.uk
- How to Create the Perfect H1 Tag for SEO, neilpatel.com
Макс. размер HTML
Показывает индексируемые страницы с более чем 200 тыс. символов (по умолчанию) в блоке <html> (включая HTML-теги). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Зачастую большие страницы содержат избыточный код, который можно сократить.
Размер кода влияет на скорость загрузки страницы. Если страница слишком большая и загружается долго (особенно на мобильных устройствах, где скорость интернета ниже), пользователь может посчитать сайт некачественным и покинуть его. Такие медленные страницы обычно занимают низкие позиции в поиске, и в итоге сайт может потерять поисковый трафик.
Как исправить
Необходимо сократить избыточный HTML-код: например, убрать лишние HTML-теги, вынести скрипты и стили в отдельные файлы. Также рекомендуется разбить слишком большую страницу на несколько меньших.
Макс. размер контента
Показывает индексируемые страницы с более чем 50 тыс. символов (по умолчанию) в блоке <body> (без HTML-тегов). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Пользователям может быть неудобно читать слишком длинный текст, из-за чего они с большей вероятностью могут уйти со страницы.
Также страницы с очень длинным текстом обычно загружаются дольше (особенно на мобильных устройствах, где скорость интернета ниже), из-за чего пользователь может посчитать сайт некачественным и покинуть его. Такие медленные страницы обычно занимают низкие позиции в поиске, и в итоге сайт может потерять поисковый трафик.
Как исправить
Рекомендуется проверить, корректно ли составлены страницы со слишком большим количеством текста. Если это результат ошибки, необходимо её исправить. Если же нет — разбить слишком большую страницу на несколько меньших.
Полезные ссылки
Мин. соотношение text/HTML
Показывает индексируемые страницы, у которых соотношение чистого текста (параметр «Размер контента») к коду страницы (параметр «Размер HTML») менее 10% (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Поисковые системы могут посчитать некачественными страницы, большую часть текста на которых составляет шаблон вёрстки (меню, хедер, футер), из-за чего их позиции в поиске понизятся.
Также если на странице текста значительно меньше, чем HTML-кода, скорее всего этот избыточный код можно сократить, так как он увеличивает размер страницы и замедляет её загрузку. А если страница слишком большая и загружается долго (особенно на мобильных устройствах, где скорость интернета ниже), пользователь может посчитать сайт некачественным и покинуть его. Такие медленные страницы обычно занимают низкие позиции в поиске, и в итоге сайт может потерять поисковый трафик.
Как исправить
Необходимо в первую очередь обратить внимание на страницы, где соотношение Text/HTML будет значительно меньше среднего значения этой метрики по сайту.
На таких страницах рекомендуется сократить избыточный HTML-код: например, убрать лишние HTML-теги, вынести скрипты и стили в отдельные файлы.
Неканонические страницы
Показывает неканонические страницы, у которых URL в теге <link rel="canonical" /> или HTTP-заголовке «Link: rel="canonical"» указывает на другую страницу.
Чем грозит
Когда страница доступна по нескольким адресам, или же на сайте существует несколько страниц с похожим контентом, поисковые системы рекомендуют указывать с помощью тега <link rel="canonical" /> или HTTP-заголовка «Link: rel="canonical"», какой URL нужно считать главным и показывать в поиске. Таким образом поисковые роботы не будут расходовать свои ресурсы на сканирование повторяющихся или неважных страниц.
Если же канонический URL для нескольких страниц дубликатов не указан, поисковая система может самостоятельно выбрать главный URL или будет считать несколько адресов равноценными. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.
Обратите внимание: canonical — это рекомендация для поисковых роботов, а не строгое правило. Также его следует использовать только для очень похожих по контенту страниц, в противном случае он может быть проигнорирован.
Как исправить
Необходимо убедиться, что рекомендации заданы правильно, и среди неканонических URL нет адресов важных целевых страниц.
Полезные ссылки
- Нормализация URL копий страниц и использование тега canonical, support.google.com
Одинаковые канонические URL
Показывает страницы с одинаковыми каноническими URL в тегах <link rel="canonical" /> блока <head> или в HTTP-заголовке «Link: rel="canonical"». В этом отчёте все URL сгруппированы по параметру «Канонический URL».
Чем грозит
Когда страница доступна по нескольким адресам, или же на сайте существует несколько страниц с похожим контентом, поисковые системы рекомендуют указывать с помощью тега <link rel="canonical" /> или HTTP-заголовка «Link: rel="canonical"», какой URL нужно считать главным и показывать в поиске. Таким образом поисковые роботы не будут расходовать свои ресурсы на сканирование повторяющихся или неважных страниц.
Если же канонический URL для нескольких страниц дубликатов не указан, поисковая система может самостоятельно выбрать главный URL или будет считать несколько адресов равноценными. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.
Обратите внимание: canonical — это рекомендация для поисковых роботов, а не строгое правило. Также его следует использовать только для очень похожих по контенту страниц, в противном случае он может быть проигнорирован.
Как исправить
Необходимо убедиться, что одинаковый канонический URL задан для похожих по контенту страниц и релевантен им по содержанию.
Полезные ссылки
- Нормализация URL копий страниц и использование тега canonical, support.google.com
Канонический URL содержит другой хост
Показывает страницы, у которых URL в теге <link rel="canonical" /> или HTTP-заголовке «Link: rel="canonical"» содержит другой хост.
Чем грозит
Когда страница доступна по нескольким адресам, или же на сайте существует несколько страниц с похожим контентом, поисковые системы рекомендуют указывать с помощью тега <link rel="canonical" /> или HTTP-заголовка «Link: rel="canonical"», какой URL нужно считать главным и показывать в поиске. Таким образом поисковые роботы не будут расходовать свои ресурсы на сканирование повторяющихся или неважных страниц.
В инструкции canonical по ошибке может быть указан URL с хостом отличным от хоста текущей страницы. Особенно часто это возникает с URL на поддомене www, когда канонический URL ведёт на основной домен. Также некоторые поисковые системы могут не учитывать такие межхостовые инструкции. В итоге на более высокой позиции в поисковой выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.
Как исправить
Убедиться, что канонические URL, которые содержат другой хост, внедрены корректно.
Полезные ссылки
- Нормализация URL копий страниц и использование тега canonical, support.google.com
Отсутствующий или пустой файл robots.txt
Показывает индексируемые страницы, в хосте которых файл robots.txt отсутствует или пустой. Обратите внимание, что на разных хостах (поддоменах и протоколах http/https) могут быть разные файлы robots.txt.
Чем грозит
Файл robots.txt сообщает поисковым роботам, какие страницы и файлы на сайте можно и нельзя обрабатывать. Для поисковых систем важно наличие файла robots.txt на сайте: если он отсутствует, сканирование сайта может происходить неэффективно.
Обратите внимание, robots.txt действует для хоста, на котором находится. Потому, к примеру, файл, расположенный по адресу http://site.com/robots.txt, не влияет на сканирование https://site.com.
Как исправить
Необходимо добавить файл robots.txt с рекомендациями по сканированию в корень всех хостов сайта.
Полезные ссылки
- Общие сведения о файлах robots.txt, support.google.com
- Что такое robots.txt, и зачем он нужен сайту, netpeaksoftware.com
Nofollow в Meta Robots
Показывает HTML-страницы, содержащие директивы «nofollow» или «none» в тегах <meta name="robots" /> или <meta name="[bot name]" /> в блоке <head>, где [bot name] — имя конкретного поискового бота.
Чем грозит
Директива nofollow в Meta Robots позволяет запретить поисковым роботам переходить по ссылкам на странице. В итоге такие документы не передают ссылочный вес другим страницам. Потому эту директиву стоит использовать только на страницах, где ссылки не важны: например, в личном кабинете или панели администратора на сайте.
Для HTML-страниц не рекомендуется одновременно использовать инструкции Meta Robots и X-Robots-Tag. Если по ошибке в этих настройках появятся разные директивы, важные страницы могут потерять трафик.
Чтобы обеспечить обязательное выполнение директив поисковыми роботами, не следует запрещать в robots.txt сканирование URL, для которых они заданы.
Как исправить
Необходимо убедиться, что атрибут nofollow действительно нужен на странице и не ограничивает распределение ссылочного веса по сайту.
Если для HTML-страниц одновременно используются директивы в Meta Robots и X-Robots-Tag, важно убедиться, что они совпадают, а ещё лучше — оставить только один из вариантов: метатег или HTTP-заголовок.
Полезные ссылки
- Спецификации тега Robots ( meta ), атрибута data-nosnippet и HTTP-заголовка X-Robots-Tag, developers.google.com
Nofollow в X-Robots-Tag
Показывает HTML-страницы, содержащие директиву «nofollow» или «none» в поле X-Robots-Tag HTTP-заголовков ответа сервера.
Чем грозит
Директива «nofollow» в X-Robots-Tag позволяет запретить поисковым роботам переходить по ссылкам на странице. В итоге такие документы не передают ссылочный вес другим страницам. Потому эту инструкцию стоит использовать только на страницах, где ссылки не важны: например, в личном кабинете или панели администратора на сайте.
Для HTML-страниц не рекомендуется одновременно использовать инструкции Meta Robots и X-Robots-Tag. Если по ошибке в этих настройках появятся разные директивы, важные страницы могут потерять трафик.
Чтобы обеспечить обязательное выполнение директив поисковыми роботами, не следует запрещать в robots.txt сканирование URL, для которых они заданы.
Как исправить
Необходимо убедиться, что директива «nofollow» действительно нужна на странице и не ограничивает распределение ссылочного веса по сайту.
Если для HTML-страниц одновременно используются директивы в Meta Robots и X-Robots-Tag, важно убедиться, что они совпадают, а ещё лучше — оставить только один из вариантов: метатег или HTTP-заголовок.
Полезные ссылки
- Спецификации тега Robots ( meta ), атрибута data-nosnippet и HTTP-заголовка X-Robots-Tag, developers.google.com
PageRank: отсутствуют связи
Показывает страницы, которые были определены алгоритмом расчёта внутреннего PageRank как недостижимые. Это страницы, на которые алгоритмом не было найдено ни одной входящей ссылки.
Такие ссылки могут возникнуть:
— при сканировании сайта с выключенным учётом инструкций по сканированию и индексации (robots.txt, canonical, refresh, X-Robots-Tag, Meta Robots и атрибут rel="nofollow" у ссылок) → обратите внимание, что при выключении учёта данных инструкций Netpeak Spider сканирует сайт уже не так, как это делают роботы поисковых систем, однако алгоритм PageRank всегда их учитывает, потому некоторые ссылки, полученные в результате сканирования, могут оказаться недостижимыми для него;
— при сканировании списка URL — ссылок, которые никак не связаны между собой.
Чем грозит
Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес).
Если на страницу не ведут ссылки с других страниц сайта, поисковая система может воспринимать её как неважную. Следовательно, она будет реже сканироваться, получать низкие позиции в поиске и приносить меньше трафика, чем могла бы.
Как исправить
Необходимо создать хотя бы 10 внутренних ссылок на важные страницы сайта. К примеру, можно включить их в HTML-карту сайта, разместить ссылки на них в блоках перелинковки на релевантных страницах или в тексте статей.
Полезные ссылки
- Netpeak Spider 2.1.1.2: Расчёт внутреннего PageRank, netpeaksoftware.com
- 8 Tips on Internal Linking for Better SEO, netpeaksoftware.com
PageRank: отсутствуют исходящие ссылки
Показывает адреса страниц, у которых после применения алгоритма расчёта внутреннего PageRank не были найдены исходящие ссылки. Это зачастую происходит, когда исходящие со страницы ссылки ещё не были просканированы.
Чем грозит
Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес).
Если на странице нет исходящих ссылок, или роботам запрещён переход по ним, она не сможет передать ссылочный вес. Чаще всего это происходит, когда страницы ещё не оптимизированы и генерируются автоматически по некачественным шаблонам.
В результате из-за таких тупиковых документов полезные страницы могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.
Как исправить
Рекомендуется дождаться окончания сканирования сайта, если оно было приостановлено. Если после завершения сканирования ошибка осталась, нужно перепроверить все URL, где она была обнаружена, и добавить исходящие внутренние ссылки на важные страницы сайта.
Также важно убедиться, что HTML-страницы являются полноценными страницами с контентом. Неполноценные и созданные по ошибке страницы нужно удалить (настроить 404 или 410 код ответа) и убрать с сайта все ссылки на них. Чтобы увидеть входящие ссылки на страницы без ссылок, достаточно нажать комбинацию клавиш Shift+F1.
Полезные ссылки
- Netpeak Spider 2.1.1.2: Расчёт внутреннего PageRank, netpeaksoftware.com
Гиперссылки с пустыми анкорами
Показывает страницы с исходящими гиперссылками с пустыми анкорами. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Анкор — это видимый кликабельный текст гиперссылок. Он помогает пользователям и поисковым системам понять содержание страницы, на которую ведёт гиперссылка. У ссылок с изображений анкором является текст атрибута alt у изображения.
Если у гиперссылки пустой анкор, это упущенная возможность оптимизировать её с помощью целевых ключевых слов. Из-за этого страницы могут получать низкие позиции в поиске. Также такие ссылки могут быть непонятными или невидимыми для пользователей.
Как исправить
К каждой гиперссылке на сайте необходимо добавить текст, который будет кратко и ёмко описывать содержание целевой страницы и даже содержать релевантные ключевые слова.
Для изображений, которые находятся внутри гиперссылки, необходимо добавить атрибут alt, который будет также кратко и ёмко описывать, что на них изображено, и содержать подходящие поисковые фразы.
Полезные ссылки
- Оптимизация анкоров: полное руководство SEO-специалиста, netpeaksoftware.com
Циклические гиперссылки
Показывает страницы, на которых есть гиперссылки, ведущие на адрес текущей страницы. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Циклическая ссылка — это ссылка на текущую страницу. Такие ссылки часто используют на сайте, и они не ухудшают ранжирование в поиске напрямую. Но иногда они усложняют взаимодействие с сайтом: например, если это ссылки из контента на странице, хлебных крошек, пунктов пагинации и других мест, где они не требуются.
Как исправить
Циклические ссылки из логотипа или активного пункта меню могут быть полезны пользователям, потому их лучше оставить.
Нужно удалить ссылки, которые могут смутить пользователей или ухудшить их опыт взаимодействия со страницей. Например, ссылку из последнего элемента «хлебных крошек», из номера активной страницы пагинации или из текста (кроме якорных ссылок на разделы страницы).
Полезные ссылки
- Как оптимизировать внутренние ссылки, serpstat.com
Макс. количество внутренних ссылок
Показывает страницы с более чем 100 исходящими внутренними ссылками (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес).
Если на странице слишком много исходящих ссылок, то она не так эффективно передаёт ссылочный вес важным страницам. В итоге полезные страницы могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.
Тем не менее ограничений по количеству ссылок на странице нет. В некоторых случаях (для страниц верхнего уровня структуры сайта и для так называемых хабовых страниц) большое количество ссылок оправдано: например, на некоторых страницах Википедии их может быть больше 500.
При этом стоит учитывать, что когда на странице слишком много ссылок, пользователю будет сложнее воспринимать основной контент страницы.
Как исправить
Необходимо убедиться, что на конкретных страницах сайта большое количество внутренних ссылок оправдано.
Полезные ссылки
- (StatusCode = 403), moz.com
Макс. количество внешних ссылок
Показывает индексируемые страницы с более чем 10 исходящими внешними ссылками (по умолчанию). Мы установили значение 10 как среднее количество внешних ссылок на большинстве сайтов: около 5 ссылок на социальные сети плюс несколько внешних ссылок на другие сайты. Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Часто много спамных ссылок появляется в комментариях на странице: их оставляют оптимизаторы для манипуляции алгоритмами поиска. Также много ссылок на внешние ресурсы может появиться после взлома сайта: таким образом недоброжелатели перенаправляют пользователей на свой веб-ресурс.
Потому сайт стоит регулярно перепроверять на наличие нежелательных ссылок, что легко сделать с помощью данного отчёта.
Как исправить
Необходимо убедиться, что все ссылки на внешние ресурсы важны для пользователей сайта и не являются спамом.
Полезные ссылки
- (StatusCode = 403), moz.com
Внутренние nofollow ссылки
Показывает индексируемые страницы, содержащие исходящие внутренние ссылки с атрибутом rel="nofollow". Чтобы посмотреть специальный отчёт по этой ошибке, нажмите на кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес).
Атрибут rel="nofollow" позволяет запретить поисковым роботам переходить по определённым ссылкам на неважные страницы в целях экономии ресурсов сканирования. При этом если атрибут указан для ссылки на важную страницу, ей не будет передаваться ссылочный вес. В итоге полезные страницы могут потерять позиции в поиске и, соответственно, трафик.
Как исправить
Необходимо убедиться, что атрибут rel="nofollow" используется корректно и не ограничивает передачу ссылочного веса важным страницам.
Полезные ссылки
- (StatusCode = 404), support.google.com
Внешние nofollow ссылки
Показывает индексируемые страницы, содержащие исходящие внешние ссылки с атрибутом rel="nofollow". Чтобы посмотреть специальный отчёт по этой ошибке, нажмите на кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Ссылки — это эффективный метод показать поисковым системам относительную важность страниц (ссылочный вес).
Атрибут rel="nofollow" рекомендуется использовать для ссылок на недостоверный контент на других ресурсах или для рекламных внешних ссылок, чтобы не передавать ссылочный вес таким страницам.
Как исправить
Необходимо проверить, для всех ли внешних ссылок из отчёта необходим атрибут rel="nofollow", и наоборот — у всех ли рекламных ссылок он установлен.
Rel="nofollow" стоит добавлять автоматически ко внешним ссылкам в UGC-секциях сайта (например, в комментариях).
Полезные ссылки
- (StatusCode = 404), support.google.com
Hreflang: отсутствуют альтернативные URL
Показывает индексируемые страницы, у которых в теге <link rel="alternate" /> или HTTP-заголовке «Link: rel="alternate"» отсутствуют исходящие hreflang-ссылки, при этом на других страницах сайта hreflang используется.
Чем грозит
Инструкция hreflang позволяет указать поисковым системам локализированные версии страницы. Это один из сигналов в региональном ранжировании результатов поиска.
Если у страницы есть локализированные версии, но не настроен hreflang, это может привести к низким позициям в результатах поиска и потере трафика.
Как исправить
Необходимо убедиться, что инструкции hreflang заданы на всех необходимых страницах.
Полезные ссылки
- Как отправить локализованные версии страниц в Google, support.google.com
Hreflang: дубликаты альтернативных URL
Показывает HTML-страницы или PDF-файлы, у которых в теге <link rel="alternate" /> или HTTP-заголовке «Link: rel="alternate"» есть несколько ссылок на один URL с разными значениями hreflang. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.
Чем грозит
Инструкция hreflang позволяет указать поисковым системам локализованные версии страницы. Это один из сигналов в региональном ранжировании результатов поиска.
Несколько инструкций hreflang с разными языковыми кодами (могут указывать на язык и регион) и одинаковыми целевыми URL можно использовать для уточнения региона, но есть большая вероятность допустить ошибку, а это может привести к низким позициям в результатах поиска и потере трафика.
Как исправить
Необходимо убедиться, что уточнение региона для одного и того же целевого URL необходимо и настроено корректно.
Полезные ссылки
- Как отправить локализованные версии страниц в Google, support.google.com
Отсутствует микроразметка
Показывает индексируемые страницы с отсутствующей микроразметкой.
Чем грозит
Микроразметка (структурированные данные) помогает поисковой системе понять содержание страницы.
Если у страницы отсутствует микроразметка — это упущенная возможность оптимизировать её и получить более привлекательные сниппеты в результатах поиска.
Как исправить
Нужно разметить данные на странице с помощью форматов JSON-LD, Microdata или RDFa, используя словарь Schema.org.
Полезные ссылки
- Вводные сведения о разметке структурированных данных, developers.google.com
- Welcome to Schema.org, schema.org
- Что такое микроразметка сайта, и зачем она нужна, netpeaksoftware.com
Неправильный формат тега Base
Показывает страницы, содержащие тег <base> с неправильным форматом.
Чем грозит
Неверная настройка тега <base> может привести к тому, что относительные ссылки на странице будут формироваться неправильно, из-за чего могут появиться битые ссылки.
Как исправить
Необходимо исправить ошибки в теге <base>: в атрибуте href этого тега должен быть абсолютный или относительный URL без ошибок.
Также в конце этого адреса должен быть слеш «/», иначе URL будет обработан как адрес файла, а не папки. А если на странице есть якорные ссылки или ссылки на URL с GET-параметрами (URL вида #link или ?query=link), то для них нужно использовать абсолютные адреса.
Рекомендуется вообще не использовать тег <base>. Он полезен в редких случаях, но может привести к появлению битых ссылок и растрате краулингового бюджета.
Полезные ссылки
Индексируемые URL с GET-параметрами
Показывает индексируемые URL, которые содержат GET-параметры. Например, URL вида https://example.com/?name=value.
Чем грозит
Поисковые системы рекомендуют использовать максимально простую и понятную посетителям структуру адресов страниц. Параметры в URL чаще всего плохо описывают контент страницы и могут быть плохо восприняты посетителями сайта.
Также наличие параметров в адресах это потенциальный источник дубликатов страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.
Как исправить
Убедиться, что URL с GET-параметрами должны быть индексируемые. Также, по возможности, вместо динамических использовать статические, понятные посетителям адреса страниц.
Полезные ссылки
- Структура URL, support.google.com
Макс. длина URL
Показывает страницы, у которых длина URL более 2000 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.
Чем грозит
Некоторые браузеры и серверы могут не обрабатывать URL длиннее 2000 символов.
Как исправить
Необходимо все URL на сайте сделать короче 2000 символов.
Оптимальная длина URL для важных страниц — до 100 символов. В таком случае они куда легче воспринимаются пользователями.
Полезные ссылки
- Введение в поисковую оптимизацию, support.google.com
- Google: Keep URL Length Shorter Than 2,000 Characters, seroundtable.com
- What is the maximum length of a URL in different browsers?, stackoverflow.com
- Максимальная длина URL-адреса в Internet Explorer составляет 2083 символа, support.microsoft.com
GA: индексируемые страницы без трафика
Показывает адреса страниц, которые доступны для индексации поисковыми системами, но не получали трафик за выбранный период (по данным сервиса Google Analytics). Обратите внимание, что ошибка актуальна только для сегментов, включающих бесплатный поисковый трафик.
Чем грозит
Возможно целевые страницы плохо оптимизированы, потому не получают трафик.
Как исправить
В первую очередь нужно проверить, есть ли ошибки высокой и средней критичности на целевых страницах, и исправить их. Также проанализировать данные по запросам и позициям страниц в инструментах поисковых систем для вебмастеров. Если страницы не получают показов в поисковой выдаче, возможно, поисковые системы не смогли правильно обработать контент или посчитали, что он низкого качества.
ЯМ: индексируемые страницы без трафика
Показывает адреса страниц, которые доступны для индексации поисковыми системами, но не получали трафик за выбранный период (по данным сервиса Яндекс.Метрика). Обратите внимание, что ошибка актуальна только для сегментов, включающих бесплатный поисковый трафик.
Чем грозит
Возможно целевые страницы плохо оптимизированы, потому не получают трафик.
Как исправить
В первую очередь нужно проверить, есть ли ошибки высокой и средней критичности на целевых страницах, и исправить их. Также проанализировать данные по запросам и позициям страниц в инструментах поисковых систем для вебмастеров. Если страницы не получают показов в поисковой выдаче, возможно, поисковые системы не смогли правильно обработать контент или посчитали, что он низкого качества.
GSC: индексируемые страницы без показов
Показывает адреса страниц, которые доступны для индексации поисковыми системами, но не имеют показов в органическом поиске Google за выбранный период (по данным сервиса Google Search Console).
Чем грозит
Возможно, целевые страницы плохо оптимизированы, потому не имеют показов в поиске.
Как исправить
В первую очередь нужно проверить, есть ли ошибки высокой и средней критичности на целевых страницах, и исправить их. Также важно проанализировать наличие ошибок у страниц по данным Search Console. Возможно, поисковый робот Google не смог правильно обработать контент или посчитал, что он низкого качества.
Полезные ссылки
- Общие сведения о кликах, показах и позиции в результатах поиска, support.google.com
GSC: индексируемые страницы без кликов
Показывает адреса страниц, которые доступны для индексации поисковыми системами, но не получили кликов из органического поиска Google за выбранный период (по данным сервиса Google Search Console).
Чем грозит
Возможно, целевые страницы плохо оптимизированы, потому не получают клики из поиска.
Как исправить
В первую очередь нужно проверить, есть ли ошибки высокой и средней критичности на целевых страницах, и исправить их. Также важно проанализировать данные по запросам и позициям страниц в Search Console. Если страницы не получают показов в поисковой выдаче, возможно, поисковые системы не смогли правильно обработать контент или посчитали, что он низкого качества.
Полезные ссылки
- Общие сведения о кликах, показах и позиции в результатах поиска, support.google.com
Статья помогла?
Отлично!
Спасибо за ваш отзыв
Извините, что не удалось помочь!
Спасибо за ваш отзыв
Комментарий отправлен
Мы ценим вашу помощь и постараемся исправить статью