Googlebot не индексирует страницы и ресурсы тяжелее 2 МБ. Введите URL — инструмент проанализирует размер документа, каждый CSS и JS файл, доступность для бота и многое другое.
Полный аудит за секунды — без регистрации и установки
Googlebot загружает и обрабатывает только первые 2 МБ HTML. Всё что после — игнорируется. Особенно критично для страниц с inline-данными или большими JSON-LD блоками.
Каждый подключаемый файл стилей и скриптов также имеет лимит в 2 МБ. Тяжёлые бандлы не только замедляют загрузку, но и ограничивают индексирование.
Проверяем robots.txt, заголовки X-Robots-Tag и мета-тег robots. Страница может быть открыта для пользователей, но закрыта для бота одновременно.
gzip/brotli сжатие уменьшает передаваемый размер в 3–10 раз. Без сжатия файл на 900 КБ может превышать лимит. Cache-Control предотвращает повторные загрузки.
Аудит HSTS, CSP, X-Frame-Options и других заголовков. Влияют на безопасность пользователей и сигналы Page Experience в Chrome.
Анализируем файл robots.txt: заблокирован ли Googlebot, есть ли ссылки на sitemap, какие правила применяются к данному URL.
Всё о лимите 2 МБ и индексировании
gzip on; gzip_types text/css application/javascript;compression.
Агентство Ivatech создаёт высокопроизводительные веб-продукты и SEO-решения. Открыты для новых проектов на Upwork.
Сотрудничать с Ivatech на Upwork