EN UK RU
🤖 SEO Інструмент · Ліміт Google 2 МБ

Перевірте сайт на відповідність
ліміту Google у 2 МБ

Googlebot не індексує сторінки та ресурси важчі за 2 МБ. Введіть URL — інструмент проаналізує розмір документа, кожен CSS та JS файл, доступність для бота та багато іншого.

Що перевіряє інструмент

Повний аудит за секунди — без реєстрації та встановлення

📄

Розмір HTML-документа

Googlebot завантажує і обробляє лише перші 2 МБ HTML. Все що далі — ігнорується. Особливо критично для сторінок з вбудованими даними або великими JSON-LD блоками.

🎨

CSS та JS файли

Кожен підключений файл стилів і скриптів також має ліміт у 2 МБ. Важкі бандли не лише сповільнюють завантаження, але й обмежують те, скільки Googlebot може розпарсити та відрендерити.

🤖

Доступність для Googlebot

Перевіряємо robots.txt, заголовки X-Robots-Tag і мета-тег robots. Сторінка може бути відкрита для користувачів, але невидима для Google одночасно.

Стиснення та кешування

gzip/brotli стиснення зменшує розмір передачі у 3–10 разів. Без нього файл на 900 КБ може перевищувати ліміт. Cache-Control запобігає повторним завантаженням.

🔒

Заголовки безпеки

Аудит HSTS, CSP, X-Frame-Options та інших заголовків. Впливають на безпеку користувачів і сигнали Page Experience у Chrome.

🗺️

robots.txt та Sitemap

Аналізуємо файл robots.txt: чи заблокований Googlebot, чи є посилання на sitemap, які правила застосовуються до перевіреного URL.

Питання і відповіді

Все про ліміт 2 МБ та індексування

Чому Google встановив ліміт саме у 2 МБ?
Google офіційно документує ліміт у 15 МБ для завантаження, але індексується лише перші 2 МБ HTML-контенту. Це обмеження існує, щоб Googlebot міг ефективно обходити мільярди сторінок.
Ліміт 2 МБ — до чи після стиснення?
Ліміт застосовується до розміру після розпакування. Якщо ваш HTML важить 600 КБ у gzip, але розгортається у 2.5 МБ — остання частина не буде проіндексована. Цей інструмент завжди показує реальний розпакований розмір.
Що станеться, якщо JS-файл перевищує 2 МБ?
Googlebot не виконає весь скрипт. Якщо контент рендериться через JavaScript (SPA), бот не побачить частину сторінки. Особливо критично для інтернет-магазинів і новинних сайтів. Використовуйте code splitting та SSR/SSG.
Як увімкнути gzip/brotli стиснення?
Nginx: gzip on; gzip_types text/css application/javascript;
Apache: увімкніть mod_deflate та mod_brotli.
Cloudflare: стиснення увімкнено за замовчуванням для всього трафіку.
Node.js / Express: використовуйте пакет compression.
Сторінка повертає 200, але доступність для Googlebot показує помилку?
Деякі сервери визначають User-Agent і блокують ботів через 403/503 або повертають порожній контент. Це також може статися через Cloudflare Bot Fight Mode, Fail2Ban або WAF правила. Перевірте налаштування фаєрвола та захисту від ботів.
Чи впливає розмір файлів на Core Web Vitals?
Безпосередньо — ні. Але великий JS-файл збільшує час парсингу та виконання, що погіршує LCP і TBT. Великий CSS блокує рендеринг. Обидва показники входять до сигналів Page Experience для ранжування.
💼

Потрібен SEO-аудит, розробка сайту або кастомний інструмент?

Агентство Ivatech створює високопродуктивні веб-продукти та SEO-рішення. Відкриті до нових проектів на Upwork.

Співпрацювати з Ivatech на Upwork