Восемь лет. Столько времени Paritet платил подрядчикам за SEO. Писались статьи, закупались ссылки, сдавались отчёты «по работам».
По бренду сайт находился — и в Google, и в Яндексе. А вот по ключевым запросам — почти ничего. Те самые коммерческие и информационные запросы, ради которых и нанимают SEO-команду, годами шли мимо.
Аудит показал простую вещь: из 200+ страниц сайта Google видел и держал в индексе только 12. Остальные либо не открывались вовремя, либо открывались пустыми, либо были склеены друг с другом из-за дублей. Поэтому статьи и ссылки, за которые годами платили, и не могли начать работать — половине страниц просто некуда было попасть.
Мы собрали сайт заново — так, чтобы каждая страница открывалась быстро, имела уникальный заголовок, понятный адрес и попадала в Google за день-два, а не за месяцы. К запуску сайт готов; ниже — что именно было до и что собрано сейчас.
Хотите такой же аудит для своего сайта?
Технический SEO-аудит, бесплатно. За 1–2 дня покажем, что именно мешает сайту ранжироваться, и пришлём план: что и в каком порядке делать. Дальше — на ваше усмотрение, без обязательств.
Заказать бесплатный аудитЧто увидели на старте, и что собрано к перезапуску
- 12 страниц в индексе из 200+ — Google знает только про малую часть сайта, остальные не приносят трафик в принципе
- Видимость в Топ-10 — 4% (RU), 2% (Яндекс) — по большинству целевых запросов сайта в выдаче нет, клиенты находят конкурентов
- Находится по бренду, не находится по запросам — приходят только те, кто уже знает Paritet и ищет напрямую
- 120 визитов из органики в месяц — поиск приводит крайне мало клиентов
- CTR в Search Console 0.6% — даже когда сайт показывается, на него почти не кликают: заголовки и сниппеты не цепляют
- LCP 5.2 секунды — страница «появляется» через 5+ секунд, часть посетителей уходит, не дождавшись
- 180+ страниц с уникальными заголовками и сниппетами — каждая занимает свою позицию в выдаче и не конкурирует сама с собой
- Готовый HTML с сервера — Google индексирует страницу с первого захода, новые материалы попадают в поиск за день-два, а не за месяцы
- Schema.org на ключевых шаблонах — карточки в выдаче с ценой, рейтингом, FAQ. Заметнее среди конкурентов и выше CTR
- LCP 1.4 секунды — сайт открывается мгновенно, меньше отказов, и поиск повышает позиции быстрых сайтов
- Чистые sitemap, robots и канонические URL — обходы Google идут на нужные страницы, а не на мусор
- 301-редиректы со всех старых адресов — накопленный за годы вес ссылок сохранён, ничего не потеряно при переезде
Почему сайт не ранжировался
Команда подрядчиков годами писала тексты, но они уходили в пустоту. Дело было не в текстах, и не в самой платформе как таковой. WordPress технически способен индексироваться и ранжироваться. Дело было в том, во что эта конкретная сборка превратилась за восемь лет.
Тема 2014 года, тридцать плагинов, многолетние костыли поверх костылей. Любое обновление что-то ломало, поэтому годами никто ничего не трогал. Чистить сайт в таком состоянии было невозможно: за каждым плагином тянулась цепочка зависимостей, за каждой правкой, риск уронить что-то ещё. Поверх этого осели ломаное кэширование, поломанная микроразметка, дубли title, sitemap с 404.
Поисковик заходил, видел пустой и медленный HTML, тратил crawl budget впустую и уходил. В этой среде стандартные техники SEO физически не могли заработать, не потому что WordPress, а потому что эту сборку давно нельзя было ни обновить, ни почистить, ни безопасно изменить.
Что изменили в сборке и SEO
Поисковик теперь видит контент
Google индексирует страницу с первого захода. Новые материалы попадают в поиск за день-два, а не за месяцы.
Сайт открывается за 1.4 секунды вместо 5+
Меньше отказов на медленном интернете. Скорость — прямой ранжирующий фактор: поиск повышает позиции быстрых сайтов.
Каждая страница со своей идентичностью
Страницы не конкурируют друг с другом за позиции, весь ссылочный вес сходится на правильный URL.
Расширенные сниппеты в выдаче
Чистый sitemap и robots
Доступность и Google Картинки
Безопасные релизы
Как мы это сделали
Этап 1, аудит и стратегия. Полный crawl, анализ логов сервера, проверка индексации, Lighthouse по всем шаблонам. Подтвердили: чистить старую сборку дороже, чем переписать. Решение, переписать сайт на Next.js и параллельно перестроить SEO с нуля.
Этап 2, миграция и SEO-фундамент. Next.js 14 с SSR и ISR. Все старые URL, 1:1 с 301-редиректами, накопленный за годы вес сохранён. Канонические URL, sitemap, robots, микроразметка, мета-теги под кластеры, всё в коде, без плагинов.
Этап 3, контент и кластеры. Собрали новое семантическое ядро под бизнес-цели. Построили карту посадочных под коммерческие и информационные кластеры. Шаблоны с FAQ-блоками и внутренней перелинковкой по умолчанию.
Ниже, что зафиксировано на момент перезапуска: производительность, которую раньше платформа не давала вытащить.
Скорость и Core Web Vitals
Из красной зоны, в зелёную. Замеры по Lighthouse и PageSpeed Insights на новой сборке.
LCP (главная)
LCP (карточка услуги)
CLS
INP
TTFB
CWV в зелёной зоне
JS-бандл (initial)
Что дальше
Сайт готов к запуску в прод. После релиза, мониторинг индексации и позиций каждую неделю, аудит Core Web Vitals по всем шаблонам ежемесячно, проверка SEO-инвариантов после каждого деплоя. Сайт остаётся на нашей поддержке: расширяем контентные кластеры под новые запросы, реагируем на Google Core Updates.
