Бесплатный аудит

Кейс: как SEOboost продвигает сам себя — результаты за 30 дней

Почему мы решили продвигать SEOboost своими же инструментами

Когда ты годами рассказываешь клиентам, что твоя система из AI-агентов, семантических анализаторов и облачных нейросетей способна вытащить сайт из нуля в топ, рано или поздно наступает момент истины. Мы устали от слайдов и гипотез. Захотели честного, прозрачного эксперимента: взять собственный домен, голый HTML без CMS, нулевой бюджет на ссылки — и за 30 дней показать, на что реально способна связка «Bukvarix + 14 AI-агентов + Ollama Cloud». Никаких подкруток, никакой магии вне кода, который доступен каждому клиенту SEOboost.

Вторая причина — внутренняя. Мы постоянно дорабатываем агентов, учим их лучше понимать интенты, собирать «пустые SERP-окна», генерировать не воду, а экспертный контент. Но одно дело — тестовые полигоны, и совсем другое — живой сайт, который Google либо полюбит, либо молча похоронит в песках выдачи. Поэтому мы решили: seoboost.su станет нашим публичным полигоном. Все результаты, включая провалы, — открыты. Это и кейс, и честный разговор с рынком.

Стартовые условия: сайт на HTML/CSS, 0 трафика, 0 позиций

Домен seoboost.su мы зарегистрировали специально под эксперимент. Никакой истории, нулевой ссылочный профиль, песочница во всей красе. Сайт собрали на чистых HTML-шаблонах — ни WordPress, ни других CMS. Хотели исключить любые технические факторы, которые могли бы повлиять на результат: никаких лишних скриптов, кривых плагинов или медленных билдеров. Сервер — обычный VPS с HTTPS, скорость загрузки страниц меньше секунды, мобильная адаптация на флексах. Всё.

На старте у нас было ровно ноль страниц в индексе, ноль позиций по любому запросу и, соответственно, ноль посетителей из поиска. Даже брендовый запрос «seoboost» не находил сайт — домен был слишком свежим. Мы сознательно не привязывали никакие внешние сигналы: ни соцсетей, ни редиректов со старых проектов. Абсолютно стерильная площадка. Единственное, что мы сделали заранее — подключили Search Console и настроили базовую аналитику, чтобы видеть картину день в день.

Такой старт многих SEO-специалистов вгоняет в уныние. Но мы воспринимали его как идеальный холст: если инструменты SEOboost сработают здесь, они сработают где угодно.

Стратегия: ставка на пустые SERP-окна вместо лобовой конкуренции

Идти в лобовую по запросам вроде «SEO продвижение сайта» или «заказать SEO» было бы самоубийством. В топе по ним сидят мастодонты с многолетней историей, тысячами страниц и бюджетами, которые нам даже не снились. Поэтому мы с самого начала выбрали асимметричную стратегию — охота за «пустыми SERP-окнами». Так мы называем поисковые запросы, по которым в выдаче либо нет релевантного ответа, либо лежат страницы с ужасным контентом: короткие, неструктурированные, без фактуры. Именно в таких окнах можно вырасти стремительно, даже с нулевым авторитетом домена.

Для поиска этих окон мы использовали Bukvarix — наш семантический кластеризатор, который умеет не просто собирать запросы, но и анализировать текущую выдачу: оценивать длину контента в топ-10, наличие видео, изображений, уровень доменов-конкурентов. За пару часов он выгрузил около 800 низкоконкурентных кластеров, из которых мы вручную отобрали 8 тематических хабов. Основной фокус — микро-ниши на стыке SEO и AI, где конкуренция еще не оформилась: «SEO-аудит с помощью AI», «ускорение индексации через API», «автоматизация контент-плана нейросетями», «как найти пустые SERP-окна» и тому подобное.

Каждый хаб строился вокруг одного «якорного» запроса и нескольких шлейфовых. Например, хаб «AI-аудит» включал запросы: «бесплатный AI SEO аудит», «как AI находит технические ошибки», «сравнение AI-аудиторов». Мы сознательно избегали коммерческих запросов с явным намерением купить — на старте им не место. Вся стратегия сводилась к тому, чтобы за 30 дней застолбить участки, которые потом станут трамплином для более конкурентных тем.

Контент-план: 13 статей за 30 дней по 8 хабам

Имея на руках 8 хабов, мы составили плотный, но реалистичный контент-план: 13 статей за 30 дней. Почему не 30? Потому что каждая статья — это не потоковый спам, а глубокий материал от 2000 до 3500 слов с реальными данными, скриншотами, таблицами и элементами E-E-A-T. Мы не гнались за количеством, нам нужны были сигналы качества.

Распределение получилось таким:

  • AI в SEO (2 статьи: обзор агентов и кейс автоматизации);
  • Технический аудит (2 статьи: чек-лист и разбор ошибок на реальном примере);
  • Ускорение индексации (2 статьи: API Indexing и мифы);
  • Семантика и Bukvarix (1 большая статья-инструкция);
  • Кейсы автоматизации (1 статья про наш внутренний пайплайн);
  • Локальное SEO для стартапов (1 статья);
  • E-commerce SEO (1 статья);
  • Контент-маркетинг с AI (2 статьи: генерация и фактчекинг).

Каждый материал мы привязывали к конкретному «окну». Например, статью «Как найти 1000 пустых SERP-окон за час с помощью Bukvarix» мы целились сразу под несколько низкочастотных запросов, по которым в топе болтались устаревшие посты 2019 года без единого скриншота. Публикации шли с интервалом 2–3 дня, чтобы поисковик привыкал к ритму и не воспринимал всплеск как спам.

Важный нюанс: все статьи проходили обязательную редактуру живого человека. AI-агенты генерировали скелет, фактуру, черновики, но финальный блеск — устранение смысловых повторов, добавление уникальных примеров из нашей практики, проверка цифр — делали люди. Без этого этапа контент получался технически грамотным, но бездушным. А Google, как мы не раз убеждались, бездушность не любит.

Технический стек: 14 AI-агентов, Bukvarix, Ollama Cloud

Теперь о том, что происходило под капотом. Мы задействовали 14 специализированных AI-агентов — это микросервисы, каждый из которых отвечает за узкий участок SEO-конвейера. Они не просто скрипты, а обученные модели, которые понимают контекст и могут взаимодействовать друг с другом через API.

Вот как выглядел пайплайн для одной статьи:

1. Агент-семантик через Bukvarix собирал кластер запросов и определял интенты.

2. Агент-структурист строил скелет статьи: заголовки, подзаголовки, логические блоки.

3. Агент-райтер (работающий на Ollama Cloud) генерировал черновик, опираясь на фактологическую базу.

4. Агент-фактчекер сверял цифры и утверждения с доверенными источниками.

5. SEO-агент оптимизировал текст: вписывал LSI-фразы, проверял плотность ключей без переспама, формировал Title и Description.

6. Агент-линковщик выстраивал внутреннюю перелинковку с уже опубликованными статьями.

7. Агент-визуализатор генерировал изображения и прописывал осмысленные alt-тексты.

8. Агент-уникализатор проверял текст на плагиат и при необходимости перефразировал фрагменты.

9. Агент-публикатор через FTP/API заливал готовую страницу на сервер, обновлял sitemap.xml.

10. Агент-пингер отправлял URL в Indexing API и уведомлял Search Console.

11. Агент-мониторщик позиций фиксировал изменения.

12. Агент-аналитик поведения смотрел, как пользователи взаимодействуют со страницей (глубина, отказы), и давал рекомендации.

13. Агент-корректор на основе этих данных предлагал правки: где усилить введение, где добавить пример.

14. Агент-диспетчер координировал всю цепочку, следил за дедлайнами и логировал ошибки.

Bukvarix здесь играл роль мозга семантики: именно он находил те самые пустые окна, оценивал динамику конкуренции и подсказывал, какие кластеры брать в работу в первую очередь. А Ollama Cloud мы использовали как вычислительную среду для запуска больших языковых моделей — это позволило не зависеть от лимитов публичных API и обрабатывать огромные объемы текста по фиксированной стоимости. По сути, весь конвейер жил в облаке, а мы лишь контролировали процесс через дашборд.

Были и сбои. Однажды агент-публикатор из-за бага в шаблоне залил статью с битыми HTML-тегами — хорошо, что заметили через час и откатили. В другой раз агент-фактчекер не смог верифицировать статистику из исследования двухлетней давности и просто вырезал абзац — пришлось вручную искать свежие данные. Но в целом 14 агентов позволили делать работу, на которую у команды из трех SEO-специалистов ушла бы минимум неделя на каждую статью, за считанные часы.

Результаты через 30 дней (позиции, трафик, индексация)

Через 30 дней после старта мы сели считать цифры. Честно, без прикрас.

Индексация. Из 13 опубликованных статей в индекс попали 12. Одна страница зависла в статусе «Обнаружено, но не проиндексировано» — как выяснилось, мы случайно прописали одинаковый Description для нее и другой статьи, и Google счел это дублем. Ошибку исправили, но в рамках 30-дневного среза она не успела выйти в выдачу. Это нам урок: даже AI-агентам нужен строгий чек-лист уникальности мета-тегов.

**

Готовы попробовать?

Запустите бесплатный SEO-аудит. 14 AI-агентов проверят ваш сайт за 60 секунд.

🚀 Бесплатный аудит