За последние месяцы меня всё чаще спрашивают, что нужно, чтобы появляться в ответах ИИ. Спрашивают в кулуарах конференций, в LinkedIn, на созвонах и во время воркшопов. Формулировки разные, но суть одна: хотят понять, что из классического SEO всё ещё работает, что нужно изучать дальше и как не отстать. И главное – как обрести ясность, потому что кажется, будто почва ушла из-под ног, а правила изменились за одну ночь.
Навыки, которые мы оттачивали двадцать лет, по-прежнему важны. Но не в тех пропорциях и не по тем причинам.
Когда я объясняю, как GenAI выбирает контент, реакция почти всегда одинакова. Сначала – облегчение: фундаментальные вещи всё ещё работают. Затем – лёгкая тревога: «второстепенная» работа вдруг стала обязательной. И наконец – любопытство, смешанное с дискомфортом: появился новый слой задач, которого ещё 5 лет назад не существовало. Но именно в этот момент страх упустить тренд превращается в мотивацию. Кривая обучения не такая крутая, как кажется. Риск один – продолжать верить, что видимость в будущем будет опираться на вчерашние правила.
Поэтому модель из трёх слоёв помогает – она структурирует хаос. Показывает, что переносится, что требует большего внимания, а что появилось впервые. И позволяет разумно выбирать, куда вкладывать время. Спорьте со мной, соглашайтесь – всё нормально. Я просто делюсь тем, что понимаю, а если кто-то видит иначе – это тоже нормально.
Сегмент 1: Работа, которая переходит из классического SEO
Здесь – то, что любой опытный SEO знает наизусть. Нового почти нет. Меняется лишь цена ошибки. LLM-системы зависят от доступности контента, ясного языка и стабильной тематической релевантности. Если вы уже делаете это хорошо – вы в выигрыше.
Семантическое соответствие
Мы уже привыкли писать под намерение пользователя. Это напрямую переносится в GenAI. Разница одна – LLM оценивает смысл, а не ключи. Он смотрит, отвечает ли блок контента на запрос ясно и без лишнего шума. Если вы решаете проблему – модель доверяет. Если уходите в сторону – блок игнорируется.
Прямые ответы
Фичерды нас к этому подготовили. LLM читает первые строки блока как показатель уверенности. Если ответ – в первых двух-трёх предложениях, этот блок попадает в выборку. Если «разогреваетесь» долгим вступлением – теряете видимость. Это не стиль, это про снижение риска.
Техническая доступность
Если краулер не может чисто получить контент – LLM тоже не сможет на него опереться. Великолепный текст бесполезен, если HTML грязный, структура непонятная, а robots.txt мешает. Технический фундамент влияет теперь и на качество векторного индекса.
Актуальность контента
Обновлять материалы на быстро меняющиеся темы стало критичнее. Модели предпочитают стабильный и свежий взгляд на предмет. Если ваш материал точный, но устаревший – он проигрывает конкуренту, который обновил.
Тематическая авторитетность
Это всегда было важным. Теперь – критическим. LLM ищет устойчивые паттерны экспертизы. Поэтому тонкие, поверхностные статьи – мёртвый груз. Нужна глубина и системность.
Сегмент 2: Работа, которую раньше делали лишь частично
Эти задачи существовали, но их редко делали последовательно. Сейчас они критически важны – они влияют на извлечение блоков, качество векторов и частоту цитирования.
Качество блока (chunk)
Модель извлекает не страницы, а блоки. Лучший блок – 100–300 слов, одна мысль, без дрейфа. Сложные, длинные абзацы делают embedding размытым. Чёткие, структурированные куски – работают.
Ясность сущностей
Раньше – просто предпочтение стиля. Сегодня – технический фактор. Если названия бренда, продукта, объектов «гуляют», embeddings тоже дрейфуют. Это снижает точность сопоставления.
Факты, готовые к цитированию
LLM ищут чёткие и безопасные факты: цифры, шаги, определения, чёткие объяснения. Мутная, оценочная подача – снижает вероятность цитирования.
Репутация источника
Ссылки важны, но ещё важнее – где вы упоминаетесь. Если бренд регулярно появляется в сильных источниках, модель формирует доверие к сущности. Это уже не link equity – это reputation equity.
Ясность важнее креативности
Понятный язык помогает модели лучше соотнести контент с вопросом. «Умная» маркетинговая речь ухудшает embeddings. Простота повышает точность.
Сегмент 3: Работа, которая появилась только в эпоху ИИ и LLM
Этот набор задач раньше не существовал. Сегодня – это ключ к видимости. Большинство команд пока этим не занимается. Именно здесь появляется разрыв между теми, кто попадает в ответы ИИ, и теми, кого модель не замечает.
Извлечение на уровне chunk
LLM ранжирует блоки, не страницы. Каждый блок конкурирует с любым блоком по теме. Слабые границы → проигрыш. Чёткие, структурные блоки → высокий шанс выбора.
Качество embedding
Ваш текст в итоге превращается в вектор. Структура, ясность и последовательность формируют его качество. Чистые абзацы – чистые embeddings. Смешанные идеи – шум.
Сигналы для извлечения
Заголовки, списки, определения, шаги – это подсказки для модели. Они помогают понять, что за что отвечает, и снижают риск неправильной интерпретации.
Сигналы доверия для машин
LLM смотрят на автора, его экспертизу, цитаты, происхождение данных, устойчивость источника. Модель избегает рисков. Если уровень доверия низкий – вы просто не участвуете.
Структурированный контекст
Нумерация, определения, подзаголовки, чёткие переходы – всё это снижает путаницу и улучшает извлечение. Особенно важно для экспертного и рискованного контента.
Заключение
Переход к GenAI – не сброс и не перезапуск. Это трансформация. Люди по-прежнему ищут помощь, решения, товары, поддержку. Но делают это через системы, которые оценивают контент иначе.
Большинство команд всё ещё оптимизируют страницы, в то время как ИИ анализирует блоки. Всё ещё думают ключами, когда модели сравнивают смыслы. Всё ещё шлифуют текст, в то время как модель ищет сигналы доверия и структурную ясность.
Когда понимаешь эти три слоя – исчезает туман. Работа снова становится понятной. И те, кто адаптируется раньше, получат преимущество, которое будет усиливаться годами. ИИ награждает не тех, кто громче. А тех, кто понятнее.
Моя новая книга «The Machine Layer: How to Stay Visible and Trusted in the Age of AI Search» уже доступна на Amazon. В ней – архитектура решений (токенизация, чанкинг, векторные embeddings, RAG) и практические модели, которые помогут выстроить стратегию видимости в новую эпоху.
