Как просто и быстро поднять качество генерации текстов за счет...
Как просто и быстро поднять качество генерации текстов за счет добавления материалов к чату
Продолжу тему повышения качества AI‑контента. Я смотрю на это не как на "обвести поисковые системы вокруг пальца", а как на задачу "как сделать текст реально полезнее и сильнее".
В прошлом посте показывал свой небольшой эксперимент: если просить ИИ напиши статью без входных материалов, он крутится в петле шаблонов и повторяет одно и то же.
Чтобы выйти из этой петли и генерировать лучше, чем конкуренты, которые "пишут" просто в чатике, есть несколько рабочих подходов:
1) Подключить вашу базу знаний (компания / эксперт / продукт): кейсы, реализованные проекты, учебные материалы для продажников, вопросы и ответы и так далее.
Технически это делается либо через RAG/базу знаний, либо через добавление файлов в проекты/ботов в чатах, но не закидыванием всей базы знаний в контекст.
2. Подключение донора ценной информации для генерации контента. Например
• публичные ТГ каналы можно выкачивать буквально в 4 щелчка мыши всем желающим. Например, я это использую, чтобы ИИ на основе моих постов цитировала меня в контенте.
• использование видео с YouTube для написания на основе них контента.
и так далее
3) Использовать deep research (AI исследований) для сборки базы источников
Если не дать модели материалов, она будет опираться на общие паттерны и несколько самых очевидных источников из ТОПа.
Вы можете закинуть план вашей страницы на дип ресерч и попросить собрать материалы для каждой темы и под темы из нее. И вот вы уже "пишете" текст, как копирайтер-ресерчер, а не как "рерайтер ТОП-10" за 3 копейки с биржи копирайтинга.
Про формат подачи знаний в ИИ в режиме работы с чатом
Есть 2 основных сценария:
1) Закинуть файлы прямо в чат
Файлы попадут в контекст. Если информации чересчур много — модель начинает хуже соблюдать остальные правила и теряет фокус.
Поэтому в чат лучше добавлять только самое важное: например, итоговый конспект из ресёрча или выжимку по продукту.
P.S. Но вы можете возразить, что есть Gemini с огромным контекстом, в который хоть книги закидывай и он их будет обрабатывать. Вот тут мой небольшой эксперимент с Gemini 3 и выполнением правил https://t.me/seokotenkov/637.
2) Подключить знания в проект/бота (мини‑RAG)
В таком режиме материалы дробятся на куски, и ИИ под задачу вытаскивает только релевантные фрагменты.
Плюс: можно загрузить гораздо больше информации и не забивать контекст целиком.
В следующих постах начну показывать, как этим пользоваться на практике, и дам примеры генераций.
Ссылки из поста:– https://t.me/seokotenkov/650
Источник новости https://t.me/seokotenkov/662...
146 
