Что происходит внутри компании, когда ИИ становится «слишком много»
В какой-то момент ИИ перестает быть инструментом и превращается в шум:
- У сотрудников пять интерфейсов, три бота и два «единых окна», которые делают почти одно и то же.
- У IT и безопасности головная боль — интеграции, доступы, риски утечек и теневой ИИ (когда подразделения тащат сервисы сами, без контроля).
- У бизнеса теряется мысль «зачем»: задача растворяется, и ИИ начинает существовать ради самого факта внедрения.
Плюс отдельный эффект, который редко проговаривают вслух: контент и коммуникация становятся одинаковыми. Бренды начинают звучать как «средняя температура по рынку». Формально всё «качественно», но узнаваемости меньше.
5 типов проблем, которые чаще всего возникают при ИИ-избытке
1. Технологические.
Модель может быть слабой именно для вашей задачи. Данные могут быть «грязными». Интеграции могут жить отдельной жизнью. А кроме того, бывают те самые «крайние случаи»: всё работало на демо, а в реальности один нестандартный сценарий валит систему.
2. Организационные.
Самая частая история: запускают несколько точечных проектов без одной дорожной карты. В итоге команда распыляется, бизнес не понимает приоритетов, и каждый департамент тянет одеяло на себя. Тут же появляется теневой ИИ (shadow AI): кто-то подключил инструмент без согласования, потому что «быстро надо».
3. Правовые и регуляторные.
Право обычно догоняет технологии медленно. И когда ИИ начинает влиять на кадровые решения, правосудие, обработку персональных данных или агитацию, «удивление» быстро заканчивается. Потом остаются проверки, скандалы и откаты.
4. Этические.
Как только ИИ касается человеческой судьбы, доверие становится главным ресурсом. И его легко потерять. Объяснимость, прозрачность, право на апелляцию, аудит — это не «бюрократия», а страховка от больших проблем.
5. UX и человеческий фактор.
Если людям не объяснили, зачем это всё и что поменяется в работе, они будут либо саботировать, либо делать вид, что используют. И их можно понять: новые инструменты часто приходят сверху как «обязаловка», без времени на адаптацию.
Общие паттерны: почему это повторяется снова и снова
Если убрать громкие слова, остаются пять повторяющихся причин:
- Задача не сформулирована. «Хотим ИИ» не означает «хотим снизить время обработки обращений на 20%».
- Данные и процессы не готовы. ИИ ставят поверх хаоса, и он начинает усиливать хаос.
- Интеграции не продуманы. Пилот живет отдельно, в прод не доезжает, потому что «ну там сложно».
- Человека забыли. Сотрудники не вовлечены, не обучены, боятся, не доверяют.
- Сразу масштабируют. Без нормальных итераций и стресс-тестов.
Несколько реальных антикейсов из мировой практики: где и почему ломалось
Иногда лучший способ понять, что такое ИИ-избыток, — это посмотреть на проекты, которые громко обещали, а потом тихо рассыпались. Причем по разным причинам: у одних оказался «ИИ-фасад», у других — сырой продукт, у третьих — этика и право прилетели раньше, чем рост.
Builder.ai: «ИИ-конструктор», который оказался ручным трудом
На пике хайпа Builder.ai продавал идею «приложение собирается само»: якобы платформа на ИИ, оценка компании — около 1,5 млрд $, инвестиции — 450 млн $ (Microsoft, SoftBank и другие). Красивый нарратив: «революция разработки, автоматизация, конец программистов».
А потом случилось расследование — и выяснилось неприятное: «волшебный ИИ» выглядел как витрина. За ней код делали вручную сотни индийских программистов, а выручку, по сообщениям, сильно завышали.
Humane: футуризм без удобства не работает
Humane сделал AI Pin — носимый гаджет «вместо смартфона»: голосовой ассистент, проектор, красивый концепт, цена 499 $. Проблема в том, что пользователи довольно быстро приземлили идею: медленно, сыро, батарея слабая, жить с этим каждый день неудобно.
Если нет понятного выигрыша по сравнению со смартфоном, гаджет обречен.
Noogata: «логотипы клиентов» не равны бизнесу
Noogata строила AI-платформу для бизнес-аналитики и показывала внушительных клиентов (PepsiCo, Colgate-Palmolive Company). Инвестиций — 28 млн $. Но проблема оказалась классической: пилоты шли, а масштабные внедрения — нет. Большие сделки застревали в тестовой стадии. В мае 2025 года Noogata объявила о закрытии и попытке продать технологию.
Figure AI: 99% точности мало, если «отваливаются руки»
BMW тестировала гуманоидных роботов Figure 02 на конвейере: установка кузовных деталей, промышленная линия, настоящая нагрузка. И вот тут случилась чистая инженерная реальность: после 11 месяцев работы выяснилось, что конструкция не выдерживает непрерывного износа — «у роботов отваливались руки» (механический износ).
При этом точность задач была высокой (> 99%). Но в промышленности этого недостаточно, если железо не живет долго.
DoNotPay: «робот-юрист» без тормозов
DoNotPay продавала идею «юриста в приложении»: оспаривание штрафов и бытовые споры. Но пользователи и регуляторы обнаружили, что бот может генерировать фальшивые судебные решения и давать рискованные советы. Федеральная торговая комиссия (FTC) США признала рекламу вводящей в заблуждение, наложила штрафы и обязала ограничить функции.
Yara AI: редкий случай, когда проект закрыли из-за совести
Yara делала чат-бота для поддержки при тревоге и стрессе. И вот неожиданный поворот: после тестов команда сама отменила релиз. Основатель публично признал, что современные модели слишком опасны в такой зоне: они не всегда различают «мне тревожно» и «у меня кризис», а ошибка тут может стоить слишком дорого.
Если смотреть на это спокойно, почти везде ИИ пытались «втащить в реальность» быстрее, чем реальность была готова.
Что с этим делать: короткий чек-лист против ИИ-избытка
1. Начать с одной задачи.
Одна. Конкретная. Измеримая. Без «и еще вот это».
2. Записать KPI «до/после».
Если метрика не меняется, значит, это не проект, а декорация.
3. Проверить альтернативы.
Иногда обычная автоматизация процесса, нормальная инструкция или донастройка CRM дает эффект быстрее и дешевле, чем ML.
4. Пилотировать в реальных условиях.
Не на «идеальных данных» и не на «тестовых пользователях, которые все понимают». Делайте стресс-тесты и план отката.
5. Держать «человека в петле» там, где цена ошибки высокая.
HR, медицина, безопасность, правосудие, финансы — здесь без апелляции и верификации вы играете в рулетку.
6. Убрать «зоопарк инструментов».
Сделайте ревизию: какие сервисы дублируют друг друга, что реально используют, что просто висит «на всякий случай».
7. Сразу включать юристов и безопасность.
Не после инцидента. До запуска.
ИИ-избыток — это не «слишком много технологий». Это слишком мало смысла и управления. Когда есть ясная задача, нормальные данные, понятная ответственность и право на апелляцию, ИИ реально усиливает бизнес. Когда этого нет, ИИ становится дорогим способом создать новые проблемы.