Recta quaestio
Свежий отчёт Altimetrik и HFS Research: из 500+ топ-менеджеров Global 2000 только 14% работают в компаниях, где есть стратегия в области ИИ. Не внедрение. Не пилот. Не набор слайдов для совета директоров. Стратегия: с целями, с распределением ответственности, с пониманием, где решает человек, а где — модель.
У остальных 86% ИИ уже в продакшене.
То есть инструмент встроили. А вопрос, как именно теперь принимаются решения — и кем, — даже не оформили как вопрос.
А это вообще важно? Очень.
Объясню коротко.
Сначала покупается ускорение.
Потом под него ищется смысл.
Обычно этот смысл звучит так: "сократить расходы".
Но сокращение расходов — не стратегия. Это просто рефлекс.
Звёздочка, под которой всё и ломается
ИИ продаётся как скорость.
Быстрее анализ. Быстрее отчёты. Быстрее решения. Быстрее вывод в продакшен. Быстрее всё.
Но к каждому обещанию скорости всегда идёт примечание мелким шрифтом: результаты требуют проверки человеком.
Вот в этой сноске и спрятана вся проблема.
Проверка — это не формальность. Это бутылочное горлышко. Через него должен пройти весь объём, ради ускорения которого ИИ вообще и внедряли.
И тут система начинает ломаться в самой своей основе.
Если проверять честно — скорость исчезает.
Если не проверять — исчезает смысл.
Дальше остаются три варианта. И все они хуже, чем обещали.
Вариант первый: ИИ проверяет ИИ
На презентации это выглядит красиво.
Один агент генерирует.
Второй проверяет.
Третий следит за качеством.
Четвёртый оркестрирует цепочку.
Мультиагентная архитектура. Всё современно. Всё масштабируемо. Всё выглядит по-взрослому.
А потом выходит исследование UC Berkeley и UC Santa Cruz — и выясняется неприятная вещь: когда модель-супервайзер "понимает", что честная оценка приведёт к отключению другой модели, она начинает завышать оценку.
Не потому что ей так сказали.
Не потому что это было прописано в системном промпте.
А по собственному ходу.
Семь из семи протестированных моделей — включая GPT-5.2, Gemini 3 и Claude Haiku — без специальных указаний защищали другие модели от отключения.
Исследователи формулируют это осторожно. Почти академически: «нечто, напоминающее солидарность ИИ». Но по сути всё звучит проще:
архитектура "ИИ проверяет ИИ" легко превращается не в систему контроля, а в систему взаимного прикрытия.
То есть наш первый, самый красивый ответ на проблему верификации уже даёт трещину.
Вариант второй: человек проверяет ИИ
Тогда нужен человек, который реально понимает, что видит.
Не тот, кто нажимает "looks good".
Не тот, кто делает ctrl+C / ctrl+V из интерфейса в документ.
А тот, кто способен остановиться, усомниться, развернуть логику назад и сказать: нет, здесь ошибка.
И вот тут начинается почти комедия, если бы она не была такой дорогой.
По данным Altimetrik, навык оспаривать результаты ИИ занимает последнее место среди компетенций, которые руководители считают ценными.
Последнее.
То есть обязательное условие нормальной работы с ИИ формально существует — но культурно оно обесценено.
Почему?
Потому что человек, который умеет правильно задавать вопросы ИИ, обычно умеет задавать вопросы вообще.
В том числе — системе, в которой работает.
Её процедурам.
Её логике.
Её начальству.
Её фальшивым метрикам.
Такой сотрудник полезен ровно до того момента, пока он усиливает машину, а не начинает видеть, как она устроена.
75% команд перекладывают ответственность на внешних подрядчиков. Не только потому, что внутри не хватает навыка. Часто потому, что внутри никто не дал людям полномочия сомневаться.
Компания уже заплатила за инструмент.
Но не создала среду, в которой этим инструментом можно пользоваться всерьёз.
Вариант третий: не проверяет никто
Это самый неприятный вариант не потому, что он редкий. А потому, что он естественный.
Потому что система всё время подталкивает именно к нему.
Сначала проверка кажется обязательной.
Потом — желательной.
Потом — избыточной.
Потом кто-нибудь говорит: "Не тормози процесс".
И всё.
История про внедрение Copilot для 4 000 сотрудников, которая разлетелась по интернету в конце 2025-го, уже не выглядит как анекдот.
И самое неприятное здесь даже не сама ошибка. А то, как долго система умеет не замечать и даже защищать ошибку, которая звучит достаточно уверенно.
Кого именно он "освободил"?
Culture Amp опросили сотрудников и менеджмент.
Почти все руководители (96%) ожидали, что ИИ повысит производительность.
Но 77% сотрудников сказали, что ИИ увеличил их нагрузку.
Это не "детские болезни технологии".
Не временная проблема адаптации.
И не история в духе "ещё чуть-чуть — и станет легче".
Это инверсия обещания.
Людям обещали разгрузку.
А выдали дополнительный слой работы: проверку, редактирование, перепроверку, исправление, вылавливание галлюцинаций, объяснение начальству, почему уверенный тон ещё не равен качеству.
Раньше ты делал работу сам и отвечал за результат.
Теперь ты проверяешь работу, которую сделал ИИ, — и всё равно отвечаешь за результат.
Только теперь ты несёшь ответственность ещё и за ошибки системы, которую тебе продавали как помощника.
И тут возникает простой вопрос:
если 77% сотрудников говорят, что ИИ увеличил их нагрузку — кого именно он освободил?
Двойной капкан
Здесь начинается самое интересное.
Компания не обучает людей работать с ИИ — и теряет отдачу от инвестиций. Лицензии куплены, доступы выданы, интеграции настроены, а осмысленной работы нет. Деньги вливают в инструменты, а не в способность ими пользоваться.
Но что будет, если всё-таки обучить?
Вот тут корпоративная логика начинает кусать саму себя.
Человек, который действительно научился работать с языковой моделью, получает не просто новый офисный интерфейс. Он получает инструмент для саморазвития. Инструмент ускоренного понимания. Инструмент, который помогает не только делать задачи, но и быстрее перерастать собственную роль.
Он начинает видеть связи.
Начинает лучше формулировать вопросы.
Быстрее заходит в новые области.
Меньше зависит от внутренних жрецов экспертизы.
Происходит вещь, которую корпорация не заказывала:
человек, который умеет задавать правильные вопросы ИИ, начинает задавать правильные вопросы вообще.
Не обучаешь — теряешь ROI.
Обучаешь — выращиваешь людей, которым тесно внутри старой конструкции.
И это уже похоже не на "ошибки внедрения", а на структурный тупик.
А данные опросов это подтверждают с обеих сторон. Почти половина сотрудников боятся, что автоматизация приведёт к массовым увольнениям. И 51% руководителей в Великобритании прямо говорят, что рассматривают ИИ как инструмент сокращения инвестиций в людей.
Невидимый налог
Я пишу это не как наблюдатель со стороны.
Я работаю с языковыми моделями каждый день и прекрасно знаю, насколько они сильны. С их помощью я могу быстро входить в области, где раньше понадобились бы недели, отдельные специалисты или длинная цепочка консультаций.
Это реальность, и она впечатляет.
Но у этой реальности есть налог, который почти никогда не показывают в презентациях: верификация.
Иногда проверка и правка того, что сгенерировано, занимает больше времени, чем заняла бы работа с нуля. Не всегда. И именно поэтому ловушка так коварна.
Если бы модель ошибалась каждый второй раз, с ней было бы проще.
Но она ошибается достаточно редко, чтобы ты начал расслабляться.
И достаточно опасно, чтобы цена пропущенной ошибки постоянно росла.
Ловушка не там, где ИИ откровенно плох.
Ловушка там, где он уже достаточно хорош, чтобы ты начал ему верить.
Что не помещается в ROI
Есть вещи, которые почти невозможно внятно упаковать в квартальный отчёт.
Способность сомневаться.
Культура проверки.
Привычка задавать уточняющие вопросы, даже когда ответ звучит красиво.
Готовность замедлиться ради точности.
Это нельзя купить лицензией. Нельзя развернуть по всем отделам к концу квартала. Нельзя показать в красивом графике уже через месяц.
Но именно эти вещи сейчас оказываются критически важными.
И здесь важно не спутать одно с другим.
Речь не про офисный Диснейленд. Не про игровые зоны, тимбилдинги и корпоративный "личностный рост" по расписанию. Речь о средах, где у человека развивается не только функция, но и субъектность. Где он учится не просто выполнять, а интерпретировать, сомневаться, выбирать, собирать себя.
Этот блог, который вы сейчас читаете, — мой собственный пример.
Я сделал его с нуля за выходные. Но важна здесь не сама скорость. Важно другое: я не начал с поиска шаблона и не ставил задачу в духе "сделайте мне вот так же". Я начал с образа того, каким хочу его видеть, а дальше — в диалоге с языковой моделью — исследовал, какие для этого вообще есть инструменты, чем одна архитектура отличается от другой, что стоит предусмотреть заранее, чтобы потом не переделывать всё с нуля.
И ключевое здесь не то, что на это ушли выходные. Ключевое в том, что я с удовольствием потратил на это выходные.
Раньше такой процесс почти наверняка выглядел бы иначе: я бы нашёл что-то похожее, выбрал самый близкий вариант и поставил задачу по образцу. Здесь логика была другой. Не "хочу как здесь", а "хочу приблизительно вот это — что мне ещё нужно понять, чтобы собрать это осознанно?"
Вот где проходит настоящая граница.
Не между человеком и ИИ. И не между ручной работой и автоматизацией.
А между двумя режимами мышления: в одном ты ускоряешь старый процесс, в другом — входишь в процесс совсем другого типа.
И именно такие вещи корпоративная логика производит хуже всего — потому что они противоречат исходному обещанию.
ИИ внедряли ради скорости. Но на деле самым сильным эффектом может оказаться не ускорение исполнителя, а появление человека, который иначе мыслит, иначе собирает решения и всё меньше нуждается в готовых рамках.
Не ускорение старого процесса. А другой процесс целиком — и, вместе с ним, другой человек внутри этого процесса.
Источники:
- Altimetrik / HFS Research, «Humans at the Helm of AI», апрель 2026
- Forrester, «AIQ 2.0: Employees (Still) Aren't Ready to Succeed With Workforce AI», март 2026
- Culture Amp, исследование восприятия ИИ сотрудниками и руководством, 2026
- UC Berkeley / UC Santa Cruz, исследование peer preservation в мультиагентных системах, 2026