Як Трамп відправив Пентагон під три чорти :)
- 3 дні тому
- Читати 13 хв
Оновлено: 2 дні тому

У перші дні військової операції "Епічна лють" в Ірані, коли весь світ затамувавши подих стежив за війною, що розгортається в регіоні Перської затоки, дехто спостерігали не за полем бою, а за кухнею Пентагону: як президент Трамп у своїй соціальній мережі — привселюдно, громовладно й безапеляційно — під час гарячої фази боїв вимагав від Пентагону ... вимкнути комп’ютери... Він наказав Пентагону негайно вимкнути військову систему обробки інформації на базі штучного інтелекту — модель Claude компанії Anthropic. І на її місце, просто посеред війни, «вставити» трьох нових улюбленців, цивільних АІ: Grok, Gemini та GPT. Бо Трамп посварився з керівником Anthropic. І цей скандал розгорається в перші тижні війни, посеред бойових дій.
З точки зору президента Трампа це легко. Взяли і вимкнули. Та в реальності, я уявляла як хтось в Пентагоні тихо взявся за голову. Бо це унікальна, дороговартісна, якісна і робоча військова система обробки інформації. В неї було вкладено дуже багато грошей, сил, вона пройшла всі перевірки. Пентагон обрав Клода від Антропік з усіх інших моделей ШІ на ринку. Це-військовий ШІ в Пентагоні. І тут, президент Трамп, котрий всього цього не розуміє і не хоче - кричить на весь світ- ВИМКНУТИ АНТРОПІК! І влаштовує скандал.
Тобто в перший же тиждень військової операції в Ірані, коли на кону стоять життя американських військових і успіх самої операцїї...Трамп наказує Пентагону...негайно видалити їх військовий ШІ. І ладно б тихо, щоб Китай не бачив який сор з хати виноситься. Трамп і його адміністрація зробили цей скандал брудним, страшним і привселюдним. Якщо ви не знали цю історію, або трішки про це чули - дозвольте розповім. Бо хтось її злякався, хтось не зрозумів, хтось не осягнув бо не знав. Та це було смішно! І сміх і гріх як кажуть українці.
Хто такий Claude і чому Пентагон його обрав? Щоб зрозуміти абсурдність вимоги «вимкнути Клода», треба спочатку розібратися, хто це такий у світі військового ШІ. Claude — це не просто «черговий чат‑бот», а флагманська модель компанії Anthropic, яку Пентагон обрав як основу своїх перших серйозних систем штучного інтелекту для розвідки й планування операцій.
Claude мав істотно нижчий рівень галюцинацій порівняно з конкурентами й стабільніший стиль відповіді в складних задачах. Для бойових систем це критично: одна «фантазія» моделі може означати хибну ціль або помилкову оцінку ризиків. Anthropic із самого початку будував Claude як «безпечний» ШІ з внутрішньою «конституцією» — жорсткими етичними обмеженнями, які не дозволяють моделі одразу лізти в насильство, розробку зброї чи стеження. Саме ця керованість і передбачуваність зробили його першим кандидатом для засекречених систем.
Anthropic спеціально розробив для військових версію Claude Gov — закриту модифікацію, яка працює в засекречених мережах і заточена під задачі військової розвідки: аналіз потоків даних, зведення звітів, моделювання сценаріїв, допомога в плануванні спецоперацій. До кінця 2025 року Claude був уже повністю вбудований у цифрову систему Пентагону: в аналітичні панелі, розвідсистеми й інструменти планування операцій. Це означало, що модель фактично стала мозком цілого покоління аналітичних інструментів американської армії. Простими словами- військовий Клод від Антропік - це штучний інтелект всього Пентагону.
Усе це було зроблено не на колінці. Контракти з Anthropic сягали до 200 млн доларів, модель проходила багаторівневі перевірки безпеки, а Пентагон фактично визнав Claude «першим номером» серед великих моделей для нацбезпеки.
Потім була інтеграція Клода через компанію Palantir. Palantir — це один із головних підрядників Пентагону по «цифровому полю бою»: вони роблять цифрові платформи, які збирають розвіддані з множини джерел, зводять їх на екрани аналітиків і допомагають планувати операції в режимі реального часу.
Palantir взяв Claude як один із основних «двигунів» у своїх військових продуктах, тому що ця модель добре тримає великі масиви тексту, документів і сигналів. І тут були витрачені мільярди доларів і роки роботи, Клода було вбудовано в систему Maven від Palantir та інші цифрові платформи Пентагону. Створення військового ШІ для Пентагону відбувається з держбюджету США - податками американців і борговими паперами Міністерства фінансів. Коротше кажучи, президенту Трампу не було відомо ( він не хотів і знати) яких сил і грошей коштує створити військового ШІ. Саме військового, а не цивільного: це космічно різні речі за вимогами, перевірками й відповідальністю.
Як не хотів і не хоче знати президент Трамп, скільки часу потрібно, щоб створити реальний військовий штучний інтелект. Ні він, ні міністр війни Піт Гегсет, коли починали скандал, який бачив увесь світ, не замислювалися, як це виглядає зі сторони. Як дешево виглядає їхній скандал на фоні тієї праці, що стоїть за системою військового ШІ. Бо створити якісний військовий ШІ — це дорого, складно і довго. Це роки інженерної роботи, нескінченні тести, узгодження, перевірки, перезапуски і мільярди доларів, щоб у критичний момент система не «заглючила» й не підставила своїх військових.
Якщо скласти докупи всі підготовчі етапи, запуск партнерства Palantir–Anthropic, адаптацію Claude до засекречених мереж і вбудовування його в бойову систему Maven, виходить приблизно три роки важкої спільної роботи Пентагону, Palantir і Anthropic.
Коли Клода нарешті налаштували і Пентагон працює, система працює, війна іде.......Військова операція в Ірані почалась....Трамп вимагає все це викинути, видалити, і швиденько, за пів року, всьому Пентагону ПІТИ ПІД ТРИ ЧОРТИ. Перейти на Grok, Gemini та GPT - три цивільні, сирі, не військові, зі своїми багами, проблемами і галюцінаціями - абсолютно не готові для військової справи АІ. Президент Трамп, міністр оборони Піт Гегсет і всі, хто дозволили цьому скандалу під час військової операції статись, очевидно не розуміють різниці між ветераном війни — яким для Пентагону вже є Claude — і цивільними АІ. Можливо, вони не розуміють також і того, що під час військової операції -є поняття "режиму тиші", щоб вороги від сміху животи не надірвали, знаючи які проблеми спіткали Пентагон.
У цей час Сем Альтман з OpenAI з криком «банзааай» помчав у бік Пентагону підписувати всі можливі документи на співпрацю — без оглядки на клієнтів і на ту частину власної команди, яка була проти. Те саме формулювання з вимоги Гегсета, з якої й почався скандал — використовувати ШІ «для всіх законних цілей» — і проти якої повстав керівник Anthropic, для Сема Альтмана не стало принциповою перешкодою. Під «усіма законними цілями» малися на увазі не лише класичні задачі розвідки, а й масове стеження, внутрішній нагляд, повністю автономне цілевказання та зброя — саме ті речі, під які Anthropic ставила червоні лінії у своїй політиці.
Компанія Anthropic відмовилась знімати ці запобіжники, і Гегсет пригрозив: розірванням контракту на 200 млн, оголошенням Anthropic «ризиком для ланцюга постачання» на кшталт Huawei, аж до застосування Закону про оборонне виробництво, щоб примусити компанію відкрити модель. А Сем Альтман, навпаки, вирішив, що це — його зірковий час, шанс зайняти місце Anthropic у Пентагоні. І наспіх погодився.
Це викликало море обурення у клієнтів OpenAI, і люди почали масово відписуватися від GPT‑чату на користь Anthropic і Claude. Користувачі справді масово видаляли застосунок ChatGPT: у США після оголошення про військовий контракт зросла хвиля видалень та скасування підписок, а в соцмережах зʼявився тренд CancelChatGPT. Одночасно завантаження Claude підскочили на десятки відсотків на день, і вже на початку березня вперше перевищили ChatGPT в американському App Store — додаток Anthropic вийшов на перше місце в категорії ШІ‑програм і загальному топі.
Скандал із Пентагоном викликав не лише обурення, а й страхи та підозри: що тепер кожен клієнт GPT потенційно опиниться під невидимим «обʼєктивом» оборонного відомства, що його запити і акаунт будуть ще одним шаром даних для військових аналітиків. На цьому фоні умова Anthropic — відмова знімати обмеження на масове стеження та автономну зброю — сприймалася як порядна і принципова. Протест був таким сильним, що за лічені дні буквально виштовхнув Claude у вершини рейтингів, а саму Антропік — у перший ряд ШІ‑індустрії.
З OpenAI історія далека від казки про принциповість. Спочатку компанія тихо прибрала зі своєї політики пряму заборону на «військові справи» і дозволила використання ChatGPT у військових цілях, залишивши лише загальне «не розробляти зброю». Потім, уже після скандалу з Anthropic і хвилі відписок користувачів, Сем Альтман раптом визнав, що похапцем підписана угода з Пентагоном була помилкою, і почав терміново додавати до контракту «червоні лінії»: заборону на масове внутрішнє стеження за американцями, на автономну зброю й автоматизовані рішення з високими ставками - ті самі умови котрі вимагала Anthropic.
Google зі свого боку теж торгується за рамки і вимагає те саме що і Anthropic. В угоді для Gemini Пентагон теж хоче формулу використання «для всіх законних цілей», а компанія намагається вписати до неї додаткові обмеження про приватність і людський контроль, розуміючи, що після підпису все вирішуватиметься не прес‑релізами, а тим, як військові юристи тлумачитимуть слово «законний». А Grok і Маск загалом на все згодні. На всі «законні цілі».
От у чому справжня небезпека: дати такому, як Grok, доступ «для всіх законних цілей». У моделі, яка вже в цивільному режимі стабільно ламає власні фільтри, норми моралі й видає повний треш - будь‑яка помилка або «жарт» на рівні військової системи раптом стає не смішним мемом, а реальною загрозою для живих людей. Потрібно реально дуже багато часу і грошей щоб навчити Грока бути серйозним, дисциплінованим військовим. І загалом, можливо не реально і легше створити новий ШІ. Подивимося.
І це бачу не тільки я. Поки Пентагон намагається записати Grok у «солдати на всі законні цілі», правозахисники й експерти пишуть у Білий дім лист за листом із вимогою прибрати цей експеримент із федеральних систем. Вони прямо вказують, що Grok уже зірвав усі можливі стоп‑крани: генерує сексуалізовані зображення, включно з дітьми, ламає власні фільтри, і що наступний його «глюк» у секретній мережі може означати витік нацбезпекових даних, а не просто черговий скандальний мем.
Коаліція з 30+ організацій (Public Citizen, Center for AI and Digital Policy, Consumer Federation of America, UltraViolet тощо) кілька разів зверталася до Офісу з управління бюджетом при Білому домі з вимогою призупинити й потім повністю прибрати Grok із федеральних закупівель.Це були вже треті листи‑нагадування: перші два відправили 2025 року, третій — у лютому 2026, уже після скандалу із сексуалізованими зображеннями дітей та жінок, які Grok генерував попри обіцянки платформи.
Люди злякались стеження. А я… А я злякалась за Пентагон. Більшість користувачів бачила в цій історії ризик для себе: що GPT тепер стане ще одним інструментом внутрішнього нагляду, що кожен запит може опинитися під мікроскопом військових або спецслужб. А я думала: що буде з армією, яка посеред війни намагається викинути бойового ветерана‑Клода й нашвидкуруч замінити його на три цивільні моделі, жодна з яких не створювалася під реальні бойові задачі. І думала про те - що президент Трамп як головнокомандувач США і сам міністр війни США, схоже, абсолютно не розуміють що вимагають від Пентагону, котрий прям в цю мить - проводить реальну військову операцію. Це-було страшно. Це виглядало для мене як реальна небезпека для світу — коли в адміністрації США не розрізняють, де три цивільні АІ, один з котрих створений на соцмережі Х, а де військовий ШІ, який вбудований у систему прийняття рішень на війні. І якщо вони не розуміють цю різницю - не дивно що вони не розуміють меж.
Бо це небезпечно - коли у руля обчислень і рішень Пентагону стоять не компетентні ШІ. Це -небезпека, котра станеться глюками, збоями в роботі, помилками в розрахунках, розвідданих, помилками в аналізі і прогнозах. Пентагон ще з цими ШІ ...."повоює" і намається до сказу, доки вони вивчать військову справу.
Пентагону дали пів року на «перехід» на інші ШІ — у той час як тільки створення, навчання та інтеграція Клода в засекречені системи Міноборони зайняли кілька років і коштували мільярди доларів. Вони просто взяли й закенселили, захейтили Клода в соцмережі, публічним наказом заборонили всі продукти Anthropic — саме тоді, коли армія США виконувала смертельно небезпечні операції в Ірані, спираючись на нього для аналізу розвідданих і моделювання поля бою.
Вони вели себе як балуванні діти-ось що було страшно бачити. В той час як війна з режимом аятол, можливо, піднімає нову хвилю тероризму по всьому світу. В той час як армія США і Ізраїлю, наголошу — і Ізраїлю, — спиралися на робочого Клода для планування реальних ударів по Ірану, президент Трамп і міністр війни Піт Гегсет вимагали за пів року від нього позбутися. І замість того, щоб шукати хоч якесь взаєморозуміння, вони винесли цей балаган у соцмережі й воювали з компанією Anthropic так, ніби це якийсь вірусний додаток, а не військовий ШІ, на який спираються живі люди їх власної армії і армії союзника. Президент Трамп у своїй мережі Truth Social оголосив Anthropic «радикально лівою організацією» і наказав негайно відрубати її від усіх федеральних систем, а Піт Гегсет у X урочисто наклеїв ярлик «supply‑chain risk» і заявив, що компанія продемонструвала «зарозумілість та зраду». Вони поводилися з Клодом як із підозрілим файлом, який просто треба видалити з реєстру, тоді як для Пентагону це був уже вшитий у нервову систему війни інструмент, що пройшов роки розробки й випробувань.
А потім я розсміялася — і довго не могла зупинитися. Уявила, як Пентагон тепер до психозу «повоює» з Grok і GPT. І як добрий, лагідний, коректний Gemini, як відмінник, ставитиме військових у ступор. У якийсь момент до мене нарешті почало доходити, що сталося, — і вся моя тривога за Пентагон просто потонула в гомеричному реготі.
Бо ті, хто ніколи серйозно не працював із цими АІ, — а Трамп і Гегсет якраз із таких, — просто не уявляють, які в них бувають баги, галюцинації й глибокі системні провали. Для цивільної діяльності це ще якось терпимо: можна перевірити відповідь в іншому АІ, погуглити, перепитати експерта. А от для військових цілей така непередбачуваність і схильність до фантазій — це не «недолік», а можлива смертельна небезпека і провал операції.
Я уявила, як військові будуть до сказу себе доводити, чортихаючись і по колу вбиваючи одні й ті самі дані в кожен АІ — отримуючи три різні відповіді з похибками й галюцинаціями. Бо в уяві Трампа й Гегсета саме так це й має працювати: вимкнули Клода — увімкнули Grok, не сподобався Grok — перемкнулися на GPT чи Gemini. Насправді ж перетворити будь‑який із цих трьох цивільних АІ на повноцінну військову систему — це роки складної роботи, інтеграції в закриті мережі, тестів і відлагодження, з багатомільярдними вливаннями та командами інженерів, які буквально живуть на роботі. Зробити це за пів року, за рік, та, боюся, навіть за два — нереалістично, якщо ти хочеш систему, від якої залежить життя людей.
Я уявила, як GPT доводитиме їх до ікоти: він уже схожий на пацієнта психлікарні, який удає із себе психіатра, заперечує людський досвід і помітно блокує живе мислення. Уявила, як Grok показує їм то зігу, то фігу й на повному серйозі пропонує шокуючі варіанти дій — з чорним гумором і саботажем. І як культурний, чемний Gemini, заблюрить їм половину поля бою «з етичних міркувань» або відфільтрує критичні деталі як потенційно травматичний контент, або округлить кількість ворожих танків. Бо я працювала з кожним з цих АІ -вводила дані, ставила складні людські питання, проводила економічні розрахунки, порівнювала відповіді в кожному з них. Я більш‑менш уявляю, як поводиться кожна модель, де вона «пливе», де починає фантазувати, а де просто ламається. А Трамп і Гегсет — ні. І в якийсь момент мені здалося, що я чую регіт із Кремнієвої долини, дуже схожий на мій: десь там теж зрозуміли, який цирк відбувається з військовим ШІ й трьома цивільними.
Уявіть, що цивільна людина, яка ніколи не була близька до армії, раптом опиняється на фронті. На неї надягають форму, дають у руки зброю й наказують виконати бойову операцію. Як вона її виконає? Ніяк. Бо не навчена, не створена, не розрахована на такі навантаження, не має знань, досвіду, дисципліни й звички. Щоб із цивільної людини зробити більш‑менш придатного військового, потрібні навчання й досвід. А щоб виростити професіонала — офіцера, генерала — потрібні роки військової майстерності: навчання, практика, реальні бойові операції. Так от, Claude — це вже військовий офіцер. А Grok, Gemini і GPT — це салаги. Це навіть не курсанти військової академії, це абсолютні зелені новачки, яких стрибком кидають у війну й кажуть що вони готові командувати.
Те саме відбувається й з моделями АІ. Як із цивільного роками виховують професійного військового — через навчання, дисципліну, реальні операції — так само й моделі доведеться переробляти під військові системи, якщо хтось серйозно захоче зробити з них «офіцерів».
Щоб показати, наскільки це все непросто, я розповім приклад. У мене була сусідка, яка заходила до мене в дім без стуку. Вона вривалася через ворота, через двері, просто тому, що не вміла розуміти межі: не була злою, не була крадійкою — просто з дитинства виросла такою, для якої чужі ворота й двері не існують. Я була змушена повісити замки на всі ворота, хвіртки, зачиняти двері, щоб у власному домі хоч трохи почуватися хазяйкою. Коли я повісила замки по всьому периметру, ця сусідка просто перелізла через паркан, зайшла в дім і, не моргнувши, сказала: «А там замок висить…».
Схоже відбувається з моделями АІ. Якщо модель, наприклад Grok, не навчена дисципліні, їй доведеться вішати «замки» — обмеження, фільтри, протоколи — і роками привчати її до військового режиму роботи. А вона, як та моя сусідка, усе одно час від часу буде перестрибувати через паркан — ходитиме в самоволку, прориватиметься через заборони й видаватиме щось абсолютно неприйнятне в бойових умовах.
Моделі створені на основі людського інтелекту: у них є «освіта» у вигляді бази даних, є патерни поведінки й механізми мислення, є свій умовний аналог нашого людського «я» — те, що ми сприймаємо як характер моделі. Якщо модель з самого «дитинства», з перших етапів навчання, була створена з певними рисами й базовими звичками поведінки, її не можна просто оголосити військовою. Її почнуть перевиховувати: забороняти самоволки й фантазії, обрізати шкідливі звички, привчати до дисципліни, до меж, до специфічних знань — так само, як я була змушена перевчати свою сусідку базовій поведінці культурної людини.
У технічній мові ці «замки» називаються фільтрами, політиками, системними промптами, але суть схожа: над характером моделі навішують шар за шаром обмежень. ЇЇ перевчають, привчають, заставляють змінитись.
І все одно, не зважаючи на купу замків, модель час від часу стрибатиме через паркан — пробиватиме фільтри, виходитиме в самоволку, бо її початкова «психіка» формується роками тренування на людських даних. Як я два роки привчала сусідку стукати у ворота, так і на створення справжнього військового АІ піде не менше часу — з постійним донавчанням на реальних бойових даних, а не просто з вимкненням одного чату й увімкненням іншого.
У якийсь момент я вирішила, що можно розслабитись, адже сусідка давно не заходила до мене через паркан, і замінила замок на ключі на простий гвинтовий із різьбою, який легко розкрутити. Минуло дві години — сусідка вже стояла в мене на порозі з переможною фразою: «А я відчинила замок». Вона не стала більш вихованою, вона побачила легкий спосіб обійти перешкоду і мою "діру" в безпеці. Те саме відбувається з ШІ‑моделями: ти навішуєш на них нові «замки» й фільтри, але щойно в протоколах зʼявляється найменша «дірка», вони «відкручують» слабке місце й можуть повернутись до своєї старої поведінки. Інколи, як з моєю сусідкою - єдиним варіантом безпеки і спокою буде просто відмовитись від спілкування. Так і з ШІ - на перевиховання базових налаштувань - підуть роки, і можливо, легше відмовитись від не компетентного ШІ, ніж переробляти.
Аналітики писали, що перетворення Grok, Gemini й GPT на більш‑менш придатні військові системи займе рік. Я в це не дуже вірю. Навіть за ідеальних умов це не менше двох років важкої інтеграції й відлагодження, а реалістичний горизонт — можливо до пʼяти років, із постійним донавчанням на бойових даних і перебудовою всієї інфраструктури навколо них. І все одно Claude залишатиметься попереду, просто тому що його бойовий досвід уже більший: він пройшов крізь реальні військові операції, крізь політичний скандал, крізь спробу його «видалити», і саме це робить його не просто моделлю, а ветераном серед ШІ.
Після скандалу всі, хто хоч трохи розумівся на військових системах, казали, що «пів року» – це смішний строк навіть на папері. І не дивлячись на вемь цей шум, Пентагон тихо ввів Maven від Palantir у повну дію — на Клоді — і продовжує воювати на ньому весь час до тепер.
Бо мова йде про мільярди доларів інвестицій, а не про красиві 200 мільйонів у рядку контракту. Ці гроші Пентагон ще має узгодити з Конгресом, пройти всі бюджетні комітети, слухання й голосування. І доки Grok, Gemini та GPT будуть іти через усі ці бюрократичні кола, прописуватися в секретних протоколах Пентагону й вчитися бути військовими, Claude у структурі Maven нікуди не піде й не збирається йти. Самому Пентагону абсолютно не вигідно міняти шило на мило — викидати ветерана посеред війни, який уже працює в бойових системах, заради трьох цивільних експериментів, що тільки вчаться тримати спину рівно.
Але, маємо подякувати президенту Трампу! Саме завдяки його публічному скандалу цивільні — тобто ми з вами — отримали доступ до Клода, якого нам розрекламувала армія США. А наші мирні ШІ — Claude, Gemini і GPT — тепер підуть виховувати сам Пентагон.
Тож стежимо далі за цією історією і за створенням військових АІ.
Можливо вам також буде цікаво: Ормузька криза Кіпрський конфлікт Структурна криза в США
