logo

Ультрамен не боится, что его особняк подвергнется нападению — у него есть крепость.

By: blockbeats|2026/04/13 13:19:47
0
Поделиться
copy

В 2016 году Сэм Альтман построил подземный бункер в Вайоминге. 1 200 квадратных метров, трёхуровневое сооружение, 500 кг золота, 5 000 таблеток йодида калия, 5 тонн лиофилизированных продуктов, 100 000 патронов. В том же году компания OpenAI только что отпраздновала свою первую годовщину.

Спустя десять лет руководитель самой влиятельной в мире компании, занимающейся искусственным интеллектом, подвергся нападениям два выходных подряд: сначала на него бросили бутылку с зажигательной смесью, а затем открыли огонь. В своем блоге он признался, что сильно недооценил «силу повествования». О чьей истории он говорил — о чьей-то другой или о своей собственной?

48 часов, два нападения

10 апреля в 3:40 утра на Честнат-стрит в Сан-Франциско. 20-летний мужчина по имени Даниэль Морено-Гама бросил бутылку с зажигательной смесью в металлические ворота квартиры Сэма Альтмана. Пожар разгорелся возле внешних ворот, и он убежал. Примерно через час этот же человек появился возле офиса OpenAI в Сан-Франциско, продолжая угрожать поджогом, после чего был арестован. Среди обвинений были покушение на убийство и поджог.

Ультрамен не боится, что его особняк подвергнется нападению — у него есть крепость.

Дом Сэма Альтмана в Сан-Франциско и записи с камер наблюдения, на которых запечатлен подозреваемый в поджоге

Два дня спустя, 12 апреля в 1:40 ночи, рядом с домом Альтмана в районе Рашен-Хилл припарковался седан марки Honda. Один из пассажиров автомобиля высунул руку из окна и выстрелил в сторону дома. Камера видеонаблюдения зафиксировала номерной знак, что привело к задержанию двух человек: Аманда Том (25) и Мухамад Тарик Хусейн (23). В ходе обыска в доме было обнаружено три единицы оружия, и обоим были предъявлены обвинения в неосторожном применении огнестрельного оружия.

Один уик-энд — два нападения.

Подозреваемый по первому делу, Даниэль Морено-Гама, был пророком-катастрофистом в области искусственного интеллекта. В социальных сетях он цитировал мотивы противостояния человека и машины из романа «Дюна», писал статьи, в которых утверждал, что неспособность обеспечить согласованность искусственного интеллекта представляет собой экзистенциальную угрозу, а также критиковал лидеров технологического сектора за стремление к «гипергуманизму» и за то, что они «ставят на кон судьбу всего человечества».

В чём заключался его аргумент?

В течение последних пяти лет одним из стандартных приёмов OpenAI при формировании общественного мнения об ИИ является постоянное подчеркивание «экзистенциальной» угрозы, исходящей от общего искусственного интеллекта (AGI). Эта дискуссия преследует несколько целей: побудить правительства серьезно отнестись к вопросам регулирования, помочь инвесторам осознать всю важность ситуации и дать понять всей отрасли, что эта гонка слишком важна, чтобы в ней проиграть. Эта история выполняет определенную функцию, позиционируя OpenAI одновременно как организацию, находящуюся на грани опасности, как самую ответственную и, следовательно, как законного получателя финансирования.

Однако фраза «это самая опасная технология в истории человечества» не останется только в кругах технических специалистов и инвесторов, как только она станет достоянием общественности. Это постепенно проникнет в сознание и станет для некоторых настоящим призывом к действию. Морено-Гама написал в своем посте в Instagram: «Экспоненциальный прогресс плюс несогласованность равняется экзистенциальному риску». Источником данной концепции является основная литература по вопросам безопасности ИИ, значительная часть которой финансируется или поддерживается OpenAI.

Аккаунт Даниэля Морено-Гамы в социальных сетях

После первой атаки Ультрамен написал в своём блоге. Он опубликовал фотографию со своим ребенком, написав, что надеется, что этот снимок удержит кого-нибудь от того, чтобы бросить в его дом бутылку с зажигательной смесью. Он признал «законную моральную позицию» оппонентов и призвал к публичному обсуждению, «в котором было бы чуть меньше взрывоопасности — как в прямом, так и в переносном смысле».

Он также прокомментировал подробный материал журнала «Нью-Йоркер». В статье, опубликованной за несколько дней до нападения, открыто ставился под сомнение его авторитет как главного эксперта в области искусственного интеллекта. Он написал: «Я сильно недооценил силу общественного дискурса и общественного мнения».

Через два дня по его дому открыли огонь.

Составление бюджета на обеспечение безопасности — это одно, а бункер — совсем другое

Отправная точка этого пути лежит на год раньше, чем думает большинство людей.

4 декабря 2024 года, Нью-Йорк. Генеральный директор UnitedHealthcare Брайан Томпсон был застрелен возле отеля Hilton. Подозреваемый Луиджи Манджоне, выпускник одного из университетов Лиги плюща, оставил рукописную записку, в которой критиковал сферу медицинского страхования. Этот случай вызвал необычную волну реакций в социальных сетях: значительное число обычных пользователей открыто выразили сочувствие преступнику, даже превратив его в своего рода символ бунтарства.

В этот момент некоторые двери приоткрылись.

После инцидента с Томпсоном охрана руководителей превратилась из «привилегии» в «необходимость для выживания». Согласно данным исследования, на которые ссылается журнал Fortune, с 2023 года количество нападений с применением насилия на руководителей крупнейших компаний выросло на 225 %. В индексе S&P 500 33,8 % компаний указали в своих финансовых отчетах за 2025 год расходы на обеспечение безопасности руководителей, что превышает показатель 2020 года (23,3 %). Средняя стоимость услуг компаний, предоставляющих услуги по обеспечению безопасности, составила 130 000 долларов, что на 20 % больше, чем в предыдущем году, и вдвое превышает показатель пятилетней давности.

Отрасль искусственного интеллекта стала последним и наиболее заметным участником этой тенденции. Общие расходы на обеспечение безопасности руководителей десяти крупнейших технологических компаний в 2024 году превысили 45 миллионов долларов. Один только Марк Цукерберг превысил отметку в 27 миллионов долларов, что превышает совокупные расходы на обеспечение безопасности четырех других генеральных директоров, включая руководителей Apple и Google. В 2025 году доход Дженсена Хуанга из компании NVIDIA составил 3,5 миллиона долларов, что на 59 % больше, чем годом ранее. Сумма активов Сундара Пичаи из Google составила 8,27 млн долларов, что на 22 % больше, чем раньше.

В сфере искусственного интеллекта есть нечто уникальное, чего нет почти ни в одной другой отрасли: даже сами разработчики считают, что эта технология может привести к гибели цивилизации. В 2025 году Pew Research Center провёл опрос среди 28 333 респондентов по всему миру: лишь 16 % из них выразили воодушевление в связи с развитием искусственного интеллекта, а 34 % — обеспокоенность. Неожиданным выводом стало то, что чем выше уровень образования и дохода, тем сильнее опасения по поводу того, что ИИ может выйти из-под контроля. Чем больше знаешь, тем больше боишься.

Недавно по дому члена городского совета Индианаполиса Рона Гибсона посреди ночи открыл огонь неизвестный, выпустив 13 выстрелов, что разбудило его 8-летнего сына. На двери была оставлена рукописная записка со словами: «Вход для центров обработки данных запрещен». ФБР подключилось к расследованию. Джордин Абрамс, исследователь Программы по изучению экстремизма при Университете Джорджа Вашингтона, отметил, что центры обработки данных становятся мишенями для антитехнологических и антиправительственных экстремистов.

Сцена стрельбы с Роном Гибсоном

Этот страх не является секретом в отрасли; просто о нём не говорят открыто.

Ультраман построил эту крепость в Вайоминге в 2016 году. В том году только что было объявлено о создании OpenAI, и миру рассказали о том, какую пользу искусственный интеллект принесет человечеству. Оба события произошли одновременно: он публично сделал ставку на успех ИИ, а в то же время втайне запасался боеприпасами в количестве, достаточном для вооружения целого отряда ополченцев.

Это была разумная двойная ставка: публично делать ставку на успех ИИ и втайне готовиться к тому, что ИИ выйдет из-под контроля.

Бумеранг Ультрамена

27 февраля этого года компания OpenAI подписала контракт с Министерством обороны США, разрешающий Пентагону развернуть ChatGPT в секретной оборонной сети для использования в «любых законных целях». В тот же день Ультраман также публично поддержал позицию компании Anthropic относительно ограничений на использование ИИ в военных целях. В результате за 24 часа ежедневный показатель удаления приложения ChatGPT вырос на 295%, а количество отзывов с одной звездой увеличилось на 775%. По имеющимся данным, движение за бойкот QuitGPT собрало более 1,5 миллиона участников.

21 марта в Сан-Франциско прошел марш, в котором приняли участие около 200 протестующих, представляющих компании Anthropic, OpenAI и xAI; они требовали от генеральных директоров этих трех компаний взять на себя обязательство приостановить разработку передовых технологий искусственного интеллекта. В то же время в Лондоне прошла крупнейшая на сегодняшний день акция протеста против искусственного интеллекта.

Укрепление Ультрамена в Вайоминге и охрана, которую он нанял, призваны противостоять двум различным угрозам: одной со стороны посторонних, а другой — со стороны того, что он сам создает. В частной беседе он серьезно относится к обоим рискам, но публично признает лишь один из них.

В ту неделю, когда произошло первое нападение, журнал «The New Yorker» опубликовал подробный материал об «Ультрамане». Журналисты Ронан Фарроу и Эндрю Маранц провели интервью с более чем 100 источниками, и их основная теза сводится всего к двум словам: «не заслуживающий доверия». В статье приводится высказывание бывшего члена совета директоров OpenAI, назвавшего Ультрамана «антисоциальной личностью», «не привязанной к правде». Несколько бывших коллег рассказали о том, как он менял свою позицию по вопросам безопасности ИИ, зачастую перестраивая структуры власти в соответствии с текущими потребностями.

В своем ответе в блоге Ультрамен признал, что у него есть склонность «избегать конфликтов». Он создал публичную нарративную линию о «ИИ как экзистенциальной угрозе» в качестве инструмента для привлечения финансирования и маневрирования в сфере регулирования. В результате инструмент выскользнул из его рук, пролетел по кругу и с грохотом вернулся к его двери.

Цена --

--

Вам также может понравиться

Блокада Ормузского пролива, Обзор стейблкоинов | Утреннее издание Rewire News

Скачок цен на нефть

От завышенных ожиданий до противоречивого поворота событий: аирдроп Genius вызвал негативную реакцию сообщества.

Крайний срок для немедленного предъявления претензии — 7 дней после TGE. Если пользователь выберет немедленное получение токенов, 70% из них будут автоматически сожжены.

Завод электрических автомобилей Xiaomi в районе Дасин Пекина стал новым Иерусалимом для американской элиты

Что именно превращает автомобильный конвейер в горячую точку?

Переговоры между США и Ираном провалились, биткоин борется за защиту уровня в 70 000 долларов

Последние данные Polymarket показывают, что вероятность того, что ФРС оставит ставку без изменений в этом году, выросла до 44%.

Строгие рамки, свободные навыки: Реальное происхождение 100-кратной производительности ИИ

ошибка

Размышления и путаница крипто-венчурного инвестора

С отступлением волны крипто-венчурные инвесторы сталкиваются с испытанием на выживание. Пузырь слепой токенизации был взорван, и логика оценки индустрии возвращается к реальным доходам. Перед лицом все более искушенных розничных инвесторов и иссякающей ликвидности венчурные инвесторы, которые могут только разбрасываться деньгами, оказываются в проигрыше...

Популярные монеты

Последние новости криптовалют

Еще