A Ultraman no le preocupa que su mansión sea atacada; tiene una fortaleza.

By: blockbeats|2026/04/13 13:21:39
0
Compartir
copy

En 2016, Sam Altman construyó un búnker subterráneo en Wyoming. 1.200 metros cuadrados, edificio de tres plantas, 500 kg de oro, 5.000 comprimidos de yoduro de potasio, 5 toneladas de alimentos liofilizados, 100.000 balas. Ese mismo año, OpenAI acababa de celebrar su primer aniversario.

Diez años después, el director de la empresa de inteligencia artificial más poderosa del mundo fue atacado dos fines de semana seguidos, primero con un cóctel Molotov y luego a tiros. En una entrada de blog, admitió haber subestimado enormemente el «poder de la narrativa». ¿A qué relato se refería, al de otra persona o al suyo propio?

48 horas, dos atentados

A las 3:40 de la madrugada del 10 de abril, en la calle Chestnut de San Francisco. Daniel Moreno-Gama, un joven de 20 años, lanzó un cóctel Molotov contra la verja metálica del apartamento de Sam Altman. El fuego se declaró cerca de la puerta exterior y él salió corriendo. Aproximadamente una hora después, el mismo individuo apareció cerca de la oficina de OpenAI en San Francisco, donde siguió amenazando con provocar un incendio, tras lo cual fue detenido. Los cargos incluían intento de asesinato e incendio provocado.

A Ultraman no le preocupa que su mansión sea atacada; tiene una fortaleza.

La residencia de Sam Altman en San Francisco y las imágenes de las cámaras de vigilancia del sospechoso del incendio provocado

Dos días después, a la 1:40 de la madrugada del 12 de abril, un sedán Honda se detuvo junto a la residencia de Altman, en la zona de Russian Hill. Un pasajero del coche sacó la mano por la ventanilla y disparó un tiro hacia la vivienda. Las imágenes de las cámaras de vigilancia captaron la matrícula, lo que condujo a la detención de dos personas: Amanda Tom (25) y Muhamad Tarik Hussein (23). Durante un registro de la vivienda se encontraron tres armas, y los dos fueron acusados de disparo imprudente de un arma de fuego.

Un fin de semana, dos ataques.

El sospechoso del primer caso, Daniel Moreno-Gama, era un agorero de la IA. En las redes sociales, citó temas relacionados con la oposición entre el ser humano y la máquina extraídos de «Dune», escribió artículos en los que defendía que el fracaso en la alineación de la IA suponía un riesgo existencial, y criticó a los líderes tecnológicos por perseguir el «hiperhumanismo» y por «apostar todo al destino de la humanidad».

¿Cuál fue su argumento?

En los últimos cinco años, una de las estrategias habituales de OpenAI a la hora de construir el discurso en torno a la IA ha sido hacer hincapié repetidamente en la amenaza «existencial» que supone la IA general. Este discurso tiene varios objetivos: instar a los gobiernos a que se tomen en serio la regulación, ayudar a los inversores a comprender lo que está en juego y hacer que todo el sector se dé cuenta de que esta carrera es demasiado importante como para perderla. Esta narrativa cumple una función: posiciona a OpenAI a la vez en la vanguardia del peligro, como la entidad más responsable y, por lo tanto, como la destinataria legítima de la financiación.

Sin embargo, la frase «esta es la tecnología más peligrosa de la historia de la humanidad» no se quedará solo en los círculos tecnológicos y de inversores una vez que se haya difundido. Esto acabará calando y se convertirá, literalmente, en una llamada a la acción para algunos. Moreno-Gama escribió en una publicación de Instagram: «El progreso exponencial sumado a la desalineación equivale a un riesgo existencial». La fuente original de este marco argumentativo es la literatura general sobre la seguridad de la IA, gran parte de la cual ha sido financiada o respaldada por OpenAI.

Perfil de Daniel Moreno-Gama en las redes sociales

Tras el primer ataque, Ultraman escribió en su blog. Publicó una foto con su hijo, diciendo que esperaba que esa imagen evitara que alguien lanzara un cóctel Molotov contra su casa. Reconoció la «postura moral legítima» de los opositores y pidió un debate público «con un poco menos de vehemencia, tanto en sentido literal como metafórico».

También respondió a un reportaje en profundidad de *The New Yorker*. El artículo, publicado unos días antes del ataque, ponía abiertamente en duda su credibilidad como máxima autoridad en materia de inteligencia artificial. Escribió: «Subestimé enormemente el poder de la narrativa y el discurso públicos».

Dos días después, su domicilio fue objeto de un tiroteo.

El presupuesto de seguridad es una declaración; un búnker es otra cosa

El punto de partida de esta trayectoria se remonta a un año antes de lo que la mayoría de la gente cree.

4 de diciembre de 2024, Nueva York. Brian Thompson, director ejecutivo de UnitedHealthcare, recibió un disparo a las puertas del Hotel Hilton. El sospechoso Luigi Mangione, titulado por una universidad de la Ivy League, dejó una declaración manuscrita en la que criticaba al sector de los seguros médicos. El caso desató una inusual oleada de reacciones en las redes sociales: un número considerable de usuarios habituales expresó abiertamente su simpatía por el autor de los hechos, llegando incluso a convertirlo en una especie de símbolo rebelde.

En ese momento, se entreabrieron algunas puertas.

Tras el incidente de Thompson, la seguridad ejecutiva pasó de ser un «privilegio» a una «necesidad para la supervivencia». Según datos de un estudio citados por la revista Fortune, desde 2023 se ha producido un aumento del 225 % en los delitos violentos contra altos ejecutivos de empresas. En el S&P 500, el 33,8 % de las empresas incluyeron los gastos de seguridad de los ejecutivos en sus informes financieros de 2025, lo que supone un aumento con respecto al 23,3 % registrado en 2020. Las empresas que prestan servicios de seguridad registraron un coste medio de 130 000 dólares, lo que supone un aumento interanual del 20 % y se ha duplicado en cinco años.

El sector de la inteligencia artificial es el destinatario más reciente y destacado de esta tendencia. El gasto total en seguridad de los directores generales de las diez principales empresas tecnológicas superó los 45 millones de dólares en 2024. Solo Mark Zuckerberg superó los 27 millones de dólares, una cifra superior a la suma de los gastos en seguridad de otros cuatro directores ejecutivos, como los de Apple y Google. Jensen Huang, de NVIDIA, ganó 3,5 millones de dólares en 2025, lo que supone un aumento del 59 % con respecto al año anterior. Sundar Pichai, de Google, acumuló 8,27 millones de dólares, lo que supone un aumento del 22 %.

El sector de la inteligencia artificial tiene algo único que pocos sectores tienen: incluso sus propios creadores creen que esta tecnología podría destruir la civilización. En 2025, el Pew Research Center realizó una encuesta a 28 333 personas de todo el mundo, de las cuales solo el 16 % se mostró entusiasmado con el desarrollo de la inteligencia artificial, mientras que el 34 % expresó su preocupación. Un hallazgo contrario a lo que cabría esperar fue que, cuanto mayor era el nivel de estudios y los ingresos, mayor era la preocupación por que la IA se descontrolara. Los que más saben son los que más temen.

Hace poco, un hombre armado disparó 13 tiros contra la casa del concejal de Indianápolis Ron Gibson en plena noche, lo que despertó a su hijo de 8 años. En la puerta había una nota escrita a mano que decía: «Prohibida la entrada a centros de datos». El FBI se ha hecho cargo de la investigación. Jordyn Abrams, investigadora del Programa sobre Extremismo de la Universidad George Washington, señaló que los centros de datos se están convirtiendo en objetivos de extremistas antitecnológicos y antigobernamentales.

Escena del tiroteo de Ron Gibson

Este temor no es ningún secreto en el sector; simplemente no se habla de él abiertamente.

Ultraman construyó la fortaleza en Wyoming en 2016. Ese año se acababa de anunciar OpenAI, que presentó al mundo cómo la inteligencia artificial beneficiaría a la humanidad. Ambos hechos coincidieron: por un lado, apostaba públicamente por el éxito de la IA, mientras que, en privado, acumulaba munición suficiente para abastecer a una milicia armada.

Se trataba de una doble apuesta racional: apostar públicamente por el éxito de la IA y prepararse en privado para el caso de que la IA se rebelara.

El boomerang de Ultraman

El 27 de febrero de este año, OpenAI firmó un contrato con el Departamento de Defensa de Estados Unidos, por el que se permite al Pentágono implementar ChatGPT en una red de defensa clasificada para su uso con «cualquier fin lícito». Ese mismo día, Ultraman también respaldó públicamente la postura de Anthropic sobre los límites de las aplicaciones militares de la IA. Posteriormente, la tasa diaria de desinstalaciones de ChatGPT se disparó un 295 %, y las valoraciones de una estrella aumentaron un 775 % en 24 horas. Según se informa, el movimiento de boicot «QuitGPT» ha reunido a más de 1,5 millones de participantes.

El 21 de marzo, unos 200 manifestantes se manifestaron en San Francisco, en representación de Anthropic, OpenAI y xAI, para exigir a los directores generales de las tres empresas que se comprometieran a suspender el desarrollo de la inteligencia artificial de vanguardia. Al mismo tiempo, Londres fue escenario de la mayor manifestación contra la IA celebrada hasta la fecha.

El refugio de Ultraman en Wyoming y el equipo de seguridad que cuenta abordan dos riesgos distintos: uno procedente de personas ajenas y otro derivado de lo que él mismo está construyendo. En privado se toma en serio ambos riesgos, pero en público solo reconoce uno de ellos.

La semana del primer ataque, la revista *The New Yorker* publicó un reportaje en profundidad sobre Ultraman. Los periodistas Ronan Farrow y Andrew Marantz entrevistaron a más de 100 fuentes, y la tesis central se resume en tan solo dos palabras: «poco fiable». El artículo citaba a un antiguo miembro del consejo de administración de OpenAI que calificaba a Ultraman de «personalidad antisocial» y «ajeno a la verdad». Varios antiguos compañeros de trabajo describieron sus cambiantes posturas sobre la seguridad de la IA, que a menudo se adaptaban a las estructuras de poder según las necesidades.

En su respuesta en el blog, Ultraman admitió tener una tendencia a «evitar los conflictos». Había creado una narrativa pública en torno a «la IA como amenaza existencial» como herramienta para recaudar fondos y maniobrar ante las autoridades reguladoras. Como consecuencia, la herramienta se le resbaló de las manos, dio una vuelta y volvió a estrellarse contra su puerta.

Precio de --

--

Te puede gustar

Monedas populares

Últimas noticias cripto

Leer más