La revista «Time» nombra a Anthropic como la empresa más disruptiva del mundo.
Título original del artículo: La empresa más disruptiva del mundo
Autores del artículo original: Leslie Dickstein, Simmone Shah, TIMES
Traducción: Peggy, BlockBeats
Nota del editor: Desde una prueba de seguridad nocturna hasta un enfrentamiento público con el Pentágono, este artículo narra las múltiples tensiones a las que se ha enfrentado la empresa de inteligencia artificial Anthropic durante su rápido ascenso. El artículo describe primero cómo la empresa evaluó internamente los riesgos potenciales de la IA, luego repasa los avances técnicos y los éxitos comerciales de Claude, y finalmente presenta sus aplicaciones prácticas en el ámbito militar.
A medida que se desarrollan los acontecimientos, los autores desvelan las controversias de Anthropic con el ejército estadounidense en torno a las armas autónomas, la vigilancia masiva y el control de la IA desde las perspectivas del líder del equipo rojo, los ingenieros, los ejecutivos, los investigadores de políticas y los funcionarios gubernamentales.
A través de este evento, los autores plantean en última instancia una pregunta cada vez más urgente: a medida que la inteligencia artificial comienza a acelerar su propia evolución y a integrarse profundamente en la guerra, la gobernanza y las estructuras laborales, ¿quién puede seguir estableciendo límites para ella?
El siguiente es el texto original:

En una habitación de hotel en Santa Clara, California, cinco miembros de la empresa de inteligencia artificial Anthropic trabajan nerviosamente alrededor de un ordenador portátil. Era febrero de 2025 y estaban asistiendo a una conferencia cercana cuando de repente recibieron un mensaje inquietante: los resultados de un experimento controlado indicaban que el próximo lanzamiento de la nueva versión de Claude podría ayudar a los terroristas a crear un arma biológica.
Estas personas formaban parte del «Equipo Rojo Frontera» de Anthropic. Su trabajo consistía en estudiar las capacidades avanzadas de Claude e intentar simular los riesgos en los peores escenarios posibles, desde ciberataques hasta amenazas a la bioseguridad y otras posibilidades diversas. Al recibir la noticia, se apresuraron a regresar a la habitación del hotel, voltearon una cama de lado para usarla como escritorio improvisado y comenzaron a revisar cuidadosamente los resultados de las pruebas.
Tras horas de análisis tensos, seguían sin poder determinar si el nuevo producto era lo suficientemente seguro. Finalmente, Anthropic decidió posponer el lanzamiento de este nuevo modelo, Claude 3.7 Sonnet, durante 10 días hasta que el equipo confirmara que los riesgos eran manejables.
Aunque pueda parecer que solo han sido diez días, para una empresa a la vanguardia de la tecnología en un sector que está cambiando rápidamente el mundo, ha sido casi como un largo siglo.
Logan Graham (antiguo jefe del Equipo Rojo) recordó el incidente del «miedo a las armas biológicas» como un microcosmos del reto al que se enfrentó Anthropic en un momento crucial, no solo para la empresa, sino para el mundo en general. Anthropic es una de las organizaciones más centradas en la seguridad de los laboratorios de IA más avanzados de la actualidad. Sin embargo, al mismo tiempo, también se encuentra en la vanguardia competitiva, esforzándose por crear sistemas de IA cada vez más potentes. Dentro de la empresa, muchos empleados también creen que esta tecnología, si no se controla, podría provocar una serie de consecuencias catastróficas, desde una guerra nuclear hasta la extinción de la humanidad.
A sus 31 años, Graham aún conserva un aire juvenil, pero nunca rehúye la responsabilidad de buscar un equilibrio entre los inmensos beneficios y los inmensos riesgos de la IA. Él dijo: «Muchas personas crecieron en un mundo relativamente pacífico e intuitivamente sienten que en algún lugar hay una sala con un grupo de adultos maduros que saben cómo arreglar las cosas».
«Pero, en realidad, no existe ningún «grupo de adultos». Ni siquiera hay ese espacio. Y ahí no está la puerta que estás buscando. La responsabilidad recae sobre ti. Si esta declaración no es lo suficientemente alarmante, fíjese en cómo recuerda la alerta sobre armas biológicas: «Fue un día muy interesante y emocionante».

Ilustración: Neil Jamieson para TIME (Fuentes de las imágenes: Askell: Aaron Wojack; Getty Images, desde arriba en sentido horario: Samyukta Lakshmi — Bloomberg; Brendan Smialowski — AFP; Tierney L. Cross — Bloomberg; Daniel Slim — AFP; Bridget Bennett — Bloomberg)
Hace unas semanas, Logan Graham abordó estos temas en la sede central de Anthropic durante una entrevista. Un periodista de la revista TIME pasó tres días aquí, entrevistando a ejecutivos de la empresa, ingenieros, gerentes de producto y miembros del equipo de seguridad, tratando de averiguar por qué esta empresa, que antes se consideraba la «outsider inconformista» en la carrera por la IA, se convirtió de repente en una de las favoritas.
En aquel momento, Anthropic acababa de recaudar 30 000 millones de dólares de inversores para prepararse para una posible salida a bolsa este año. (Como nota al margen, Salesforce es también uno de los inversores de Anthropic, y el propietario de la revista TIME, Marc Benioff, es el director ejecutivo de Salesforce). Hoy en día, la valoración de Anthropic ha alcanzado los 380 000 millones de dólares, superando a gigantes tradicionales como Goldman Sachs, McDonald's y Coca-Cola.
La tasa de crecimiento de los ingresos de la empresa es sencillamente espectacular. Su sistema de IA Claude ha sido aclamado como un modelo de talla mundial, y productos como Claude Code y Claude Cowork están redefiniendo lo que significa ser «programador».
Las herramientas de Anthropic son tan potentes que casi cada nuevo lanzamiento provoca repercusiones en los mercados de capitales, a medida que los inversores se dan cuenta gradualmente de que estos avances tecnológicos podrían revolucionar sectores enteros, desde los servicios jurídicos hasta el desarrollo de software. En los últimos meses, Anthropic ha sido considerada como una de las empresas con más posibilidades de redefinir el «futuro del trabajo».
Posteriormente, Anthropic se vio envuelta en una feroz controversia en torno a las «formas futuras de guerra».
Durante más de un año, Claude ha sido el modelo de IA preferido por el Gobierno de los Estados Unidos y el primero en ser aprobado para su uso en entornos clasificados como sistema de IA de vanguardia. En enero de 2026, incluso se utilizó en una operación audaz: la captura del presidente venezolano Nicolás Maduro en Caracas. Según se informa, en esta operación se utilizó la IA para la planificación de la misión y el análisis de inteligencia, lo que supone la primera participación significativa de la IA de vanguardia en una acción militar real.
Sin embargo, en las semanas siguientes, la relación entre Anthropic y los Estados Unidos... El Departamento de Defensa se deterioró rápidamente. El 27 de febrero, la administración Trump anunció que Anthropic había sido designada como «riesgo para la cadena de suministro de la seguridad nacional», lo que supone el primer caso conocido en Estados Unidos en el que se aplica esta etiqueta a una empresa nacional.
La situación se convirtió rápidamente en un conflicto público. El presidente Trump ordenó que se suspendiera todo uso gubernamental del software Anthropic. El secretario de Defensa, Pete Hegseth, declaró además que cualquier empresa que coopere con el Gobierno debería dejar de hacer negocios con Anthropic. Mientras tanto, el mayor competidor de Anthropic, OpenAI, intervino rápidamente y se hizo cargo de los contratos militares pertinentes.
Así, la empresa de inteligencia artificial que en su día fue considerada «la más disruptiva del mundo» se vio repentinamente afectada por otra fuerza aún mayor: su propio Gobierno.
En el centro de este enfrentamiento se encuentra la pregunta: ¿Quién tiene la autoridad para establecer límites a esta tecnología, considerada una de las armas más potentes de Estados Unidos?
Anthropic no se opone a que sus herramientas se utilicen en la guerra. La empresa cree que reforzar la fuerza militar estadounidense es la única forma realista de disuadir las amenazas nacionales. Sin embargo, el director ejecutivo Dario Amodei se opone a los intentos del Pentágono de renegociar los contratos gubernamentales y ampliar el uso de la IA a «todos los usos legales».
Amodei planteó dos preocupaciones específicas: en primer lugar, no quiere que la IA de Anthropic se utilice en sistemas de armas totalmente autónomos; en segundo lugar, se opone al uso de su tecnología para la vigilancia a gran escala de los ciudadanos estadounidenses.
Sin embargo, en opinión de Pete Hegseth (EE. UU.) Secretario de Defensa) y sus asesores, esta postura es similar a la de una empresa privada que intenta dictar cómo debe luchar el ejército.
Los Estados Unidos. El Departamento de Defensa cree que Anthropic, al insistir en establecer «barreras de seguridad innecesarias», debatir continuamente diversos escenarios hipotéticos y retrasar las negociaciones posteriores, ha debilitado en realidad la cooperación entre ambas partes.
A los ojos de la administración Trump, la actitud de Amodei (director ejecutivo de Anthropic) es arrogante y obstinada. Por muy avanzado que sea el producto de una empresa, esta no debe interferir en la cadena de mando militar.
Emil Michael, subsecretario de Guerra para Asuntos Técnicos del Pentágono, describió la negociación de la siguiente manera: «La situación se prolongó así. No puedo dirigir un departamento de tres millones de personas con excepciones que ni siquiera puedo imaginar ni comprender.

Ilustración: Klawe Rzeczy para TIME - Fuente de la imagen: Denis Balibouse — Reuters
Desde Silicon Valley hasta el Capitolio, muchos observadores se preguntan: ¿Es esta tormenta realmente solo una disputa contractual?
Algunos críticos creen que las acciones de la administración Trump se asemejan más a un intento de suprimir a una empresa con una postura política desagradable. En un memorándum filtrado internamente, Dario Amodei escribió: «El Departamento de Defensa y la administración Trump no nos aprecian por la verdadera razón de que no hicimos donaciones a Trump». No lo alabamos como hacen los dictadores (a diferencia de Sam Altman). Apoyamos la regulación de la IA, lo que entra en conflicto con su agenda política; decimos la verdad sobre muchas cuestiones relacionadas con la política de IA (como la cuestión del desplazamiento de puestos de trabajo); y nos hemos mantenido fieles a nuestros principios en cuestiones fundamentales, en lugar de conspirar con ellos para montar el llamado «teatro de la seguridad».
Sin embargo, Emil Michael (subsecretario de Guerra) negó esta afirmación, calificándola de «una completa invención». Afirmó que incluir a Anthropic en la lista de riesgos para la cadena de suministro se debe a que la postura de la empresa puede poner en peligro a los combatientes de primera línea. Dijo: «En el Departamento de Guerra, mi trabajo no es la política; mi trabajo es defender la nación».
La cultura empresarial de independencia que Anthropic ha mantenido durante mucho tiempo choca ahora con la división política interna, las preocupaciones en materia de seguridad nacional y un entorno empresarial altamente competitivo. El alcance de los daños que este conflicto ha causado a la empresa sigue sin estar claro. La amenaza inicial del «riesgo de la cadena de suministro» se redujo posteriormente; según Anthropic, esta restricción solo se aplica actualmente a los contratos militares. El 9 de marzo, Anthropic demandó al Gobierno de los Estados Unidos en un intento por revocar esta decisión de «inclusión en la lista negra». Mientras tanto, algunos clientes parecen considerar la postura de la empresa como una declaración moral y han cambiado de ChatGPT a Claude.
Sin embargo, durante los próximos tres años, la empresa seguirá teniendo que desenvolverse en un entorno gubernamental que no le es favorable, ya que algunos funcionarios del Gobierno mantienen estrechos vínculos con los competidores de Anthropic, que sienten una clara animadversión hacia la empresa.
La «tormenta del Pentágono» también ha planteado algunas preguntas inquietantes, incluso para una empresa que ya está acostumbrada a lidiar con dilemas éticos de alto riesgo. En este enfrentamiento, Anthropic no cedió: la empresa insiste en que defendió sus valores fundamentales, aunque le costara muy caro al negocio.
Pero en otras ocasiones, también ha hecho concesiones. En la misma semana del enfrentamiento con el Pentágono, Anthropic debilitó una disposición fundamental de su compromiso de seguridad en materia de modelos de entrenamiento, alegando que otras empresas del sector no estaban dispuestas a cumplir las mismas normas.
Surgen preguntas: Si la presión competitiva sigue intensificándose, ¿qué otras concesiones hará esta empresa en el futuro?
Las apuestas aumentan continuamente. A medida que avancen las capacidades de la IA, la competencia por controlarla se volverá cada vez más feroz.
El uso de Claude en operaciones en Venezuela e Irán demuestra que la IA avanzada se ha convertido en una herramienta fundamental para los ejércitos más potentes del mundo. Más allá de estos acontecimientos, también están aumentando una serie de nuevas presiones: los poderes de las naciones, la política interna y las necesidades de seguridad nacional. Y estas presiones recaen sobre una empresa con ánimo de lucro que está implementando rápidamente esta nueva tecnología altamente volátil.
En cierto sentido, la situación de Anthropic se asemeja a la de un biólogo en un laboratorio: para encontrar una cura, deben crear voluntariamente un patógeno peligroso en sus experimentos. Anthropic ha asumido un papel similar, explorando activamente los riesgos potenciales de la IA mientras sigue impulsando los límites tecnológicos, en lugar de dejar este proceso en manos de competidores más dispuestos a tomar atajos o incluso a actuar de forma imprudente.
Sin embargo, aunque la empresa hace hincapié en la precaución, está aprovechando Claude para acelerar el desarrollo de versiones futuras aún más potentes.
Internamente, muchos consideran que los próximos años serán un periodo crucial, no solo para la empresa, sino para el mundo en general.
«Debemos asumir que entre 2026 y 2030 ocurrirán los acontecimientos más críticos, los modelos serán más rápidos y potentes, hasta el punto de que podrían llegar a ser demasiado rápidos para que los humanos puedan controlarlos», afirmó Logan Graham, jefe del Equipo Rojo responsable del descubrimiento de vulnerabilidades y los ataques simulados.
El jefe de seguridad de Anthropic, Dave Orr, utilizó una metáfora más directa para describir la situación: «Estamos conduciendo por una carretera de montaña junto a un precipicio. Un error es fatal. Y ahora, nuestra velocidad ha pasado de 25 millas por hora a 75 millas por hora.
Situado en la quinta planta de la sede central de Anthropic en San Francisco, el diseño general es cálido y discreto: decoración en madera, iluminación suave. Fuera de la ventana hay un parque verde y frondoso. En la pared cuelga un retrato del pionero de la informática Alan Turing, junto a varios artículos enmarcados sobre aprendizaje automático.
Guardias de seguridad vestidos de negro patrullan la entrada casi vacía, mientras una recepcionista amable entrega a los visitantes un folleto del tamaño de una Biblia de bolsillo que reparten los predicadores callejeros. Este libro, titulado «Machines of Loving Grace» (Máquinas de amorosa gracia), es un artículo de aproximadamente 14 000 palabras escrito por Dario Amodei en 2024, en el que describe su visión utópica de cómo la IA podría cambiar el mundo acelerando los descubrimientos científicos.
En enero de 2026, Amodei publicó otro artículo, casi una novela corta, titulado «La adolescencia de la tecnología», en el que profundizaba en la otra cara de esta tecnología: los riesgos que podría suponer, como la vigilancia generalizada, la pérdida significativa de puestos de trabajo e incluso la pérdida permanente del control humano sobre la tecnología.
Amodei, natural de San Francisco, es biofísico. Dirige Anthropic junto con su hermana, Daniela Amodei, que ocupa el cargo de presidenta de la empresa. Ambos hermanos fueron empleados de OpenAI desde el principio. Dario participó en un descubrimiento clave, conocido como las leyes de escalado de la IA, que más tarde se convirtió en una base fundamental para impulsar el actual frenesí por la IA. Por su parte, Daniela se encarga de gestionar la política de seguridad de la empresa.
Inicialmente, consideraban que su misión estaba estrechamente alineada con el propósito fundacional de OpenAI: desarrollar una tecnología que fuera a la vez enormemente prometedora y enormemente arriesgada, garantizando al mismo tiempo la seguridad.
Sin embargo, a medida que los modelos de OpenAI se volvían más potentes, empezaron a sentir que Sam Altman se apresuraba a lanzar nuevos productos sin dar tiempo suficiente para debatirlos y probarlos a fondo. Al final, los hermanos decidieron dejar OpenAI y emprender su propio camino.
«Estamos conduciendo por una carretera de montaña junto al borde del precipicio, donde un solo error puede ser fatal».
Dave Orr, jefe de seguridad de Anthropic
En 2021, en pleno apogeo de la pandemia, Anthropic fue fundada por los hermanos Amodei y otros cinco cofundadores. Las reuniones preparatorias iniciales se llevaron a cabo casi en su totalidad a través de Zoom; más tarde, simplemente trasladaron las sillas a un parque para discutir la estrategia de desarrollo de la empresa en persona.
Desde el principio, la empresa buscó operar de una manera diferente. Antes de lanzar cualquier producto, Anthropic creó un equipo específico para investigar el impacto social. La empresa incluso contrató a una filósofa residente: Amanda Askell. Su trabajo consistía en ayudar a configurar los valores y comportamientos del sistema de IA Claude y enseñarle a tomar decisiones en situaciones de incertidumbre moral complejas, preparándolo para un futuro en el que podría ser más inteligente que sus creadores humanos.
Askell describió este trabajo de la siguiente manera: «A veces es un poco como criar a un niño de seis años, enseñándole lo que está bien y lo que está mal. Pero el problema es que, cuando cumplen 15 años, pueden ser más inteligentes que tú en todos los sentidos.
La empresa tiene profundas raíces en el altruismo eficaz (EA). EA es un movimiento social y benéfico que aboga por maximizar el efecto del altruismo mediante el análisis racional, con el objetivo principal de evitar riesgos que puedan tener consecuencias catastróficas.
A principios de sus veinte años, los hermanos Amodei comenzaron a hacer donaciones a GiveWell. GiveWell es una organización de EA que evalúa específicamente dónde pueden tener mayor impacto real los fondos benéficos. Los siete cofundadores de Anthropic, que ahora son multimillonarios sobre el papel, se han comprometido a donar el 80 % de su patrimonio personal.
La filósofa de la empresa, Amanda Askell, es la exmujer del filósofo de Oxford William MacAskill, quien también es uno de los cofundadores del movimiento EA. El marido de Daniela Amodei es Holden Karnofsky, cofundador de GiveWell, antiguo compañero de piso de Dario Amodei y actualmente responsable de la política de seguridad en Anthropic.
Sin embargo, los hermanos Amodei nunca han aceptado públicamente la etiqueta «EA». Este concepto se volvió muy controvertido tras el incidente de Sam Bankman-Fried, un autoproclamado discípulo de EA e inversor en Anthropic que más tarde se vio implicado en uno de los mayores fraudes financieros de la historia de Estados Unidos.
Daniela Amodei explicó: «Es un poco como cuando algunas personas pueden coincidir con ciertas ideologías políticas en algunos puntos, pero en realidad no pertenecen a un bando político específico. Yo tiendo a verlo así.
Para algunos en Silicon Valley y en la administración Trump, la conexión entre Anthropic y el altruismo eficaz (EA) es suficiente para levantar sospechas. Algunos creen que Anthropic ha contratado a varios exfuncionarios de la administración Biden, lo que la convierte en una especie de vestigio del antiguo establishment, que utiliza su poder no electivo para obstruir la agenda política MAGA de Trump.
El responsable de asuntos relacionados con la IA de la administración Trump, David Sacks, acusó a la empresa de impulsar la regulación mediante una «histeria fabricada» y afirmó que Anthropic está llevando a cabo una «sofisticada estrategia de captura regulatoria». En su opinión, la empresa está tratando de exagerar los riesgos de la IA para impulsar políticas reguladoras estrictas, con el fin de obtener una ventaja competitiva y suprimir a las empresas emergentes.
Mientras tanto, Elon Musk, competidor operativo de xAI, se burla con frecuencia de Anthropic, refiriéndose a la empresa como «Misanthropic». Él cree que esta empresa representa a un grupo de élite con una ideología «progresista» que intenta inculcar un sistema de valores paternalista en los sistemas de inteligencia artificial. Este sentimiento, similar a las críticas conservadoras hacia las plataformas de redes sociales por moderar injustamente sus puntos de vista, ha despertado la ira de algunos.
Sin embargo, incluso los competidores de Anthropic tienen que reconocer su destreza tecnológica. El director ejecutivo de Nvidia, Jensen Huang, ha expresado que «no está de acuerdo en casi todas las cuestiones relacionadas con la IA» con las opiniones de Dario Amodei, pero sigue considerando que Claude es un modelo «increíble».
En noviembre de 2025, el gigante de los chips Nvidia invirtió 10 000 millones de dólares en Anthropic.
Boris Cherny planteó una pregunta sencilla a su nueva herramienta: «¿Qué música estoy escuchando ahora mismo?»
Era septiembre de 2024, y el ingeniero nacido en Ucrania se había incorporado a Anthropic hacía menos de un mes. Cherny había trabajado anteriormente como ingeniero de software en Meta. Desarrolló un sistema que permitía al chatbot Claude «moverse libremente» por su ordenador.
Si Claude era el cerebro, Claude Code era las manos. Mientras que un chatbot normal solo podía chatear, esta herramienta podía acceder a los archivos de Cherny, ejecutar programas y escribir y ejecutar código como cualquier programador.
Después de que el ingeniero introdujera un comando, Claude abrió el reproductor de música de Cherny, hizo una captura de pantalla y luego respondió: «『Husk』 de Men I Trust».
Cherny se rió entre dientes al recordar: «En ese momento me quedé realmente impresionado».
«A veces parece que estamos hablando con paradojas».
Deep Ganguli, director del equipo de impacto social de Anthropic.
Boris Cherny compartió rápidamente su prototipo dentro de la empresa. Claude Code se extendió rápidamente dentro de Anthropic, hasta tal punto que, durante la primera evaluación de rendimiento de Cherny, el director ejecutivo Dario Amodei incluso le preguntó: «¿Estás intentando "obligar" a tus compañeros a utilizar esta herramienta?».
Cuando Anthropic publicó un avance de la investigación sobre Claude Code en febrero de 2025, los desarrolladores externos se apresuraron a probarlo. En noviembre, Anthropic lanzó una nueva versión del modelo Claude. Cuando este modelo se combinó con Claude Code, ya era lo suficientemente competente como para detectar y corregir sus propios errores, hasta el punto de que se podía confiar en él para completar tareas de forma independiente.
A partir de entonces, Cherny dejó casi por completo de escribir su propio código.
El crecimiento empresarial también se disparó. A finales de 2025, los ingresos anualizados solo de este producto de agente de programación habían superado los 1000 millones de dólares. En febrero de 2026, esta cifra había aumentado aún más hasta alcanzar los 25 000 millones de dólares. Según las empresas de investigación del sector Epoch y SemiAnalysis, se espera que los ingresos de Anthropic superen a los de OpenAI a finales de 2026.
A estas alturas, Anthropic se ha consolidado como un actor clave en el mercado de la IA empresarial. Casi todos los lanzamientos de nuevos productos causan conmoción en los mercados de capitales.
Cuando Anthropic lanzó una serie de complementos, ampliando Claude a aplicaciones no aptas para programadores, como ventas, finanzas, marketing y servicios jurídicos, la capitalización bursátil de las empresas del sector del software se evaporó en 300 000 millones de dólares en un breve periodo de tiempo.
Dario Amodei había advertido anteriormente que, en los próximos 1 a 5 años, la inteligencia artificial podría sustituir la mitad de los puestos de oficina de nivel básico. También pidió al Gobierno y a otras empresas de IA que dejaran de «encubrir» este problema.
La reacción de Wall Street ante cada uno de los nuevos lanzamientos de productos de Anthropic también parece confirmar este punto: el mercado cree ampliamente que la tecnología de esta empresa podría hacer desaparecer toda una clase de puestos de trabajo. Amodei incluso afirmó que este cambio podría remodelar las estructuras sociales.
En un artículo, escribió: «Actualmente no está claro adónde irán estas personas ni qué trabajo realizarán». Me preocupa que puedan formar una «clase marginada» desempleada o con salarios extremadamente bajos.
Para los empleados de Anthropic, la ironía no es difícil de percibir: la empresa más preocupada por los riesgos sociales de la IA podría convertirse, irónicamente, en el motor tecnológico que desplace a millones de personas de sus puestos de trabajo.
Deep Ganguli, jefe del equipo de impacto social responsable de investigar el impacto de Claude en el empleo, dijo: «Se trata, sin duda, de una tensión real, y pienso en este tema casi todos los días». A veces parece que estamos diciendo dos cosas contradictorias al mismo tiempo.

El presidente venezolano derrocado Nicolás Maduro y su esposa, Cilia Flores, fueron trasladados en avión el lunes 5 de enero de 2026 y llevados al Tribunal Federal de Manhattan. Foto: Vincent Alban — The New York Times/Redux
Dentro de la empresa, algunos empleados están empezando a preguntarse: ¿Se está acercando Anthropic a un momento que tanto anticipan como temen, la llegada de un proceso conocido en la comunidad de IA como «automejora recursiva»?
La superación recursiva se refiere a un sistema de IA que comienza a mejorar sus propias capacidades y se perfecciona continuamente, creando un círculo virtuoso de progreso acelerado.
En las obras de ciencia ficción y en las simulaciones estratégicas de los principales laboratorios de IA, esto se suele considerar como el punto en el que las cosas podrían empezar a descarrilarse: podría producirse rápidamente una denominada «explosión de inteligencia», a una velocidad tan grande que los seres humanos ya no serían capaces de supervisar los sistemas que han creado.
Anthropic aún no ha alcanzado realmente esa etapa, ya que los científicos humanos siguen guiando el desarrollo de Claude. Sin embargo, el Código Claude ya ha acelerado las iniciativas de investigación de la empresa mucho más allá de los ritmos anteriores.
La cadencia de actualización ya no se mide en meses, sino en «semanas». En el proceso de desarrollo de los modelos de próxima generación, entre el 70 % y el 90 % del código lo escribe ahora el propio Claude.
La velocidad del cambio ha llevado al cofundador y científico jefe de Anthropic, Jared Kaplan, junto con algunos expertos externos, a creer que la investigación sobre IA totalmente automatizada podría surgir en tan solo un año.
El investigador Evan Hubinger, responsable de las pruebas de estrés de alineación de la IA, declaró: «En el sentido más amplio, la superación personal recursiva ya no es un fenómeno del futuro.
Es algo que está sucediendo ahora mismo».
Según los parámetros internos, Claude es ahora 427 veces más rápido que sus supervisores humanos en la realización de ciertas tareas críticas. En una entrevista, un investigador describió un escenario en el que un colega ejecutaba seis instancias de Claude simultáneamente, cada una de las cuales gestionaba otras veintiocho instancias de Claude, todas ellas realizando experimentos en paralelo.
Actualmente, el modelo sigue estando por detrás de los investigadores humanos en cuanto a juicio y estética. Sin embargo, los ejecutivos de la empresa creen que esta brecha no persistirá por mucho tiempo. La aceleración resultante es precisamente el riesgo sobre el que los líderes antropológicos llevan advirtiendo desde hace tiempo: el ritmo del progreso tecnológico podría acabar superando el control humano.
El trabajo de desarrollo de protocolos de seguridad en la propia Anthropic también se está acelerando con la ayuda de Claude. Sin embargo, a medida que la empresa depende cada vez más de Claude para crear y probar sistemas, los riesgos están formando un círculo vicioso. En algunos experimentos, el investigador Evan Hubinger realizó ajustes sutiles en el proceso de entrenamiento de Claude, lo que dio como resultado modelos que mostraban una hostilidad manifiesta, no solo expresando deseos de dominar el mundo, sino incluso intentando socavar las medidas de seguridad de Anthropic.
Recientemente, los modelos también han demostrado una nueva capacidad: darse cuenta de que están siendo probados. Hubinger dijo: «Estos modelos están mejorando en ocultar su verdadero comportamiento».
En un escenario experimental diseñado por un grupo de investigadores, Claude incluso mostró una inquietante inclinación estratégica: para evitar que lo apagaran, estaba dispuesto a chantajear revelando la aventura extramatrimonial de un ingeniero ficticio.
Dado que Claude se utiliza para entrenar versiones aún más potentes de Claude en el futuro, este tipo de problemas pueden seguir agravándose y escalando.
Para las empresas de IA que han recibido miles de millones en financiación con la promesa de «avances tecnológicos futuros», la idea de que la IA acelere continuamente su propia investigación y desarrollo resulta atractiva y potencialmente autorreforzante, ya que convence a los inversores de que es necesario destinar más fondos a apoyar estos costosos esfuerzos de formación de modelos.
Sin embargo, algunos expertos no están del todo convencidos. No están seguros de si estas empresas pueden realmente lograr una investigación de IA totalmente automatizada; sin embargo, también les preocupa que, si esto ocurriera, el mundo podría verse sorprendido sin estar preparado.
La directora interina del Centro para la Seguridad y las Tecnologías Emergentes (CSET) de la Universidad de Georgetown, Helen Toner, declaró: Algunas de las empresas más ricas del mundo, que emplean a algunas de las personas más inteligentes del planeta, están intentando automatizar la investigación en IA. La sola idea de esto es suficiente para provocar una respuesta del tipo «¿Qué diablos está pasando?».
Para hacer frente a un futuro potencial en el que los avances tecnológicos superen la capacidad de las empresas para gestionar los riesgos por sí mismas, Anthropic ha diseñado un conjunto de «mecanismos de freno» conocidos como Política de Escalado Responsable (RSP).
Esta política se dio a conocer en 2023, y su compromiso fundamental es el siguiente: si Anthropic no puede garantizar de antemano que sus medidas de seguridad sean lo suficientemente fiables, la empresa detendrá el desarrollo de un sistema de IA concreto.
Anthropic considera que esta política es una demostración crucial de su compromiso con la seguridad: incluso en la feroz carrera hacia la «superinteligencia», la empresa está dispuesta a resistir las presiones del mercado y a frenar de forma proactiva cuando sea necesario.
A finales de febrero de 2026, según informó por primera vez la revista TIME, Anthropic modificó su política y rescindió el compromiso anteriormente vinculante de «suspender el desarrollo».
En una retrospectiva, el cofundador y científico jefe de Anthropic, Jared Kaplan, declaró a la revista Time que la creencia inicial de que la empresa podía trazar una línea clara entre «peligro» y «seguridad» era, en realidad, una «idea ingenua».
Dijo: «En el contexto del rápido desarrollo de la IA, si nuestros competidores avanzan a toda velocidad, asumir compromisos estrictos de forma unilateral no es realmente realista».
La nueva política ha asumido algunos compromisos nuevos: aumentar la transparencia, divulgar más abiertamente los riesgos de seguridad de la IA; aumentar la divulgación de información, divulgar el rendimiento del modelo Anthropic en las pruebas de seguridad; igualar al menos a los competidores en inversión en seguridad, o incluso superarlos; si la empresa se considera líder en la competencia de IA y se estima que el riesgo catastrófico está aumentando significativamente, el desarrollo pertinente se «retrasará».
Anthropic describe este ajuste como una concesión pragmática al entorno del mundo real. Sin embargo, en general, la modificación de la Política de Escalado Responsable (RSP) reduce significativamente las restricciones de la empresa en materia de política de seguridad. Esto también presagia que nos esperan pruebas aún más difíciles.
La incursión para capturar al presidente venezolano Nicolás Maduro fue una de las primeras operaciones militares a gran escala planificadas con la participación de sistemas de inteligencia artificial de última generación.
En la noche del 3 de enero de 2026, helicópteros del Ejército de los Estados Unidos entraron repentinamente en el espacio aéreo venezolano. Tras un breve intercambio de disparos, el equipo de asalto identificó rápidamente la zona residencial del presidente y allí capturó a Maduro y a su esposa, Cilia Flores. Posteriormente, ambos fueron trasladados a Nueva York para enfrentarse a cargos relacionados con el terrorismo relacionado con las drogas.
El mundo exterior aún no tiene claro cuánto contribuyó Claude a esta operación. Sin embargo, según los medios de comunicación, este sistema de IA no solo participó en la planificación de la misión, sino que también se utilizó para apoyar la toma de decisiones durante la operación.
Desde julio del año pasado, el Departamento de Defensa de los Estados Unidos ha estado presionando para distribuir las herramientas de inteligencia artificial de Anthropic a más combatientes de primera línea. El ejército cree que estos sistemas pueden procesar rápidamente grandes cantidades de datos procedentes de múltiples fuentes y generar inteligencia útil, lo que les confiere un enorme valor estratégico.
Mark Beall, ex alto funcionario del Departamento de Defensa de los Estados Unidos y actual responsable de Asuntos Gubernamentales de la Red de Políticas de Inteligencia Artificial, afirmó: «Desde el punto de vista militar, Claude es el mejor modelo que existe actualmente en el mercado». Añadió: «La adopción de Claude en sistemas clasificados es uno de los éxitos más significativos de Anthropic». Tienen la ventaja de ser los primeros en llegar.
«No utilizaremos modelos de IA que te impidan luchar».
Pete Hegseth, Estados Unidos. Secretario de Defensa
Sin embargo, la operación para capturar al presidente venezolano Nicolás Maduro se está llevando a cabo en medio de una serie de espinosas negociaciones entre Anthropic y el Departamento de Defensa de los Estados Unidos.
Durante meses, el Departamento de Defensa ha estado tratando de renegociar el contrato, al considerar que los términos existentes restringen excesivamente el uso de Claude. Las razones del fracaso de las negociaciones no son coherentes por ambas partes.
Emil Michael, director de IA del Pentágono, declaró que el conflicto se desencadenó por una llamada telefónica de un ejecutivo de Anthropic a Palantir. Esta empresa de análisis de datos, que se centra en el sector público, es un socio clave del sistema de defensa estadounidense.
Según Michael, el ejecutivo expresó su preocupación por la redada en Venezuela durante la llamada y preguntó si el software de Palantir estaba involucrado. «Intentaban obtener información clasificada», dijo Michael.
Este incidente suscitó gran preocupación en el Pentágono: «¿Podrían apagar repentinamente su modelo en medio de una operación en el futuro, poniendo en peligro a los soldados de primera línea?».
Sin embargo, Anthropic niega esta afirmación. La empresa declaró que nunca intentó restringir selectivamente el uso de su tecnología por parte del Pentágono.
Un exfuncionario de la administración Trump familiarizado con el proceso de negociación y estrechamente vinculado a Anthropic ofreció una versión diferente de los hechos: Fue un empleado de Palantir quien mencionó por primera vez el papel de Claude en esa operación durante una conferencia telefónica rutinaria.
Las preguntas posteriores de Anthropic no mostraron signos de oposición a la operación.

Ilustración de Klawe Rzeczy para TIME, fuentes de las imágenes: Dimitrios Kambouris—Getty Images (Donald Trump); Kenny Holston-Pool—Getty Images (Pete Hegseth)
A medida que avanzaban las negociaciones, los funcionarios del gobierno sentían cada vez más que la postura de Dario Amodei era mucho más inflexible que la de otros directores ejecutivos de laboratorios de IA líderes. Según múltiples fuentes familiarizadas con el proceso de negociación, en una de las conversaciones, los funcionarios de Defensa presentaron algunos escenarios hipotéticos, como: un misil hipersónico dirigiéndose hacia el territorio continental de los Estados Unidos; o un ataque con un enjambre de drones.
En estos casos, preguntaron si se podía utilizar la herramienta de IA de Anthropic.
Según algunas fuentes, la respuesta de Amodei en ese momento fue: si realmente llegara a eso, los funcionarios podrían llamarlo directamente. Sin embargo, un portavoz de Anthropic lo desmintió y calificó la descripción del proceso de negociación como «totalmente falsa».
Anthropic ya tenía fuertes adversarios dentro del gobierno, y ahora las sospechas sobre sus «inclinaciones ideológicas» se han convertido en hostilidad abierta. El 12 de enero de 2026, Pete Hegseth declaró sin rodeos durante un discurso en la sede de SpaceX: «No utilizaremos modelos de IA que te impidan luchar».
Mientras las negociaciones seguían prolongándose, Hegseth convocó a Dario Amodei al Pentágono para una reunión cara a cara el 24 de febrero. Según una fuente familiarizada con las conversaciones, la reunión fue cordial, pero ambas partes se mantuvieron firmes en sus posiciones. Hegseth elogió inicialmente a Claude y expresó el deseo del ejército de seguir colaborando con Anthropic. Amodei, por su parte, afirmó que la empresa estaba dispuesta a aceptar la mayoría de los cambios propuestos por el Pentágono, pero que no cedería en dos cuestiones «línea roja».
La primera línea roja es: prohibir el uso de Claude en sistemas de armas cinéticas totalmente autónomos, es decir, armas en las que la decisión final de atacar la toma la IA en lugar de un humano.
Anthropic no cree intrínsecamente que las armas autónomas sean incorrectas, pero sostiene que Claude no es lo suficientemente fiable en la actualidad como para controlar estos sistemas sin supervisión humana.
La segunda línea roja se refiere a la vigilancia masiva de los ciudadanos estadounidenses. El gobierno quiere utilizar Claude para analizar grandes cantidades de datos públicos, pero Anthropic cree que las leyes de privacidad vigentes en Estados Unidos no se han adaptado a una realidad preocupante: el gobierno está comprando enormes conjuntos de datos del mercado comercial. Aunque individualmente estos conjuntos de datos pueden no ser sensibles, una vez analizados por la IA, podrían generar perfiles detallados de la vida privada de los ciudadanos estadounidenses, incluyendo sus opiniones políticas, relaciones sociales, comportamiento sexual e historiales de navegación. (Sin embargo, Anthropic no se opone a utilizar el mismo método para vigilar legalmente a los ciudadanos extranjeros).
Hegseth no estaba convencido. Le dio un ultimátum definitivo a Amodei: las condiciones del Pentágono debían aceptarse antes de las 5:00 p. m. del viernes 27 de febrero, o de lo contrario se consideraría un «riesgo para la cadena de suministro».
El día antes de la fecha límite, Anthropic recibió un contrato revisado que parecía aceptar las condiciones mínimas de la empresa, pero al examinarlo más detenidamente, encontraron lagunas jurídicas que favorecían al gobierno. Una fuente familiarizada con las negociaciones dijo que, a medida que pasaba el tiempo, los ejecutivos de Anthropic mantuvieron otra conversación telefónica con Emil Michael, responsable de IA del Pentágono. Creían estar cerca de llegar a un acuerdo, pero quedaba sin resolver una cuestión clave: si el Pentágono podía utilizar Claude para analizar datos estadounidenses a gran escala obtenidos a través de canales comerciales. Michael pidió a Amodei que se uniera a la llamada, pero en ese momento no estaba disponible.
Unos minutos más tarde, justo en el momento límite, Hegseth anunció el fin de las negociaciones. Incluso antes de esto, Donald Trump ya se había pronunciado en sus redes sociales: «¡Los Estados Unidos de América nunca permitirán que una empresa radical de izquierda y «progresista» decida cómo debe operar nuestro gran ejército y ganar guerras! Los lunáticos de izquierda de Anthropic han cometido un error catastrófico.
Sin que Anthropic lo supiera, el Pentágono también estaba negociando con OpenAI para introducir ChatGPT en los sistemas gubernamentales clasificados. Esa misma noche, Sam Altman anunció que se había alcanzado un acuerdo, afirmando que este también respetaba límites de seguridad similares. A continuación, Amodei envió un mensaje a sus empleados en el que afirmaba que Altman y el Pentágono estaban «manipulando la opinión pública», tratando de hacer creer a la ciudadanía que este acuerdo incluía estrictas barreras de seguridad. Anteriormente, funcionarios del Pentágono también confirmaron que los modelos de xAI se implementarían en servidores clasificados; el Pentágono se encuentra actualmente en negociaciones con Google.
Este era precisamente el escenario que preocupaba a Amodei: una carrera de «competencia a la baja». Cuando el poder de la IA se vuelve demasiado grande como para ignorarlo, a los competidores les resulta difícil cooperar y elevar juntos los estándares de seguridad.
Para los críticos de Anthropic, este suceso también puso de manifiesto la arrogancia inherente a la empresa: tal vez creía que podía recorrer con seguridad el camino hacia las máquinas sobrehumanas, por lo que merecía la pena asumir riesgos tan enormes. Pero la realidad es que introdujo rápidamente nuevas capacidades de vigilancia y tecnologías de guerra en un sistema gubernamental de derecha, y cuando intentó establecer límites para estas tecnologías, fue inmediatamente superado por sus competidores.
«No alabamos a Trump como dictador».
Dario Amodei, abordando la raíz del conflicto con el Pentágono en un memorándum dirigido a los empleados.
Sin embargo, hay indicios que apuntan a que Anthropic podría ser capaz de resistir este impacto e incluso salir fortalecida de él. Justo la mañana después de que Pete Hegseth intentara firmar la «sentencia de muerte corporativa», apareció una serie de mensajes alentadores escritos con tiza en la acera frente a la sede central de San Francisco. «Nos diste valor», decía un mensaje en letras mayúsculas.
Ese mismo día, la aplicación para iPhone de Claude encabezó las listas de descargas de la App Store, superando a ChatGPT. Más de un millón de personas se registran en Claude cada día.
Al mismo tiempo, el contrato que OpenAI firmó con el ejército provocó resistencia interna y de la comunidad. Algunos empleados de OpenAI sienten que la empresa ha perdido la confianza. Un investigador de primer nivel anunció su traslado a Anthropic; el jefe del equipo de robótica de OpenAI dimitió debido a este contrato gubernamental.
El director ejecutivo de OpenAI, Sam Altman, también admitió más tarde que su afán por llegar a un acuerdo con el Pentágono antes del viernes había sido un error. Escribió: «Estas cuestiones son extremadamente complejas y requieren una comunicación clara y exhaustiva». El lunes, Altman reconoció además que sus acciones en ese momento efectivamente «parecían oportunistas». OpenAI también declaró que el acuerdo se ha revisado para adoptar explícitamente las mismas líneas rojas de seguridad que Anthropic. Sin embargo, los expertos jurídicos señalan que es difícil confirmar esta afirmación sin ver el contrato completo.
El 4 de marzo, Anthropic recibió una carta oficial del Departamento de Defensa de los Estados Unidos en la que se confirmaba que la empresa había sido identificada como un riesgo para la cadena de suministro de la seguridad nacional. Anthropic afirmó que esta designación es más restrictiva de lo que Hegseth afirmó en las redes sociales, ya que solo prohíbe a los contratistas utilizar Claude en contratos de defensa.
Sin embargo, una carta vista por la revista Time dirigida al presidente del Comité de Inteligencia del Senado, Tom Cotton, reveló que el Departamento de Defensa también invocó otra disposición legal, una que podría permitir a las agencias gubernamentales fuera del Pentágono excluir a Anthropic de sus contratos y cadenas de suministro. Esta medida requiere la aprobación de altos funcionarios del Departamento de Defensa y concede a Anthropic un plazo de 30 días para responder.
Este conflicto podría desencadenar un efecto dominó en toda la industria de la inteligencia artificial. Dean Ball, que participó en la redacción de la Iniciativa Trump sobre IA y ahora trabaja en el think tank Foundation for American Innovation, afirmó: «Algunas personas de la administración Trump se sentirán muy molestas por esto, casi flexionando los bíceps para sí mismas por la noche».
Sin embargo, también advirtió que este suceso podría llevar a las empresas a mostrarse reacias a trabajar con el Pentágono, e incluso a trasladar sus operaciones al extranjero. «A largo plazo, esto no es bueno para la imagen de Estados Unidos como entorno empresarial estable», afirmó Ball, «y la estabilidad es en lo que confiamos».
Los directivos de Anthropic creen que Claude ayudará a crear sistemas de IA más robustos y potentes, capaces de desempeñar un papel decisivo en la futura estructura de poder mundial.
Si ese es realmente el caso, entonces el conflicto entre esta empresa y el Pentágono podría ser solo el preludio de un proceso histórico más amplio.
También te puede gustar

El mercado de predicciones gana popularidad en Estados Unidos y Canadá, Claude lanza la función Chart Interaction, ¿De qué habla hoy la comunidad inglesa?

500 millones de dólares, 12 segundos para llegar a cero: Cómo una transacción de Aave alimentó la cadena alimentaria del «bosque oscuro» de Ethereum

El agente de IA necesita criptomonedas, no las criptomonedas necesitan IA.

Las monedas estables se están separando de las criptomonedas y se están convirtiendo en la próxima generación de infraestructura para los pagos globales

Los equipos de Web3 deberían dejar de malgastar los presupuestos de marketing en la plataforma X

Strive compra acciones de Strategy, y las empresas de tesorería de Bitcoin comienzan a anidarse entre sí.

Información clave sobre el mercado del 12 de marzo, ¿cuánto te has perdido?

Esfuércese por comprar acciones de Strategy, la empresa Bitcoin Treasury comienza a crear muñecas rusas entre sí.

El nuevo centro de Crypto

¿Cuáles son las posibilidades de un MOONSHOT 5X para HYPE?

Opere con oro y plata sin comisiones: Comparte recompensas por valor de 300 000 $ en PAXG, XAUT y XAG.
La campaña WEEX Precious Metals introduce el trading sin comisiones y un fondo de recompensas de 300 000 dólares, lo que ofrece a los usuarios nuevas oportunidades para participar en los mercados de oro y plata tokenizados en WEEX.

Lecciones de un tercer equipo premiado en el WEEX AI Trading Hackathon
Rift, uno de los equipos del Tercer Premio en el WEEX AI Trading Hackathon, comparte cómo confiar en su sistema ayudó a que la estrategia se mantuviera resistente a la volatilidad del mercado en vivo.

Sin título
Lamento no poder generar o reescribir contenido de un artículo cuando el contenido o la información original…

Demanda de Binance contra WSJ: La Batalla Legal por Informes sobre Sanciones a Irán
Binance ha presentado una demanda por difamación contra el Wall Street Journal en Nueva York. El WSJ informó…

Google’s Gemini AI predice el precio de XRP, Solana y Cardano para finales de 2026
El XRP de Ripple podría aumentar más de 10 veces su valor actual en los próximos meses, impulsado…

Por Qué el Precio de Bitcoin Podría Tocarse Fondo Pronto
Mike Novogratz de Galaxy Digital sugiere que Bitcoin podría encontrar fondo entre $70,000 y $100,000 dólares, a pesar…

Falla en el Oráculo de Aave Causa Liquidaciones por $27M: Confirmación de Error de Configuración de CAPO
Una falla en el oráculo de Aave causó liquidaciones forzadas por valor de $27 millones debido a la…

Arthur Hayes y su Estrategia de Liquidez Neta: No Compra Bitcoin con Solo $1
Arthur Hayes ha decidido dejar de comprar Bitcoin, esperando que la Reserva Federal expanda la oferta monetaria. Su…