La apuesta de Anthropic por la IPO: En el momento más improbable, decidió decir no

By: blockbeats|2026/02/28 13:24:23
0
Compartir
copy

Imagínese este escenario.

Tienes tres meses de retraso en tus facturas de servicios públicos, fuiste al hospital el mes pasado y presentas tus impuestos diligentemente todos los años. Estas cosas parecen no tener relación.

Pero en un determinado sistema de IA, estos tres datos se agregan y generan un punto rojo en un mapa. Ese punto rojo representa su ubicación y una directiva policial dirigida a usted.

Esto no es ciencia ficción. A principios de 2026, Estados Unidos La Agencia Federal de Inmigración llevó a cabo una operación de barrido a gran escala en Minneapolis, impulsada por esta lógica. El sistema de inteligencia artificial pertinente proviene de una empresa de datos llamada Palantir, que integra los registros médicos de los inmigrantes, las facturas de servicios públicos y la información fiscal en un algoritmo, marcando fríamente los objetivos de persecución uno por uno.

La IA se está convirtiendo en un arma. No es un tiempo futuro, sino presente.

La pregunta ya no es si esto sucederá, sino quién tiene derecho a decidir qué puede y qué no puede hacer.

El 27 de febrero de 2026, esa pregunta recibió una respuesta inquietante.

Ese día, una empresa llamada Anthropic (una empresa de inteligencia artificial, desarrolladora del producto de inteligencia artificial conversacional Claude y competidora del nivel de ChatGPT) fue prohibida formalmente por el gobierno de Estados Unidos. El motivo de la prohibición fue su negativa a permitir que su inteligencia artificial se utilizara para monitorear a ciudadanos estadounidenses y decidir de forma autónoma los objetivos a eliminar.

Se clasificó como un "riesgo para la seguridad nacional" porque decía: "No se puede utilizar de esta manera".

La apuesta de Anthropic por la IPO: En el momento más improbable, decidió decir no

Lo que más necesita una empresa que se prepara para una IPO

Antes de responder a la pregunta "¿Por qué Anthropic no haría concesiones?", es necesario entender cuál es su situación actual.

Anthropic es una de las empresas de inteligencia artificial mejor valoradas del mundo, valuada en 380 mil millones de dólares y con ingresos anuales de 14 mil millones de dólares en 2025. Su mayor accionista es Amazon, con una participación superior a la de cualquier otro accionista. Su modelo de IA Claude es uno de los productos de IA de más rápido crecimiento en el mercado empresarial actualmente.

Desde cualquier punto de vista, esta es una empresa lista para salir a bolsa. De hecho, Anthropic se está preparando para una IPO este año, permitiendo que la gente común pueda comprar sus acciones.

¿Qué es lo que más necesita una empresa que se prepara para salir a bolsa? La respuesta no requiere mucha reflexión: estabilidad, previsibilidad y ningún problema regulatorio. Cualquier evento negativo podría afectar la confianza de los inversores en la empresa y, por lo tanto, deprimir el precio de la IPO.

Luego, las cosas tomaron un giro completamente opuesto.

En julio de 2025, el Pentágono otorgó simultáneamente un contrato de hasta 200 millones de dólares a Anthropic, OpenAI (desarrollador de ChatGPT), Google y xAI de Musk, con el objetivo de integrar IA de vanguardia en el sistema militar estadounidense. Esta fue la mayor contratación pública en la historia de la IA.

Cabe destacar que el contrato de Anthropic contenía un detalle que las otras tres empresas no tenían. Se establecieron explícitamente dos restricciones de uso: Claude no podría utilizarse para la vigilancia masiva de ciudadanos estadounidenses ni para sistemas de armas autónomos sin supervisión humana.

OpenAI, Google y xAI estuvieron de acuerdo en que los militares podrían usar IA para todos los fines legales sin limitaciones adicionales. Sólo Anthropic trazó dos líneas rojas en el contrato.

Estas dos líneas rojas se convirtieron más tarde en el punto de partida de todos los problemas.

Ultimátum

En febrero de 2026, el Pentágono decidió presionar a Anthropic.

El secretario de Defensa, Pete Hegseth, lanzó un ultimátum al director ejecutivo de Anthropic, Dario Amodei: eliminar las restricciones de uso del contrato, permitiendo que Claude sea utilizado para todos los fines legales. De lo contrario, el Pentágono cancelaría el contrato y designaría a Anthropic como un "riesgo de la cadena de suministro". La fecha límite fue el 27 de febrero.

La respuesta de Darío fue: No.

En una declaración pública, escribió: "Entendemos que las decisiones militares las toma el gobierno, no las empresas privadas. Pero en muy pocos casos creemos que la IA puede socavar los valores democráticos en lugar de defenderlos. “Tenemos la conciencia tranquila y no podemos aceptar sus exigencias”.

Luego, Emil Michael, el responsable de tecnología del Pentágono, publicó en las redes sociales que llamaba a Darío un fraude, lo acusaba de tener un complejo de Dios y de intentar controlar personalmente al ejército estadounidense, poniendo en riesgo la seguridad nacional.

Luego vino el propio Trump. Escribió en su propia plataforma social, Truth Social, que Anthropic era una "empresa que impulsaba el despertar de la izquierda radical", que había "cometido un error catastrófico" y ordenó a todas las agencias del gobierno federal que dejaran de usar inmediatamente todos los productos de Anthropic y que la transición se completara en un plazo de seis meses.

El Pentágono clasificó rápidamente a Anthropic como un "riesgo para la cadena de suministro".

Anteriormente, esta etiqueta sólo se utilizaba para marcar empresas relacionadas con adversarios extranjeros como China. Se ha utilizado para Huawei y SMIC. Ahora es el turno de una empresa estadounidense de inteligencia artificial con sede en San Francisco y una valoración de 380 mil millones de dólares.

200 millones de dólares es un problema menor, el verdadero problema está aquí

La reacción inicial de muchas personas fue: perder un contrato gubernamental de 200 millones de dólares es sólo una pequeña fracción para Anthropic, con 14 mil millones de dólares en ingresos anuales.

Esta evaluación es correcta, pero el enfoque es erróneo.

El impacto real proviene de la propia etiqueta de "riesgo de la cadena de suministro". Esto significa que cualquier empresa que colabore con el ejército estadounidense debe demostrar que su negocio no ha involucrado a Anthropic. No se trata de una presión ética blanda, sino de un requisito de estricto cumplimiento.

Siguiendo esta línea de pensamiento hacia abajo, el alcance del impacto comienza a parecer menos optimista.

Amazon Web Services es la principal infraestructura operativa de Claude y también el mayor proveedor de nube para el gobierno de EE. UU., con una profunda integración entre ambos. La empresa de análisis de datos Palantir, al servicio de las agencias militares y de inteligencia de Estados Unidos, incorpora a Claude. La empresa de tecnología de defensa Anduril procesa datos utilizando Claude en proyectos relacionados con el Pentágono.

Estos clientes ahora deben tomar una decisión: seguir utilizando Claude, enfrentando la presión de colaborar con una empresa de "riesgo en la cadena de suministro", o reemplazar Claude, una herramienta profundamente integrada en sus flujos de trabajo.

Ambas opciones son pérdidas para Anthropic. Éste es el riesgo real que hay que gestionar, mucho más preocupante que el monto del contrato de 200 millones de dólares.

Todos estos problemas están ocurriendo antes de la salida a bolsa.

Precio de --

--

¿Por qué todavía ocurrió el rechazo?

La situación se está volviendo intrigante.

Una empresa que se dirige corriendo hacia una IPO, lo último que necesita en este momento crítico son problemas, pero decidió enfrentar directamente la presión del gobierno. ¿Se trata de un error de criterio empresarial o de una apuesta calculada?

Poner las dos opciones una al lado de la otra hace que la lógica sea más clara.

Si llegan a un acuerdo, se salva el contrato, se mantienen las relaciones gubernamentales y los problemas inmediatos desaparecen. Pero la narrativa de marca más importante de Anthropic de los últimos tres años —"la empresa de IA más responsable", "la seguridad primero"— se agrietará en este momento.

El riesgo mayor no es inmediato. Una vez que Claude se utilice realmente para vigilancia a gran escala o para decisiones sobre armas autónomas, si ocurre algún percance, la pérdida no será solo un contrato, sino la tesis de valoración de toda la empresa. La prima que los inversores pagaron inicialmente por la historia de la "IA responsable" se evaporará de la noche a la mañana.

Si se niega, se perderán 200 millones de dólares, se activará una etiqueta de riesgo en la cadena de suministro y el mercado gubernamental quedará esencialmente cerrado. Pero la narrativa de marca "La seguridad es lo primero" ha recibido el respaldo público más caro de la historia. Ningún presupuesto de relaciones públicas podría comprar este efecto, ya que el gobierno lo prohibió por negarse a permitir que la inteligencia artificial monitoree a los ciudadanos del país.

Hay una frase en la declaración de Darío que vale la pena destacar: "Nuestra valoración y nuestros ingresos sólo aumentan después de adoptar esta postura".

¿Esta frase es una declaración de relaciones públicas o un juicio comercial? Podrían ser ambas cosas, pero no son contradictorias.

Hay un contraejemplo que debemos considerar. Palantir, la empresa de datos mencionada anteriormente que utilizó IA para ayudar a la agencia federal de inmigración a rastrear objetivos, tomó un camino completamente opuesto. Se adaptó profundamente a todas las demandas del gobierno y estuvo abierto al seguimiento de la inmigración, al análisis de inteligencia y a la selección de objetivos militares. Como resultado, fue rechazado por el círculo de capital socialmente responsable durante casi veinte años, incapaz de recaudar dinero durante mucho tiempo y excluido por los grandes fondos.

Luego, en 2024, cuando la narrativa militar de la IA se convirtió en la historia principal del mercado, el precio de sus acciones aumentó un 150% en un año y su valor de mercado superó los 400 mil millones de dólares.

Dos caminos, dos destinos, cada uno con su propia lógica. Palantir cambió veinte años de paciencia por la explosión de hoy. Anthropic apuesta a una lógica de valoración diferente: en la competencia cada vez más feroz y homogénea entre las empresas de IA, la "IA más segura" no es solo una postura ética sino un foso comercial en el mundo real.

Aún no se sabe qué apuesta será mayor. Pero Anthropic cree claramente que el costo del compromiso es mayor que el del rechazo.

¿Podrá dar frutos la apuesta de Darío?

La respuesta a esta pregunta depende de varias variables que aún no se han materializado.

En primer lugar, es la respuesta real de los clientes empresariales. ¿Amazon, Palantir y Anduril cortarán activamente sus relaciones con Claude debido a la etiqueta de "riesgo en la cadena de suministro" o elegirán quedarse quietos y esperar a que la situación cambie? Hasta el momento, estas empresas no han hecho ninguna declaración pública. Si deciden esperar y ver, la pérdida real de Anthropic será sólo el contrato gubernamental de 200 millones de dólares.

La siguiente dificultad práctica es la de sustituir al gobierno. Incluso el propio departamento del Pentágono que utiliza a Claude internamente reconoce: Claude es actualmente uno de los modelos de IA más potentes disponibles, y Grok, de Musk, aún está muy por detrás en términos técnicos. Reemplazar significa rebajar el uso. ¿Quién asumirá este coste?

Por último, está el impacto inesperadamente amplio de este asunto. El mismo día que Anthropic fue prohibido, Sam Altman, CEO de OpenAI, el desarrollador de ChatGPT, tomó una postura pública: OpenAI y Anthropic comparten la "misma línea roja" respecto del límite del uso de IA militar, y ambas compañías adoptan una postura unificada.

En otras palabras, si el gobierno busca una alternativa que esté dispuesta a cumplir plenamente sin restricciones, las opciones son mucho menores de lo que imagina.

El proceso de militarización de la IA no se ralentizará por ello. Grok de Musk ya ha penetrado la red clasificada del Pentágono, otras empresas de IA no han perdido contratos militares y los sistemas de armas asistidos por IA continúan iterando.

La elección de Anthropic no cambia esta trayectoria. Lo que cambia es dónde se sitúa en esta trayectoria.

Pero una cosa es segura: esta es la primera vez en la historia de la industria de la IA que una empresa tradicional ha resistido abiertamente la presión del gobierno sobre principios explícitos, incluso si finalmente pagó el precio de ser prohibida. Independientemente del resultado de esta apuesta, este precedente ya existe.

El último problema aritmético que queda para el lector: una empresa valuada en 380 mil millones de dólares, en aras de dos principios escritos en un contrato, renunció a todo el mercado gubernamental y luego fue clasificada como un riesgo para la seguridad nacional.

En la actual era de armamentismo acelerado por la IA, la forma de calcular esta ecuación depende de lo que se considere más valioso en el futuro.

También te puede gustar

Monedas populares

Últimas noticias cripto

Más información