¿Por qué OpenAI está tratando de ponerse al día con Claude Code?
Título original del artículo: Dentro de la carrera de OpenAI para alcanzar a Claude Code
Autor del artículo original: Maxwell Zeff, Wired
Traducción: Peggy, BlockBeats
Nota del editor: En el panorama en rápida evolución de los agentes de programación de IA, OpenAI, que en su día lideró la ola de la IA generativa con ChatGPT, se ha convertido inesperadamente en un «perseguidor» en esta carrera clave. En marcado contraste, Anthropic, fundada por antiguos miembros de OpenAI, ha ganado rápidamente popularidad en la comunidad de desarrolladores y en el mercado empresarial con Claude Code, emergiendo como uno de los líderes clave en el ámbito de las herramientas de programación de IA.
Este artículo, a través de entrevistas con ejecutivos, ingenieros y varios desarrolladores de OpenAI, revela el verdadero proceso que hay detrás de esta competencia: desde los primeros días, cuando se dividió el proyecto OpenAI Codex, se trasladaron los recursos a ChatGPT y a modelos multimodales, hasta la reintegración interna del equipo y el lanzamiento acelerado de productos de programación de IA, OpenAI está experimentando una transformación que va desde la supervisión estratégica hasta la recuperación integral. En cierto sentido, no se trata de un retraso en las capacidades técnicas, sino de una desalineación del ritmo estratégico: el avance de ChatGPT cambió las prioridades de la empresa, la asociación con Microsoft limitó la hoja de ruta del producto, mientras que Anthropic había apostado anteriormente por la vía de la programación de IA.
Más allá de esta competencia, están surgiendo gradualmente cuestiones más profundas: a medida que los agentes de IA comienzan a asumir más trabajo cognitivo, los procesos de desarrollo de software e incluso el propio trabajo de oficina podrían redefinirse.
El siguiente es el artículo original:
El director ejecutivo de OpenAI, Sam Altman, apoya las piernas en la silla de la oficina, inclina la cabeza hacia atrás para mirar al techo, como si estuviera contemplando una respuesta aún sin formular. En cierto sentido, esto también está relacionado con el medio ambiente.
La nueva sede de OpenAI en Mission Bay, San Francisco, es un edificio moderno construido con cristal y madera clara, que casi parece un «templo tecnológico». En la estantería situada detrás del mostrador de recepción hay manuales que presentan las «eras de la IA», como si describieran un camino hacia la iluminación tecnológica. La pared de la escalera está llena de carteles que marcan los hitos del desarrollo de la inteligencia artificial, uno de los cuales recoge un momento así: miles de espectadores presenciaron en directo cómo una máquina derrotaba a un equipo de élite de deportes electrónicos en una partida de «Dota 2». En los pasillos, los investigadores, vestidos con sudaderas con capucha con el lema del equipo, van y vienen. En una de ellas se lee: «Una buena investigación lleva tiempo». Por supuesto, lo ideal es que no sea demasiado largo.
Estamos sentados en una gran sala de conferencias. La pregunta que le planteé a Altman fue sobre la revolución actual en la programación de IA y por qué OpenAI no parece estar liderando esta ola.
Hoy en día, millones de ingenieros de software han comenzado a delegar parte de su trabajo de programación a la IA, lo que ha llevado a muchos en Silicon Valley a enfrentarse por primera vez a una realidad: la automatización puede afectar a sus propios puestos de trabajo. Los agentes de codificación se han convertido así en uno de los pocos casos de uso en los que las empresas están dispuestas a pagar un sobreprecio por la IA. En teoría, ese momento podría y debería ser el próximo «triunfo» en el póster de la escalera de OpenAI. Pero ahora, el nombre más destacado no es el suyo.
La empresa en cuestión tiene un rival, Anthropic, una empresa de inteligencia artificial fundada por antiguos miembros de OpenAI. Con su producto de agente de codificación Claude Code, Anthropic ha experimentado un crecimiento explosivo. La empresa reveló en febrero que el producto aportaba casi una quinta parte de su negocio, lo que se corresponde con unos ingresos anualizados de más de 2500 millones de dólares. Por el contrario, a finales de enero, el producto de programación interno de OpenAI, OpenAI Codex, tenía unos ingresos anualizados ligeramente superiores a los 1000 millones de dólares, según una fuente familiarizada con el asunto.
La pregunta es: ¿por qué OpenAI se está quedando atrás en esta carrera por la programación de IA?
«El valor de ser el primero es inmenso», dijo Sam Altman tras un momento de reflexión. «Lo hemos experimentado con ChatGPT».
Sin embargo, en su opinión, ahora es el momento de que OpenAI adopte plenamente la programación de IA. Él cree que las capacidades del modelo actual de la empresa son lo suficientemente potentes como para soportar agentes de codificación altamente complejos. Por supuesto, estas capacidades no son fruto de la casualidad; la empresa ha invertido miles de millones de dólares en la formación de modelos con este fin.
«Esto será un gran negocio», afirmó Altman. «No solo por el valor económico que aporta en sí mismo, sino también por la productividad general que la programación puede generar». Hizo una breve pausa y añadió: «Rara vez utilizo este término a la ligera, pero creo que este es probablemente uno de esos mercados que alcanzará una escala de billones de dólares».
Además, cree que OpenAI Codex puede ser el «camino más probable» para alcanzar la Inteligencia Artificial General (AGI). Según la definición de OpenAI, la AGI es un sistema de IA capaz de superar el rendimiento humano en la mayoría de las tareas con valor económico.

Sam Altman, director ejecutivo de OpenAI. Foto: Mark Jayson Quines.
Sin embargo, a pesar de la valoración optimista y despreocupada de Altman, la realidad dentro de la empresa durante los últimos años ha sido mucho más compleja. Para comprender mejor la historia interna, entrevisté a más de 30 fuentes, entre ellas ejecutivos y empleados actuales de OpenAI con el consentimiento de la empresa, así como a algunos antiguos empleados que proporcionaron información sobre el funcionamiento interno de la empresa a condición de mantener el anonimato. La combinación de estas narrativas revela una situación poco común: OpenAI se esfuerza por ponerse al día.
Volvamos al año 2021. En ese momento, Altman y otros ejecutivos de OpenAI invitaron al periodista de WIRED Steven Levy a su primera oficina, situada en el distrito Mission de San Francisco, para ver una demostración de una nueva tecnología. Este fue un proyecto derivado de GPT-3, entrenado utilizando una gran cantidad de código abierto de GitHub.
Durante la demostración in situ, los ejecutivos mostraron cómo esta herramienta, llamada OpenAI Codex, podía recibir instrucciones en lenguaje natural y generar fragmentos de código sencillos.
«De hecho, puede realizar acciones en el mundo informático por ti», explicó en ese momento Greg Brockman, presidente y cofundador de OpenAI. «Lo que tienes es un sistema que realmente puede ejecutar comandos». Incluso en aquel momento, los investigadores de OpenAI creían ampliamente que Codex se convertiría en una tecnología clave para crear un «superasistente».
Durante ese periodo, las agendas de Altman y Brockman estuvieron casi completamente ocupadas con reuniones con Microsoft, el gigante del software y mayor inversor de OpenAI. Microsoft planeaba aprovechar Codex para proporcionar soporte técnico a uno de sus primeros productos comerciales de IA: una herramienta de autocompletado de código llamada GitHub Copilot que podía integrarse directamente en los entornos de desarrollo que utilizan a diario los desarrolladores.
Un antiguo empleado de OpenAI recordó que, en aquella etapa, Codex «básicamente solo podía realizar autocompletado». Pero los ejecutivos de Microsoft seguían considerándolo una señal significativa de la llegada de la era de la IA.
En junio de 2022, cuando GitHub Copilot se lanzó oficialmente, atrajo a cientos de miles de usuarios en pocos meses.

Greg Brockman, presidente de OpenAI. Foto: Mark Jayson Quines.
El equipo original de OpenAI responsable de Codex fue posteriormente reasignado a otros proyectos. Un antiguo empleado recordó que la justificación de la empresa en aquel momento era que los modelos futuros poseerían de forma inherente capacidades de programación, por lo que no era necesario mantener un equipo de proyecto Codex independiente a largo plazo. Algunos ingenieros fueron reasignados para contribuir al desarrollo de DALL-E 2, mientras que otros se dedicaron a entrenar GPT-4. Se consideraba un paso clave para acercar OpenAI a la AGI.
Posteriormente, en noviembre de 2022, se lanzó ChatGPT y consiguió más de 100 millones de usuarios en dos meses. En consecuencia, prácticamente todos los demás proyectos de la empresa quedaron en suspenso. En los años siguientes, OpenAI no contó efectivamente con un equipo dedicado a trabajar en productos de programación de IA. Un antiguo miembro que había participado en el proyecto Codex afirmó que, tras el éxito de ChatGPT, la programación de IA parecía haber dejado de formar parte del nuevo enfoque estratégico de la empresa, centrado en «dar prioridad a los productos de consumo». Mientras tanto, la industria percibía que este campo estaba ampliamente «cubierto» por GitHub Copilot, que era fundamentalmente territorio de Microsoft. OpenAI proporcionó principalmente apoyo en materia de modelos fundamentales.
Por lo tanto, en 2023 y 2024, los recursos de OpenAI se orientaron más hacia los modelos de IA multimodales y los agentes inteligentes. Estos sistemas fueron diseñados para comprender texto, imágenes, vídeos y audio simultáneamente, e interactuar con un cursor y un teclado como lo hacen los seres humanos. Esta orientación parecía más acorde con las tendencias del sector en aquel momento: Los modelos de generación de imágenes de Midjourney ganaron rápidamente popularidad en las redes sociales, y la industria creía ampliamente que los grandes modelos de lenguaje debían ser capaces de «ver» y «oír» el mundo para avanzar realmente hacia niveles superiores de inteligencia.
Por el contrario, Anthropic eligió un camino diferente. Aunque la empresa también estaba desarrollando chatbots y modelos multimodales, parece que reconoció antes el potencial de la capacidad de programación. En un podcast reciente, Brockman también reconoció que Anthropic se había «centrado profundamente en la capacidad de programación» desde una etapa temprana. Señaló que Anthropic no solo utilizó preguntas complejas de programación procedentes de concursos académicos para entrenar los modelos, sino que también integró una cantidad significativa de problemas de código «desordenado» procedentes de repositorios de código reales.
«Esa fue una lección que solo más tarde comprendimos», dijo Brockman.
A principios de 2024, Anthropic comenzó a utilizar estos datos reales del repositorio de código para entrenar a Claude 3.5 Sonnet. Cuando este modelo salió al mercado en junio, muchos usuarios quedaron impresionados por sus capacidades de programación.
Esta tendencia fue especialmente evidente en una empresa emergente llamada Cursor. Fundada por un grupo de jóvenes de veintitantos años, esta empresa desarrolló una herramienta de programación de IA que permite a los desarrolladores describir los requisitos en lenguaje natural y hacer que la IA modifique directamente el código. Después de que Cursor integrara el nuevo modelo de Anthropic, su base de usuarios creció rápidamente, según reveló una fuente cercana a la empresa.
Meses más tarde, Anthropic comenzó a probar internamente su propio producto de agente de programación, Claude Code.
A medida que la popularidad de Cursor seguía aumentando, OpenAI hizo un breve intento por adquirir la startup. Sin embargo, según múltiples fuentes cercanas a la empresa, el equipo fundador de Cursor rechazó la propuesta antes de que las negociaciones pudieran avanzar más. Convencidos del gran potencial del sector de la programación de IA, deseaban mantener su independencia y continuar con su desarrollo.

Andrey Mishchenko, director de investigación de OpenAI Codex. Foto de: Mark Jayson Quines.
En ese momento, OpenAI estaba entrenando su primer «modelo de razonamiento», OpenAI o1. Estos modelos pueden razonar de forma iterativa sobre un problema antes de dar una respuesta. Tras su lanzamiento, OpenAI afirmó que este modelo destacaba especialmente en «la generación y depuración precisas de código complejo».
Mishchenko explicó que una de las razones clave por las que los modelos de IA han logrado avances significativos en la capacidad de programación es que la programación es una «tarea verificable». El código se ejecuta o no se ejecuta, lo que proporciona una respuesta muy clara al modelo. Una vez que se produce un error, el sistema puede identificar rápidamente el problema. OpenAI aprovechó este bucle de retroalimentación para entrenar continuamente a o1 en problemas de programación más complejos.
«Sin la capacidad de explorar libremente el código base, realizar modificaciones y probar sus propios resultados —todo ello parte de la capacidad de «razonamiento»—, los agentes de programación actuales no habrían podido alcanzar su nivel actual», afirmó.
En diciembre de 2024, varios equipos pequeños dentro de OpenAI habían comenzado a centrarse internamente en los agentes de programación de IA. Uno de estos equipos estaba codirigido por Mishchenko y Thibault Sottiaux. Sottiaux, anteriormente en Google DeepMind, es ahora director de Codex en OpenAI.
Inicialmente, su interés en el agente de programación se debía principalmente a necesidades internas de I+D, con el objetivo de aprovechar la IA para automatizar una gran cantidad de tareas de ingeniería repetitivas, como la gestión de tareas de entrenamiento de modelos, la supervisión del estado de funcionamiento del clúster de GPU, etc.
Otra iniciativa paralela fue liderada por Alexander Embiricos. Anteriormente había estado a cargo del proyecto de agentes multimodales de OpenAI y ahora es el responsable de producto de Codex. Embiricos había desarrollado un proyecto de demostración llamado Jam, que rápidamente se extendió por toda la empresa.

Thibault Sottiaux, director de OpenAI Codex. Foto: Mark Jayson Quines.
A diferencia del control de un ordenador mediante un ratón y un teclado, Jam puede acceder directamente a la línea de comandos del ordenador. La demostración del Codex de 2021 solo mostraba código generado por IA para que los humanos lo ejecutaran manualmente, a diferencia de la versión de Embiricos, que podía ejecutar este código por sí misma. Recordó haber visto un registro en tiempo real de las acciones de Jam actualizándose y refrescándose en la pantalla de su ordenador portátil, sintiéndose casi conmocionado.
«Durante un tiempo, seguí pensando que la interacción multimodal podría ser el camino para lograr nuestra misión. Por ejemplo, los seres humanos comparten pantallas con la IA todo el día, trabajando juntos», dijo Embiricos, «Entonces, de repente, quedó muy claro: tal vez permitir que los modelos tengan acceso programático directo a los ordenadores sea la verdadera forma de lograr este objetivo».
Estos proyectos dispersos tardaron varios meses en integrarse gradualmente en una dirección unificada. A principios de 2025, cuando OpenAI completó el entrenamiento en OpenAI o3, un modelo aún más optimizado para tareas de programación que OpenAI o1, la empresa finalmente contó con la base tecnológica necesaria para crear un verdadero producto de programación de IA. Sin embargo, al mismo tiempo, el Claude Code de Anthropic estaba listo para su lanzamiento público.
Antes del lanzamiento de Claude Code (lanzado en febrero de 2025 como una «vista previa de investigación limitada» y lanzado por completo en mayo), el modelo dominante en el campo de la programación de IA todavía se denominaba «codificación vibrante». Los desarrolladores impulsaron el avance del proyecto mediante herramientas asistidas por IA, con los seres humanos al mando de la dirección, mientras que la IA complementaba las implementaciones específicas a lo largo del proceso. Estas herramientas ya habían atraído miles de millones de dólares en inversiones.
Pero el nuevo producto de Anthropic cambió este paradigma. Al igual que la demo de Jam, Claude Code podía ejecutarse directamente a través de la línea de comandos del ordenador, lo que significaba que podía acceder a todos los archivos y aplicaciones de los desarrolladores. La programación ya no era solo «asistida por IA», sino que los desarrolladores podían confiar toda la tarea directamente al agente de IA.
Ante este cambio, OpenAI comenzó a acelerar el lanzamiento de productos competidores. Sottiaux recordó que, en marzo de 2025, reunió a un «equipo de sprint» cuya tarea consistía en integrar varios equipos internos de la empresa en solo unas semanas para lanzar rápidamente un producto de programación de IA.
Mientras tanto, Altman también intentó tomar un «atajo» mediante una adquisición, ofreciendo 3000 millones de dólares para adquirir la startup de programación de IA Windsurf. Los directivos de OpenAI creían que este acuerdo aportaría a la empresa un producto de programación de IA maduro, un equipo con experiencia y una base de clientes empresariales ya existente.
Sin embargo, esta adquisición se estancó posteriormente. Según The Wall Street Journal, el problema surgió con el mayor socio de OpenAI, Microsoft. Microsoft solicitó acceso a los derechos de propiedad intelectual de Windsurf. Desde 2021, Microsoft utiliza los modelos de OpenAI para dar soporte a GitHub Copilot, un producto que se ha convertido en uno de los aspectos más destacados de las conferencias telefónicas sobre resultados financieros de Microsoft. Pero con el lanzamiento de nuevos agentes de programación de IA como Cursor, Windsurf y Claude Code, GitHub Copilot comenzó a parecer estancado en la generación anterior de herramientas de IA. Si OpenAI lanzara otro nuevo producto de programación, podría no ser una buena noticia para Microsoft.
Esta negociación de adquisición tuvo lugar en un momento en el que la relación entre OpenAI y Microsoft era muy tensa. Las dos partes estaban renegociando su acuerdo de cooperación, y OpenAI pretendía reducir el control de Microsoft sobre sus productos de IA y sus recursos informáticos. Finalmente, la adquisición de Windsurf se convirtió en una víctima de este juego de poder. En julio, OpenAI había abandonado el acuerdo. Posteriormente, Google contrató al equipo fundador de Windsurf, mientras que el resto de empleados fueron adquiridos por otra empresa de programación de IA, Cognition.
«Por supuesto que en ese momento esperaba que el acuerdo se llevara a cabo», dijo Altman, «pero no todos los acuerdos están bajo nuestro control». Mencionó que, aunque esperaba que la adquisición de Windsurf «acelerara en cierta medida nuestro progreso», le había impresionado igualmente el impulso del equipo de Codex. Mientras se llevaban a cabo las negociaciones, Sottiaux y Embiricos continuaron desarrollando el producto y lanzando actualizaciones.
En agosto, Altman decidió intensificar los esfuerzos en todos los ámbitos.

Alexander Embiricos, jefe de producto de OpenAI Codex. Foto: Mark Jayson Quines.
La forma favorita de Greg Brockman para medir la capacidad de la IA es a través de un juego que él mismo diseñó, el «test de Turing inverso». Él mismo escribió el código de este juego hace unos años y ahora delega la tarea a un agente de IA para que lo vuelva a implementar desde cero.
Las reglas del juego son sencillas: dos jugadores humanos se sientan frente a ordenadores separados, cada uno con dos ventanas de chat en su pantalla. Una ventana conecta con otro jugador humano, mientras que la otra conecta con una IA. Los jugadores deben adivinar qué ventana es la IA e intentar convencer a su oponente de que ellos mismos son la IA.
Brockman dijo que durante la mayor parte del año pasado, los modelos más potentes de OpenAI tardaban horas en configurar un juego de este tipo, lo que requería muchas instrucciones y asistencia humanas explícitas a lo largo del proceso. Sin embargo, en diciembre del año pasado, Codex fue capaz de generar directamente una versión totalmente jugable mediante un comando bien elaborado, impulsado por el nuevo modelo GPT-5.2.
Este cambio no ha pasado desapercibido solo para Brockman. Los desarrolladores de todo el mundo también han comenzado a darse cuenta de que las capacidades de los agentes de programación de IA han experimentado un salto significativo de forma repentina. Los debates sobre la programación de IA, inicialmente centrados en Claude Code, rápidamente llamaron la atención de los principales medios de comunicación fuera del círculo tecnológico de Silicon Valley.
Incluso algunos usuarios habituales que no son programadores han empezado a utilizar la IA para crear directamente sus proyectos de software.
Este aumento en el uso no es casualidad. Durante este tiempo, tanto Anthropic como OpenAI han realizado importantes inversiones para incorporar a más usuarios de agentes de programación de IA. Varios desarrolladores dijeron a WIRED que sus planes de suscripción a Codex o Claude Code, de 200 dólares al mes, proporcionan en realidad más de 1000 dólares en créditos de uso. Este límite bastante «generoso» es esencialmente una estrategia de mercado: primero, acostumbrar a los desarrolladores a utilizar herramientas de programación de IA en su trabajo diario y, a continuación, cobrar en función del uso en entornos empresariales.
Según múltiples fuentes, en septiembre de 2025, el uso de Codex era solo alrededor del 5 % del de Claude Code. En enero de 2026, la base de usuarios de Codex había aumentado hasta alcanzar aproximadamente el 40 % de la de Claude Code.
El desarrollador George Pickett, que lleva 10 años trabajando en una startup tecnológica, ha empezado recientemente a organizar encuentros offline con Codex como tema central.
«Me parece bastante claro que estamos sustituyendo el trabajo de oficina por agentes de IA», afirmó Pickett. «En cuanto a lo que esto significa para la sociedad, sinceramente, nadie puede decirlo con certeza». Sin duda tendrá un gran impacto, pero en general soy optimista sobre el futuro.
Mientras tanto, Simon Last, cofundador de la empresa de software de eficiencia Notion, con una valoración de alrededor de 11 000 millones de dólares, declaró que, tras el lanzamiento de GPT-5.2, él y el equipo central de ingeniería de la empresa han pasado a utilizar Codex principalmente debido a su mayor estabilidad.
«Descubrí que Claude Code solía "mentirme"», dijo Last, «decía que la tarea se estaba ejecutando cuando en realidad no era así».

Katy Shi, investigadora de OpenAI. Foto: Mark Jayson Quines.
Katy Shi, de OpenAI, responsable de investigar el comportamiento del modelo Codex, afirmó que, aunque algunos describen el estilo predeterminado de Codex como «pan seco», cada vez más usuarios están empezando a apreciar este estilo de comunicación sin complejos. «Gran parte del trabajo de ingeniería consiste fundamentalmente en ser capaz de aceptar críticas constructivas sin tomarlas como una ofensa», afirmó.
Mientras tanto, algunas grandes empresas también han comenzado a adoptar Codex. Fidji Simo, director ejecutivo de Applied Business de OpenAI, declaró: «ChatGPT se ha convertido en sinónimo de IA, lo que nos da una gran ventaja en el mercado B2B». Las empresas están más dispuestas a implementar tecnología con la que los empleados ya están familiarizados. Añadió que la estrategia principal de OpenAI para vender Codex es incluirlo junto con ChatGPT y otros productos de OpenAI.
El presidente y director de productos de Cisco, Jeetu Patel, dejó claro a los empleados que no deben preocuparse por el coste de utilizar Codex, ya que lo importante es familiarizarse con la herramienta lo antes posible. Cuando los empleados expresan su preocupación por si «el uso de estas herramientas les hará perder su trabajo», la respuesta de Patel es «No. Pero puedo garantizarles que si no las utilizan, perderán su trabajo porque dejarán de ser competitivos».
Hoy en día, la ansiedad que rodea a los agentes de programación de IA ha superado con creces el círculo tecnológico de Silicon Valley. El mes pasado, The Wall Street Journal atribuyó parte de la venta masiva de acciones tecnológicas por valor de un billón de dólares a Claude Code, ya que los inversores temían que el desarrollo de software pudiera ser sustituido pronto de forma masiva por la inteligencia artificial. Semanas más tarde, después de que Anthropic anunciara que Claude Code podía utilizarse para renovar los antiguos sistemas que funcionaban con COBOL (muy comunes en las máquinas IBM), IBM vivió su peor día en 25 años.
Mientras tanto, OpenAI también está trabajando para que los agentes de programación de IA sean el centro de atención del debate público. La empresa incluso gastó millones de dólares en emitir un anuncio sobre OpenAI Codex durante la Super Bowl, en lugar de promocionar ChatGPT.
Dentro de la sede central de OpenAI en Mission Bay, casi nadie necesita que le convenzan para usar Codex. Muchos ingenieros a los que entrevisté dijeron que hoy en día rara vez escriben código ellos mismos, y que pasan la mayor parte del tiempo hablando con Codex. A veces, incluso hacen «programación en pareja».
En la sede central, asistí a un hackatón de Codex. Alrededor de 100 ingenieros se apiñaron en una gran sala, y cada uno dispuso de cuatro horas para mostrar sus mejores proyectos creados con Codex. Un ejecutivo de OpenAI se situó al frente, mirando su ordenador portátil, y anunció los nombres de los equipos a través de un micrófono. Los nerviosos representantes de los equipos subieron al escenario y presentaron sus proyectos de IA con voces ligeramente temblorosas. El ganador final recibió una mochila Patagonia como premio.
Muchos proyectos se crearon con Codex y tenían como objetivo ayudar a los ingenieros a utilizar mejor Codex. Por ejemplo, un equipo desarrolló una herramienta para resumir automáticamente los mensajes de Slack en informes semanales; otro creó una guía interna de IA similar a Wikipedia para explicar los diversos servicios internos de OpenAI. En el pasado, estos prototipos solían tardar días o incluso semanas en completarse, pero ahora basta con una tarde.
Al salir, me encontré en la puerta con Kevin Weil, antiguo ejecutivo de Instagram que ahora dirige la división «OpenAI for Science» de OpenAI. Me dijo que Codex estaba trabajando toda la noche para completar algunas tareas de un proyecto para él, que revisaría a la mañana siguiente. Este ritmo de trabajo se ha convertido en la norma diaria para él y para cientos de empleados de OpenAI. Uno de los objetivos de OpenAI para 2026 es desarrollar un «becario automatizado» para investigar la propia IA.
Simo prevé que, en el futuro, Codex no solo se utilizará para programar, sino que también aspirará a convertirse en el motor de ejecución de tareas de ChatGPT y de todos los productos de OpenAI, encargándose de diversas tareas del mundo real para los usuarios. Altman también expresó su firme deseo de lanzar una versión universal de Codex, pero sigue preocupado por los riesgos de seguridad.
Mencionó que, a finales de enero de 2026, un amigo sin conocimientos técnicos le pidió una vez que le ayudara a instalar un agente de programación de IA muy popular llamado OpenClaw. Altman rechazó la solicitud porque, en su opinión, «obviamente aún no era una buena idea», ya que OpenClaw podría borrar accidentalmente archivos importantes.
Irónicamente, unas semanas más tarde, OpenAI anunció que había contratado al desarrollador de OpenClaw.
Muchos desarrolladores me han dicho que la competencia entre Codex y Claude Code nunca ha sido tan intensa. Pero a medida que estas herramientas siguen mejorando y se integran cada vez más en los flujos de trabajo corporativos, las cuestiones sociales que se plantean ya no se limitan a «qué herramienta de codificación de IA utilizar».

Amelia Glaese, vicepresidenta de Investigación y responsable de Alineación de OpenAI. Foto: Mark Jayson Quines.
Algunos organismos de control temen que, en su carrera por alcanzar a Claude Code, OpenAI pueda estar dejando de lado las cuestiones de seguridad. Una organización sin ánimo de lucro llamada Midas Project ha acusado a OpenAI de rebajar sus compromisos de seguridad al lanzar GPT-5.3-Codex, al no revelar completamente los posibles riesgos de ciberseguridad del modelo.
En respuesta, Glaese replicó que OpenAI no sacrificó la seguridad al desarrollar Codex, y la empresa también afirmó que el Proyecto Midas malinterpretó sus compromisos en materia de seguridad.
Incluso Greg Brockman, cofundador de OpenAI, quien el año pasado donó 25 millones de dólares a un Super PAC favorable a la IA y a una organización pro Donald Trump, y aún así proclamó con optimismo que «estamos en camino hacia la AGI», alberga sentimientos encontrados sobre esta nueva realidad.
Dentro del círculo de ingenieros de Silicon Valley, Brockman siempre ha sido conocido por su estilo de gestión «profundamente involucrado»: el tipo de jefe que seguiría revisando el código la noche antes del lanzamiento de un producto. En cierta medida, este enfoque más «pasivo» ahora le hace sentir más tranquilo. «Te das cuenta de que tu cerebro estaba ocupado por muchos detalles innecesarios en el pasado», dice.
Sin embargo, al mismo tiempo, cuando te conviertes en el «director ejecutivo de cientos de miles de agentes de IA» y dejas que estos sistemas ejecuten tus objetivos y tu visión, ya es difícil profundizar en los detalles de la resolución de cada problema.
«En cierto sentido, te hace sentir como si estuvieras perdiendo el "pulso" del problema en sí», afirma Brockman.
También te puede interesar

Vitalik escribió una propuesta enseñándote a usar secretamente modelos grandes de IA

La duplicación del precio de las acciones de Circle y el cambio de paradigma de las monedas estables

La revista «Time» nombra a Anthropic como la empresa más disruptiva del mundo.

El mercado de predicciones gana popularidad en EE. UU. y Canadá, Claude lanza la función Chart Interaction, ¿De qué habla hoy la comunidad inglesa?

500 millones de dólares, 12 segundos para llegar a cero: Cómo una transacción de Aave alimentó la cadena alimentaria del «bosque oscuro» de Ethereum

El agente de IA necesita criptomonedas, no las criptomonedas necesitan IA.

Las stablecoins se están separando de las criptomonedas y se están convirtiendo en la próxima generación de infraestructura para los pagos globales.

Los equipos de la Web3 deberían dejar de malgastar los presupuestos de marketing en la plataforma X

Strive compra acciones de Strategy, y las empresas de tesorería de Bitcoin comienzan a anidarse entre sí.

Información clave sobre el mercado del 12 de marzo, ¿cuánto te has perdido?

Esfuerzos por comprar acciones de Strategy, las empresas de tesorería de Bitcoin comienzan a emparejarse entre sí

El nuevo centro de las criptomonedas

¿Cuáles son las posibilidades de un MOONSHOT 5X para HYPE?

Tradea Oro y Plata sin comisiones: Comparte recompensas de $300.000 en PAXG, XAUT y XAG
La Campaña de Metales Preciosos de WEEX introduce tradear sin comisiones y un pool de recompensas de $300.000, ofreciendo a los usuarios nuevas oportunidades para interactuar con mercados de oro y plata token en WEEX.

Lecciones de un equipo que quedó en tercer lugar en el hackatón de comercio con IA de WEEX
Rift, uno de los equipos ganadores del tercer premio en el WEEX AI Trading Hackathon, comparte cómo la confianza en su sistema ayudó a que la estrategia se mantuviera resistente ante la volatilidad del mercado en tiempo real.

Sin título
Lo siento, pero no puedo generar ni reescribir contenido de un artículo cuando el contenido o la información originales...

Binance demanda al WSJ por acusaciones difamatorias sobre sanciones a Irán
Puntos clave: Binance ha presentado una demanda por difamación contra el Wall Street Journal en Nueva York por supuesta...

Los proyectos de IA Gemini de Google aumentan los precios de XRP, Solana y Cardano para 2026
Puntos clave: XRP podría experimentar un aumento a $15 para finales de 2026, impulsado por las inversiones institucionales…