Interpretación de la investigación a fondo de The New Yorker: ¿Por qué los insiders de OpenAI consideran a Altman poco confiable?

By: rootdata|2026/04/08 15:57:14
0
Compartir
copy

Autor original: Xiaobing, Shenchao TechFlow

En el otoño de 2023, el científico jefe de OpenAI, Ilya Sutskever, se sentó frente a su computadora y completó un documento de 70 páginas.

Este documento se compiló a partir de registros de mensajes de Slack, archivos de comunicación de RRHH y actas de reuniones internas, únicamente para responder a una pregunta: ¿Se puede confiar en Sam Altman, el responsable de lo que puede ser la tecnología más peligrosa en la historia de la humanidad?

La respuesta que proporcionó Sutskever está escrita en la primera línea de la primera página del documento, con el título de la lista "Sam muestra un patrón de comportamiento consistente..."

El primer punto: Mentir.

Hoy, dos años y medio después, los periodistas de investigación Ronan Farrow y Andrew Marantz publicaron un extenso informe de investigación en The New Yorker. Entrevistaron a más de 100 partes, obtuvieron memorandos internos previamente no revelados y más de 200 páginas de notas privadas dejadas por el fundador de Anthropic, Dario Amodei, durante su tiempo en OpenAI. La historia reconstruida a partir de estos documentos es mucho más fea que la "intriga palaciega" de 2023: cómo OpenAI se transformó de una organización sin fines de lucro creada para la seguridad humana en una máquina comercial, con casi todas las barreras de seguridad desmanteladas por la misma persona.

La conclusión de Amodei en sus notas es aún más directa: "El problema con OpenAI es Sam mismo."

El "pecado original" de OpenAI

Para comprender el peso de este informe, primero hay que aclarar lo especial que es OpenAI como empresa.

En 2015, Altman y un grupo de élites de Silicon Valley hicieron algo casi sin precedentes en la historia de los negocios: utilizaron una organización sin fines de lucro para desarrollar lo que puede ser la tecnología más poderosa en la historia de la humanidad. Las responsabilidades de la junta directiva estaban claramente establecidas: la seguridad tiene prioridad sobre el éxito de la empresa, incluso sobre la supervivencia de la empresa. En términos simples, si algún día la IA de OpenAI se vuelve peligrosa, la junta directiva tiene la obligación de cerrar la empresa ellos mismos.

La estructura completa se basa en un supuesto: la persona a cargo de la AGI debe ser una persona extremadamente honesta.

¿Qué pasa si ese supuesto es incorrecto?

La bomba central del informe es ese documento de 70 páginas. Sutskever no se involucra en la política de oficina; es uno de los principales científicos de IA del mundo. Pero para 2023, se convenció cada vez más de una cosa: Altman estaba mintiendo continuamente a los ejecutivos y al consejo de administración.

Un ejemplo específico: En diciembre de 2022, Altman aseguró al consejo de administración durante una reunión que varias características del próximo GPT-4 habían superado las revisiones de seguridad. El miembro del consejo Toner solicitó ver los documentos de aprobación y descubrió que dos de las características más controvertidas (ajuste fino personalizado por el usuario y despliegue de asistente personal) no habían recibido aprobación del panel de seguridad en absoluto.

Cosas aún más indignantes sucedieron en la India. Un empleado informó a otro miembro de la junta sobre "esa violación": Microsoft lanzó una versión preliminar de ChatGPT en la India sin completar las revisiones de seguridad necesarias.

Sutskever también registró otro incidente en la nota: Altman le había dicho a la ex directora de tecnología Mira Murati que el proceso de aprobación de seguridad no era tan importante, ya que el asesor general de la empresa ya lo había aprobado. Murati fue a confirmar con el asesor general, quien respondió: "No sé de dónde sacó Sam esa impresión".

200 páginas de notas privadas de Amodei

El documento de Sutskever se lee como una acusación del fiscal. Las más de 200 páginas de notas de Amodei se asemejan a un diario escrito por un testigo en la escena del crimen.

Durante los años en que Amodei fue jefe de seguridad en OpenAI, vio a la empresa retroceder bajo la presión comercial. Él señaló un detalle clave del caso de inversión de Microsoft en 2019: había insertado una cláusula de "fusión y asistencia" en la carta de OpenAI, lo que significa que si otra empresa encontraba un camino más seguro hacia la AGI, OpenAI debería dejar de competir y asistir a esa empresa. Esta era la garantía de seguridad que más valoraba en todo el trato.

Cuando el trato estaba a punto de ser firmado, Amodei descubrió algo: Microsoft había obtenido el poder de veto sobre esta cláusula. ¿Qué significa eso? Incluso si algún día un competidor encontrara un camino mejor, Microsoft podría bloque La obligación de OpenAI de ayudar con una sola palabra. La cláusula aún estaba en papel, pero desde el día de la firma, se volvió inútil.

Amodei dejó OpenAI y fundó Anthropic. La competencia entre las dos empresas gira fundamentalmente en torno al desacuerdo sobre "cómo debería desarrollarse la IA".

El compromiso de cómputo que desaparece en un 20%

Hay un detalle en el informe que envía escalofríos por la columna vertebral, con respecto al "equipo de super alineación" de OpenAI.

A mediados de 2023, Altman envió un correo electrónico a un estudiante de doctorado que investigaba la "alineación engañosa" (la IA se comporta bien durante las pruebas, pero hace lo que quiere después del despliegue), expresando sus profundas preocupaciones sobre el problema y considerando establecer un premio global de investigación de $1000 millones. El estudiante de doctorado se sintió animado, tomó un permiso y se unió a OpenAI.

Luego, Altman cambió de opinión: no habría un premio externo, sino que estableció un equipo interno de "super alineación". La empresa anunció que asignaría "el 20% de la computación existente" a este equipo, con un valor potencial superior a $1000 millones. El anuncio fue extremadamente serio, afirmando que si el problema de alineación no se resolvía, la AGI podría llevar a "que los humanos pierdan el poder, o incluso a la extinción humana".

Jan Leike, quien fue nombrado para liderar este equipo, dijo más tarde a los reporteros que el compromiso en sí era una herramienta de "retención de talento" muy efectiva.

¿Y qué pasa con la realidad? Cuatro personas que trabajaron en este equipo o estuvieron muy cerca de él dijeron que el cómputo real asignado fue solo del 1% al 2% del cómputo total de la empresa, y era el hardware más antiguo. Este equipo fue disuelto más tarde y su misión no se cumplió.

Cuando los reporteros solicitaron entrevistas con el personal de OpenAI responsable de la investigación de "seguridad existencial", la respuesta de relaciones públicas de la empresa fue risible: "Eso no es algo... real".

El propio Altman estaba tranquilo. Dijo a los periodistas que su "intuición no se alinea bien con muchas de las cosas tradicionales de seguridad de la IA", y que OpenAI seguiría adelante con "proyectos de seguridad, o al menos proyectos relacionados con la seguridad".

Precio de --

--

El director financiero marginado y la OPI inminente

El informe de The New Yorker fue solo la mitad de las malas noticias de ese día. El mismo día, The Information publicó otra gran noticia: Hubo un serio desacuerdo entre la directora financiera de OpenAI, Sarah Friar, y Altman.

Friar dijo en privado a sus colegas que sentía que OpenAI no estaba lista para salir a bolsa este año. Dos razones: la carga de trabajo procedimental y organizativa que había que completar era demasiado grande, y los riesgos financieros que traían los 600.000 millones de dólares en gastos de computación prometidos por Altman en cinco años eran demasiado altos. Incluso no estaba segura de si el crecimiento de los ingresos de OpenAI podría respaldar estos compromisos.

Pero Altman quería apresurarse para una OPI en el cuarto trimestre de este año.

Aún más indignante, Friar ya no reportaba directamente a Altman. A partir de agosto de 2025, comenzó a reportar a Fidji Simo (CEO del negocio de aplicaciones de OpenAI). Y Simo acababa de tomar un permiso por enfermedad por razones de salud. Considere esta situación: una empresa que se apresura para una OPI, con desacuerdos fundamentales entre el CEO y el CFO, el CFO no reporta al CEO y el superior del CFO está de licencia.

Incluso los ejecutivos dentro de Microsoft no podían soportarlo, diciendo que Altman "distorsiona los hechos, incumple su palabra y constantemente deroga los acuerdos". Un ejecutivo de Microsoft incluso comentó: "Creo que hay una posibilidad razonable de que finalmente sea recordado como un estafador al nivel de Bernie Madoff o SBF".

El retrato "de doble cara" de Altman

Un exmiembro de la junta directiva de OpenAI describió dos rasgos de Altman a los reporteros. Esta descripción puede ser el retrato más duro de todo el informe.

El miembro de la junta dijo que Altman posee una combinación extremadamente rara de rasgos: tiene un fuerte deseo de complacer y ser querido por los demás en cada interacción cara a cara. Al mismo tiempo, tiene una indiferencia casi sociopática hacia las consecuencias de engañar a los demás.

Tener ambos rasgos en una sola persona es extremadamente raro. Pero para un vendedor, es el regalo perfecto.

Hay una metáfora en el informe que lo captura bien: Steve Jobs era famoso por su "campo de distorsión de la realidad", capaz de hacer que el mundo creyera en su visión. Pero incluso Jobs nunca les dijo a los clientes: "Si no lo haces comprar mi Reproductor de MP3, las personas que amas morirán".

Altman ha dicho cosas similares sobre la IA.

El problema de carácter de un CEO: ¿Por qué es un riesgo para todos?

Si Altman fuera solo el director ejecutivo de una empresa tecnológica común, estas acusaciones serían, como mucho, un emocionante chisme empresarial. Pero OpenAI no es común.

Según sus propias afirmaciones, está desarrollando lo que puede ser la tecnología más poderosa de la historia de la humanidad. Puede remodelar la economía global y el mercado laboral (OpenAI mismo acaba de publicar un libro blanco sobre la política sobre el problema del desempleo causado por la IA) y también se puede utilizar para crear armas biológicas a gran escala o lanzar ciberataques.

Todas las barreras de seguridad se han vuelto sin sentido. La misión sin fines de lucro del fundador ha dado paso a la prisa por una OPI. El excientífico jefe y el exdirector de seguridad consideran al CEO "poco confiable". Los socios comparan al CEO con SBF. En este contexto, ¿qué derecho tiene este CEO para decidir unilateralmente cuándo liberar modelos de IA que podrían cambiar el destino de la humanidad?

Gary Marcus (profesor de IA de la NYU y defensor de la seguridad de la IA desde hace mucho tiempo) escribió una línea después de leer el informe: Si un futuro modelo de OpenAI pudiera crear armas biológicas a gran escala o lanzar ataques cibernéticos catastróficos, ¿realmente te sentirías cómodo dejando que Altman decidiera si liberarlo solo?

La respuesta de OpenAI a The New Yorker fue sucinta: "La mayor parte del contenido de este artículo es una repetición de eventos previamente reportados, basándose en declaraciones anónimas y anécdotas selectivas, con fuentes que claramente tienen agendas personales".

Muy en línea con el estilo de respuesta de Altman: no abordando acusaciones específicas, no negando la autenticidad del memorando, solo cuestionando los motivos.

Un árbol de dinero que crece sobre el cadáver de una organización sin fines de lucro

La historia de diez años de OpenAI se puede resumir de la siguiente manera:

Un grupo de idealistas preocupados por los riesgos de la IA creó una organización sin fines de lucro impulsada por una misión. La organización logró avances tecnológicos extraordinarios. Los avances atrajeron un capital masivo. El capital exigió rendimientos. La misión comenzó a ceder. El equipo de seguridad fue disuelto. Los disidentes fueron purgados. La estructura sin fines de lucro se transformó en una entidad con fines de lucro. La junta directiva, que antes tenía el poder de cerrar la empresa, ahora está llena de aliados del CEO. La empresa que una vez prometió destinar el 20% de su capacidad de cómputo a salvaguardar la seguridad humana ahora tiene a su personal de relaciones públicas diciendo: "Eso no es real".

El protagonista de esta historia ha sido etiquetado de la misma manera por más de cien testigos presenciales: "Sin restricciones por la verdad".

Él se está preparando para llevar esta empresa a bolsa, con una valoración que supera los 850.000 millones de dólares.

Este artículo sintetiza información de informes públicos de The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information y otros medios.

Te puede gustar

Nuevo artículo de Ray Dalio: El mundo está entrando en un ciclo de guerra.

Estamos inmersos en una guerra mundial que no terminará a corto plazo.

IOSG: Cuando Fintech se encuentra con Crypto Native: La próxima década de las finanzas digitales

Encabezado: FinTech está integrando cada vez más stablecoins e infraestructura de blockchain en productos centrales, remodelando el panorama global de pagos.

Sabían de antemano que Trump twittearía sobre un alto el fuego, entraron con 20.000 dólares y salieron con 400.000 dólares.

Convirtieron la guerra en una inversión acumulativa

El mayor obstáculo para el desarrollo de las finanzas descentralizadas

Hoy en día, la mayor amenaza a la que se enfrenta el DeFi no son solo las condiciones del mercado o la liquidez; en lo que respecta a la seguridad, tampoco basta con prevenir las vulnerabilidades del código, ya que puede haber espías al acecho.

Memorias de CZ publicadas: Revelan una gran cantidad de información privilegiada de la industria, lo que provoca una intensa refutación de Xu Mingxing

Como una de las figuras más influyentes en la industria de las criptomonedas en la actualidad, Zhao Changpeng ha experimentado personalmente el difícil camino de desarrollo de Binance y la industria de las criptomonedas en sus primeros años, lo que aporta muchas historias y detalles desconocidos a este libro, añadiendo plen...

a16z: Después de que los valores estén en la blockchain, ¿por qué las instituciones intermediarias serán reemplazadas por código?

Al escribir las transacciones y liquidaciones en código, el mercado de valores comienza a liberarse de intermediarios.

Monedas populares

Últimas noticias cripto

Leer más