Warum versucht OpenAI stattdessen, Claude Code einzuholen?
Originaltitel des Artikels: Einblick in OpenAI's Wettlauf, um Claude Code einzuholen
Autor des Originalartikels: Maxwell Zeff, Wired
Übersetzung: Peggy, BlockBeats
Anmerkung der Redaktion: In der sich rasant entwickelnden Landschaft der KI-Programmieragenten ist OpenAI, das einst mit ChatGPT die Welle der generativen KI anführte, in diesem wichtigen Wettlauf unerwartet zum „Verfolger” geworden. Im krassen Gegensatz dazu hat Anthropic, gegründet von ehemaligen OpenAI-Mitgliedern, mit Claude Code schnell an Popularität in der Entwickler-Community und auf dem Unternehmensmarkt gewonnen und sich zu einem der wichtigsten Marktführer im Bereich der KI-Programmierwerkzeuge entwickelt.
Dieser Artikel enthüllt anhand von Interviews mit Führungskräften, Ingenieuren und mehreren Entwicklern von OpenAI den wahren Ablauf hinter diesem Wettbewerb: Von den Anfängen, als das OpenAI-Codex-Projekt aufgeteilt wurde, über die Verlagerung von Ressourcen auf ChatGPT und multimodale Modelle bis hin zur internen Teamintegration und der beschleunigten Einführung von KI-Programmierprodukten durchläuft OpenAI derzeit einen Wandel von strategischer Aufsicht zu umfassender Aufholjagd. In gewisser Weise handelt es sich hierbei nicht um einen Rückstand in Bezug auf die technischen Fähigkeiten, sondern um eine Fehlausrichtung des strategischen Tempos: Der Durchbruch von ChatGPT verschob die Prioritäten des Unternehmens, die Partnerschaft mit Microsoft schränkte die Produkt-Roadmap ein, während Anthropic zuvor auf den Bereich der KI-Programmierung gesetzt hatte.
Über diesen Wettbewerb hinaus treten allmählich tiefgreifendere Probleme zutage: Da KI-Agenten zunehmend kognitive Aufgaben übernehmen, könnten Softwareentwicklungsprozesse und sogar die Arbeit von Angestellten neu definiert werden.
Der folgende Text ist der Originalartikel:
Sam Altman, CEO von OpenAI, legt seine Beine auf den Bürostuhl, neigt den Kopf nach hinten, um zur Decke zu schauen, als würde er über eine noch nicht formulierte Antwort nachdenken. In gewisser Weise hängt dies auch mit der Umwelt zusammen.
Der neue Hauptsitz von OpenAI in Mission Bay, San Francisco, ist ein modernes Gebäude aus Glas und hellem Holz, das fast wie ein „Tech-Tempel“ wirkt. Auf dem Regal hinter der Rezeption liegen Handbücher, die die „Epochen der KI“ vorstellen, als würden sie einen Weg zur technologischen Erleuchtung beschreiben. Die Wand des Treppenhauses ist mit Postern zu Meilensteinen der Entwicklung der künstlichen Intelligenz geschmückt, von denen eines einen solchen Moment festhält: Tausende Zuschauer verfolgten live, wie eine Maschine ein Top-E-Sport-Team in einem „Dota 2”-Match besiegte. In den Fluren laufen Forscher in Hoodies mit Team-Slogans hin und her, auf einem steht: „Gute Forschung braucht Zeit.“ Natürlich sollte es idealerweise nicht zu lang sein.
Wir sitzen in einem großen Konferenzraum. Die Frage, die ich Altman stellte, bezog sich auf die derzeitige Revolution in der KI-Programmierung und darauf, warum OpenAI offenbar nicht an der Spitze dieser Entwicklung steht.
Heute haben Millionen von Softwareentwicklern begonnen, einen Teil ihrer Programmierarbeit an KI zu delegieren, wodurch viele in Silicon Valley zum ersten Mal mit einer Realität konfrontiert werden: Die Automatisierung könnte auch ihre eigenen Arbeitsplätze betreffen. Codierungsagenten sind somit zu einem der wenigen Anwendungsfälle geworden, bei denen Unternehmen bereit sind, einen Aufpreis für KI zu zahlen. Theoretisch könnte und sollte ein solcher Moment der nächste „Triumph“ auf dem OpenAI-Treppenhausplakat sein. Aber jetzt steht ihr Name nicht mehr an erster Stelle.
Das betreffende Unternehmen hat einen Konkurrenten, Anthropic, ein KI-Unternehmen, das von ehemaligen OpenAI-Mitgliedern gegründet wurde. Mit seinem Codierungsagent-Produkt Claude Code hat Anthropic ein explosives Wachstum erlebt. Das Unternehmen gab im Februar bekannt, dass das Produkt fast ein Fünftel seines Geschäfts ausmachte, was einem Jahresumsatz von über 2,5 Milliarden US-Dollar entspricht. Im Gegensatz dazu belief sich der Jahresumsatz von OpenAI Codex, dem hauseigenen Programmierprodukt von OpenAI, Ende Januar laut einer mit der Angelegenheit vertrauten Quelle auf etwas mehr als 1 Milliarde US-Dollar.
Die Frage ist: Warum hinkt OpenAI in diesem Wettlauf um die KI-Programmierung hinterher?
„Der Wert, der Erste zu sein, ist immens“, sagte Sam Altman nach einem Moment des Nachdenkens. „Wir haben dies mit ChatGPT erlebt.“
Seiner Ansicht nach ist es jedoch jetzt an der Zeit, dass OpenAI sich voll und ganz der KI-Programmierung verschreibt. Er ist der Ansicht, dass die bestehenden Modellkapazitäten des Unternehmens leistungsfähig genug sind, um hochkomplexe Codierungsagenten zu unterstützen. Natürlich sind solche Fähigkeiten kein Zufall; das Unternehmen hat zu diesem Zweck Milliarden von Dollar in die Modellschulung investiert.
„Das wird ein riesiges Geschäft“, sagte Altman. „Nicht nur wegen des wirtschaftlichen Werts, den es mit sich bringt, sondern auch wegen der allgemeinen Produktivität, die das Programmieren freisetzen kann.“ Er hielt einen Moment inne und fügte hinzu: „Ich verwende diesen Begriff selten leichtfertig, aber ich denke, dass dies wahrscheinlich einer der Märkte ist, die ein Volumen von Billionen Dollar erreichen werden.“
Darüber hinaus glaubt er, dass OpenAI Codex der „wahrscheinlichste Weg“ zur Erreichung einer künstlichen allgemeinen Intelligenz (AGI) sein könnte. Nach der Definition von OpenAI ist AGI ein KI-System, das die menschliche Leistungsfähigkeit bei den meisten wirtschaftlich wertvollen Tätigkeiten übertreffen kann.

Sam Altman, Geschäftsführer von OpenAI. Foto: Mark Jayson Quines.
Trotz Altmans zuversichtlicher Einschätzung in lockerer Art war die Realität innerhalb des Unternehmens in den letzten Jahren jedoch viel komplexer. Um einen umfassenderen Einblick in die internen Abläufe zu erhalten, habe ich über 30 Personen befragt, darunter aktuelle Führungskräfte und Mitarbeiter von OpenAI, die mit Zustimmung des Unternehmens interviewt wurden, sowie einige ehemalige Mitarbeiter, die unter der Bedingung der Anonymität Einblicke in die internen Abläufe des Unternehmens gewährt haben. Die Kombination dieser Erzählungen offenbart eine ungewöhnliche Situation: OpenAI bemüht sich, aufzuholen.
Kehren wir zurück ins Jahr 2021. Zu dieser Zeit luden Altman und andere Führungskräfte von OpenAI den WIRED-Journalisten Steven Levy in ihr erstes Büro im Mission District von San Francisco ein, um ihm eine neue Technologie vorzuführen. Dies war ein Projekt, das aus GPT-3 hervorgegangen ist und mit einer großen Menge an Open-Source-Code von GitHub trainiert wurde.
Während der Vorführung vor Ort zeigten die Führungskräfte, wie dieses Tool namens OpenAI Codex Anweisungen in natürlicher Sprache empfangen und einfache Code-Teile generieren kann.
„Es kann tatsächlich Aktionen in der Computerwelt für Sie ausführen“, erklärte Greg Brockman, Präsident und Mitbegründer von OpenAI, damals. „Was Sie haben, ist ein System, das Befehle wirklich ausführen kann.“ Schon damals waren die Forscher von OpenAI weitgehend davon überzeugt, dass Codex eine Schlüsseltechnologie für die Entwicklung eines „Superassistenten” werden würde.
Während dieser Zeit waren die Terminkalender von Altman und Brockman fast ausschließlich mit Treffen mit Microsoft gefüllt – der Software-Riese ist der größte Investor von OpenAI. Microsoft plante, Codex zu nutzen, um technischen Support für eines seiner ersten kommerziellen KI-Produkte bereitzustellen: ein Tool zur Code-Vervollständigung namens GitHub Copilot, das direkt in die täglich von Entwicklern genutzten Entwicklungsumgebungen eingebettet werden konnte.
Ein früher Mitarbeiter von OpenAI erinnerte sich, dass Codex zu diesem Zeitpunkt „im Grunde nur die automatische Vervollständigung beherrschte“. Die Führungskräfte von Microsoft sahen darin jedoch weiterhin ein wichtiges Signal für den Beginn des Zeitalters der künstlichen Intelligenz.
Im Juni 2022, als GitHub Copilot offiziell veröffentlicht wurde, zog es innerhalb weniger Monate Hunderttausende von Nutzern an.

Greg Brockman, Präsident von OpenAI. Foto: Mark Jayson Quines.
Das ursprüngliche OpenAI-Team, das für Codex verantwortlich war, wurde später anderen Projekten zugewiesen. Ein ehemaliger Mitarbeiter der ersten Stunde erinnerte sich daran, dass das Unternehmen damals argumentierte, zukünftige Modelle würden von Natur aus über Programmierfähigkeiten verfügen, sodass es langfristig nicht notwendig sei, ein unabhängiges Codex-Projektteam aufrechtzuerhalten. Einige Ingenieure wurden zur Entwicklung von DALL-E 2 abgeordnet, während andere sich der Schulung von GPT-4 widmeten. Es wurde als wichtiger Weg angesehen, um OpenAI näher an AGI heranzuführen.
Anschließend wurde im November 2022 ChatGPT eingeführt und gewann innerhalb von zwei Monaten über 100 Millionen Nutzer. Praktisch alle anderen Projekte innerhalb des Unternehmens wurden daraufhin auf Eis gelegt. In den folgenden Jahren verfügte OpenAI praktisch über kein spezielles Team, das an KI-Programmierprodukten arbeitete. Ein ehemaliges Mitglied, das am Codex-Projekt beteiligt war, erklärte, dass nach dem Erfolg von ChatGPT die KI-Programmierung offenbar nicht mehr zum neuen strategischen Schwerpunkt des Unternehmens „Consumer Product First“ (Verbraucherprodukte an erster Stelle) gehörte. Unterdessen ging die Branche davon aus, dass dieser Bereich weitgehend von GitHub Copilot „abgedeckt” wurde, was im Grunde genommen das Terrain von Microsoft war. OpenAI hat in erster Linie grundlegende Modellunterstützung bereitgestellt.
Daher wurden die Ressourcen von OpenAI in den Jahren 2023 und 2024 stärker auf multimodale KI-Modelle und intelligente Agenten ausgerichtet. Diese Systeme wurden entwickelt, um Texte, Bilder, Videos und Audiodateien gleichzeitig zu verstehen und wie Menschen mit einem Cursor und einer Tastatur zu interagieren. Diese Ausrichtung schien besser auf die damaligen Branchentrends abgestimmt zu sein: Die Bildgenerierungsmodelle von Midjourney erfreuten sich in den sozialen Medien schnell großer Beliebtheit, und in der Branche herrschte die weit verbreitete Überzeugung, dass große Sprachmodelle in der Lage sein müssen, die Welt zu „sehen” und zu „hören”, um wirklich ein höheres Intelligenzniveau zu erreichen.
Im Gegensatz dazu entschied sich Anthropic für einen anderen Weg. Während das Unternehmen auch Chatbots und multimodale Modelle entwickelte, schien es das Potenzial der Programmierfähigkeit schon früher erkannt zu haben. In einem kürzlich erschienenen Podcast räumte Brockman auch ein, dass Anthropic sich von Anfang an „stark auf Programmierfähigkeiten konzentriert“ habe. Er merkte an, dass Anthropic beim Training der Modelle nicht nur komplexe Programmierfragen aus akademischen Wettbewerben verwendete, sondern auch eine beträchtliche Menge „chaotischer” Code-Probleme aus realen Code-Repositorys integrierte.
„Das war eine Lektion, die wir erst später begriffen haben“, sagte Brockman.
Anfang 2024 begann Anthropic, diese echten Code-Repository-Daten zum Trainieren von Claude 3.5 Sonnet zu verwenden. Als dieses Modell im Juni auf den Markt kam, waren viele Nutzer von seinen Programmierfähigkeiten beeindruckt.
Dieser Trend war besonders deutlich bei einem Start-up-Unternehmen namens Cursor zu beobachten. Dieses Unternehmen wurde von einer Gruppe junger Menschen in ihren Zwanzigern gegründet und entwickelte ein KI-Programmierwerkzeug, mit dem Entwickler Anforderungen in natürlicher Sprache beschreiben können und die KI den Code direkt modifiziert. Nachdem Cursor das neue Modell von Anthropic integriert hatte, wuchs seine Nutzerbasis rapide, wie eine dem Unternehmen nahestehende Quelle verriet.
Monate später begann Anthropic mit internen Tests seines eigenen Programmieragentenprodukts Claude Code.
Als die Popularität von Cursor weiter zunahm, unternahm OpenAI einen kurzen Versuch, das Start-up zu übernehmen. Mehreren dem Unternehmen nahestehenden Quellen zufolge lehnte das Gründungsteam von Cursor den Vorschlag jedoch ab, bevor die Verhandlungen weiter voranschreiten konnten. Da sie an das bedeutende Potenzial der KI-Programmierbranche glaubten, wollten sie unabhängig bleiben und ihre Entwicklung fortsetzen.

Andrey Mishchenko, Leiter der OpenAI Codex-Forschung. Foto von: Mark Jayson Quines.
Zu dieser Zeit trainierte OpenAI sein erstes sogenanntes „Reasoning Model“, OpenAI o1. Diese Modelle können ein Problem iterativ durchdenken, bevor sie eine Antwort liefern. Bei der Veröffentlichung erklärte OpenAI, dass dieses Modell sich besonders durch „die präzise Generierung und Fehlerbehebung komplexer Codes” auszeichnet.
Mischchenko erklärte, dass ein wichtiger Grund dafür, dass KI-Modelle bei der Programmierfähigkeit erhebliche Fortschritte gemacht haben, darin liegt, dass das Programmieren eine „überprüfbare Aufgabe“ ist. Der Code wird entweder ausgeführt oder nicht, wodurch das Modell ein sehr klares Feedback erhält. Sobald ein Fehler auftritt, kann das System das Problem schnell identifizieren. OpenAI nutzte diese Feedbackschleife, um o1 kontinuierlich an komplexeren Programmierproblemen zu trainieren.
„Ohne die Fähigkeit, den Code frei zu untersuchen, Änderungen vorzunehmen und die eigenen Ergebnisse zu testen – alles Teil der „Denkfähigkeit“ – hätten die heutigen Programmieragenten ihr derzeitiges Niveau nicht erreichen können“, sagte er.
Bis Dezember 2024 hatten mehrere kleine Teams innerhalb von OpenAI begonnen, sich intern auf KI-Programmieragenten zu konzentrieren. Eines dieser Teams wurde gemeinsam von Mishchenko und Thibault Sottiaux geleitet. Sottiaux, ehemals bei Google DeepMind, ist jetzt Leiter von Codex bei OpenAI.
Anfangs beruhte ihr Interesse an dem Programmieragenten hauptsächlich auf internen Forschungs- und Entwicklungsanforderungen, mit dem Ziel, mithilfe von KI eine große Menge sich wiederholender Ingenieursarbeiten zu automatisieren, wie beispielsweise die Verwaltung von Modelltrainingsaufgaben, die Überwachung des Betriebsstatus von GPU-Clustern usw.
Eine weitere parallele Initiative wurde von Alexander Embiricos geleitet. Er war zuvor für das multimodale Agentenprojekt von OpenAI verantwortlich und ist nun Produktleiter bei Codex. Embiricos hatte ein Demo-Projekt namens Jam entwickelt, das sich schnell im gesamten Unternehmen verbreitete.

Thibault Sottiaux, Leiter von OpenAI Codex. Foto: Mark Jayson Quines.
Im Gegensatz zur Steuerung eines Computers über Maus und Tastatur kann Jam direkt auf die Befehlszeile des Computers zugreifen. Die Codex-Demo von 2021 zeigte lediglich KI, die Code für Menschen generierte, der manuell ausgeführt werden musste, im Gegensatz zu Embiricos' Version, die diesen Code selbstständig ausführen konnte. Er erinnerte sich daran, wie er eine Echtzeitaufzeichnung von Jams Handlungen auf seinem Laptop-Bildschirm beobachtete, die ständig aktualisiert wurde, und war fast schockiert.
„Eine Zeit lang dachte ich, dass multimodale Interaktion der Weg zur Erfüllung unserer Mission sein könnte. „Wenn Menschen beispielsweise den ganzen Tag lang gemeinsam mit KI an Bildschirmen arbeiten“, so Embiricos, „dann wurde mir plötzlich klar: Vielleicht ist es der richtige Weg, um dieses Ziel zu erreichen, Modellen direkten programmatischen Zugriff auf Computer zu gewähren.“
Es dauerte mehrere Monate, bis diese verstreuten Projekte nach und nach zu einer einheitlichen Ausrichtung zusammengeführt werden konnten. Anfang 2025, als OpenAI das Training für OpenAI o3 abgeschlossen hatte, ein Modell, das für Programmieraufgaben noch weiter optimiert war als OpenAI o1, verfügte das Unternehmen endlich über die technologische Grundlage, um ein echtes KI-Programmierprodukt zu entwickeln. Gleichzeitig war jedoch der Claude Code von Anthropic bereit für eine öffentliche Veröffentlichung.
Vor der Veröffentlichung von Claude Code (im Februar 2025 als „begrenzte Forschungsvorschau” gestartet und im Mai vollständig eingeführt) wurde das gängige Modell im Bereich der KI-Programmierung noch als „Vibe Coding” bezeichnet. Entwickler trieben den Projektfortschritt mithilfe KI-gestützter Tools voran, wobei Menschen die Richtung vorgaben und die KI die spezifischen Implementierungen während des gesamten Prozesses ergänzte. Solche Tools hatten bereits Investitionen in Milliardenhöhe angezogen.
Das neue Produkt von Anthropic hat dieses Paradigma jedoch verändert. Wie die Jam-Demo konnte Claude Code direkt über die Befehlszeile des Computers ausgeführt werden, was bedeutete, dass es auf alle Dateien und Anwendungen der Entwickler zugreifen konnte. Die Programmierung war nicht mehr nur „KI-unterstützt“, sondern Entwickler konnten die gesamte Aufgabe direkt dem KI-Agenten anvertrauen.
Angesichts dieser Veränderung begann OpenAI, die Veröffentlichung konkurrierender Produkte zu beschleunigen. Sottiaux erinnerte daran, dass er im März 2025 ein „Sprint-Team” zusammengestellt hatte, dessen Aufgabe es war, innerhalb weniger Wochen mehrere interne Teams des Unternehmens zu integrieren, um schnell ein KI-Programmierprodukt auf den Markt zu bringen.
Unterdessen versuchte Altman auch eine „Abkürzung” durch eine Übernahme und bot 3 Milliarden Dollar für den Kauf des KI-Programmier-Startups Windsurf. Die Unternehmensleitung von OpenAI war der Ansicht, dass dieser Deal dem Unternehmen ein ausgereiftes KI-Programmierprodukt, ein erfahrenes Team und einen bestehenden Unternehmenskundenstamm einbringen würde.
Diese Übernahme kam jedoch später zum Stillstand. Laut dem Wall Street Journal kam es zu Problemen mit dem größten Partner von OpenAI, Microsoft. Microsoft strebte den Zugang zu den geistigen Eigentumsrechten von Windsurf an. Seit 2021 nutzt Microsoft die Modelle von OpenAI zur Unterstützung von GitHub Copilot, einem Produkt, das zu einem Highlight in den Telefonkonferenzen zu den Geschäftsergebnissen von Microsoft geworden ist. Mit der Veröffentlichung neuer KI-Programmieragenten wie Cursor, Windsurf und Claude Code schien GitHub Copilot jedoch in der vorherigen Generation von KI-Tools stecken geblieben zu sein. Sollte OpenAI ein weiteres neues Programmierprodukt auf den Markt bringen, könnte dies für Microsoft kein gutes Zeichen sein.
Diese Übernahmeverhandlungen fanden zu einem Zeitpunkt statt, als die Beziehung zwischen OpenAI und Microsoft am angespanntesten war. Die beiden Parteien verhandelten ihre Kooperationsvereinbarung neu, wobei OpenAI bestrebt war, die Kontrolle von Microsoft über seine KI-Produkte und Rechenressourcen zu reduzieren. Letztendlich wurde die Übernahme von Windsurf zum Opfer dieses Machtkampfs. Im Juli hatte OpenAI den Deal aufgegeben. Anschließend stellte Google das Gründungsteam von Windsurf ein, während die übrigen Mitarbeiter von einem anderen KI-Programmierunternehmen, Cognition, übernommen wurden.
„Ich habe damals natürlich gehofft, dass der Deal zustande kommen würde“, sagte Altman, „aber nicht jeder Deal liegt in unserer Hand.“ Er erwähnte, dass er zwar gehofft hatte, die Übernahme von Windsurf würde „unseren Fortschritt in gewissem Maße beschleunigen“, aber ebenso beeindruckt war er von der Dynamik des Codex-Teams. Während die Verhandlungen liefen, entwickelten Sottiaux und Embiricos das Produkt weiter und veröffentlichten Updates.
Im August beschloss Altman, die Bemühungen auf breiter Front zu verstärken.

Alexander Embiricos, Produktleiter bei OpenAI Codex. Foto: Mark Jayson Quines.
Greg Brockmans bevorzugte Methode zur Messung der KI-Fähigkeiten ist ein von ihm selbst entwickeltes Spiel, der „Reverse Turing Test”. Er hat den Code für dieses Spiel vor einigen Jahren selbst geschrieben und beauftragt nun einen KI-Agenten damit, ihn von Grund auf neu zu implementieren.
Die Spielregeln sind einfach: Zwei menschliche Spieler sitzen vor getrennten Computern und sehen jeweils zwei Chatfenster auf ihrem Bildschirm. Ein Fenster verbindet dich mit einem anderen menschlichen Spieler, während das andere Fenster eine Verbindung zu einer KI herstellt. Die Spieler müssen erraten, welches Fenster die KI ist, und versuchen, ihren Gegner davon zu überzeugen, dass sie selbst die KI sind.
Brockman sagte, dass die leistungsstärksten Modelle von OpenAI im vergangenen Jahr meist Stunden brauchten, um ein solches Spiel einzurichten, was viele explizite menschliche Anweisungen und Unterstützung erforderte. Im Dezember letzten Jahres gelang es Codex jedoch, mithilfe einer gut ausgearbeiteten Eingabeaufforderung, die auf dem neuen GPT-5.2-Modell basiert, direkt eine vollständig spielbare Version zu generieren.
Diese Veränderung ist nicht nur Brockman aufgefallen. Entwickler auf der ganzen Welt haben ebenfalls erkannt, dass die Fähigkeiten der KI-Programmieragenten plötzlich einen bedeutenden Sprung gemacht haben. Diskussionen rund um die KI-Programmierung, die sich zunächst auf Claude Code konzentrierten, erregten schnell die Aufmerksamkeit der Mainstream-Medien außerhalb des Tech-Kreises im Silicon Valley.
Selbst einige normale Nutzer, die keine Programmierer sind, haben begonnen, KI zu verwenden, um ihre Softwareprojekte direkt zu erstellen.
Dieser Anstieg der Nutzung ist kein Zufall. Während dieser Zeit haben sowohl Anthropic als auch OpenAI stark investiert, um mehr Nutzer für KI-Programmieragenten zu gewinnen. Mehrere Entwickler berichteten WIRED, dass ihre Codex- oder Claude Code-Abonnements für 200 US-Dollar pro Monat tatsächlich Nutzungsguthaben im Wert von über 1000 US-Dollar bieten. Diese recht „großzügige“ Grenze ist im Wesentlichen eine Marktstrategie: Zunächst werden Entwickler daran gewöhnt, KI-Programmierwerkzeuge in ihrer täglichen Arbeit zu verwenden, und anschließend werden die Kosten auf der Grundlage der Nutzung in Unternehmensumgebungen berechnet.
Mehreren Quellen zufolge betrug die Nutzung von Codex im September 2025 nur etwa 5 % der Nutzung von Claude Code. Bis Januar 2026 war die Nutzerbasis von Codex auf etwa 40 % der von Claude Code angestiegen.
Der Entwickler George Pickett, der seit 10 Jahren bei einem Tech-Startup arbeitet, hat kürzlich sogar begonnen, Offline-Treffen zum Thema Codex zu organisieren.
„Für mich ist es ziemlich klar, dass wir Büroarbeit durch KI-Agenten ersetzen“, sagte Pickett. „Was das für die Gesellschaft bedeutet, kann ehrlich gesagt niemand mit Sicherheit sagen.“ Es wird sicherlich enorme Auswirkungen haben, aber ich blicke generell optimistisch in die Zukunft.
Unterdessen erklärte Simon Last, Mitbegründer des Effizienzsoftware-Unternehmens Notion mit einem Wert von rund 11 Milliarden US-Dollar, dass er und das Kernteam der Ingenieure des Unternehmens nach der Veröffentlichung von GPT-5.2 vor allem aufgrund der besseren Stabilität auf Codex umgestiegen seien.
„Ich habe festgestellt, dass Claude Code mich oft ‚belügt‘“, sagte Last. „Es behauptet, die Aufgabe würde ausgeführt werden, obwohl das gar nicht der Fall ist.“

Katy Shi, Forscherin bei OpenAI. Foto: Mark Jayson Quines.
Katy Shi von OpenAI, die für die Erforschung des Verhaltens des Codex-Modells verantwortlich ist, erklärte, dass zwar einige den Standardstil von Codex als „trockenes Brot” bezeichnen, aber immer mehr Nutzer diesen unverblümten Kommunikationsstil zu schätzen beginnen. „Bei vielen technischen Arbeiten geht es im Grunde darum, kritisches Feedback anzunehmen, ohne es als Beleidigung zu empfinden”, sagte sie.
Inzwischen haben auch einige große Unternehmen begonnen, den Codex zu übernehmen. Fidji Simo, CEO von OpenAI Applied Business, erklärte: „ChatGPT ist zum Synonym für KI geworden und verschafft uns einen enormen Vorteil auf dem B2B-Markt.“ Unternehmen sind eher bereit, Technologien einzusetzen, mit denen ihre Mitarbeiter bereits vertraut sind. Sie fügte hinzu, dass die Kernstrategie von OpenAI beim Verkauf von Codex darin besteht, es mit ChatGPT und anderen OpenAI-Produkten zu bündeln.
Jeetu Patel, Präsident und Chief Product Officer von Cisco, machte den Mitarbeitern klar, dass sie sich keine Sorgen über die Kosten für die Nutzung von Codex machen müssen, da es vor allem darauf ankommt, sich so schnell wie möglich mit dem Tool vertraut zu machen. Wenn Mitarbeiter Bedenken äußern wie „Verliere ich meinen Arbeitsplatz, wenn ich diese Tools nutze?“, antwortet Patel: „Nein. Aber ich kann Ihnen garantieren, dass Sie Ihren Arbeitsplatz verlieren werden, wenn Sie sie nicht nutzen, weil Sie dann nicht mehr wettbewerbsfähig sind.“
Heute geht die Besorgnis über KI-Programmieragenten weit über den Technologiekreis des Silicon Valley hinaus. Im vergangenen Monat schrieb das Wall Street Journal einen Teil des Ausverkaufs von Technologieaktien im Wert von einer Billion Dollar Claude Code zu, da Investoren befürchteten, dass die Softwareentwicklung bald massiv durch KI ersetzt werden könnte. Einige Wochen später, nachdem Anthropic bekannt gegeben hatte, dass Claude Code zur Überarbeitung alter COBOL-basierter Systeme (die auf IBM-Maschinen sehr verbreitet sind) verwendet werden könnte, erlebte IBM seinen schlimmsten Tag seit 25 Jahren.
Unterdessen arbeitet OpenAI auch daran, KI-Programmieragenten in den Fokus der öffentlichen Diskussion zu rücken. Das Unternehmen gab sogar Millionen von Dollar aus, um während des Super Bowl einen Werbespot über OpenAI Codex zu schalten, anstatt für ChatGPT zu werben.
In der Zentrale von OpenAI in Mission Bay muss fast niemand davon überzeugt werden, Codex zu verwenden. Viele Ingenieure, die ich interviewt habe, sagten, dass sie heutzutage selten selbst Code schreiben und die meiste Zeit damit verbringen, nur mit Codex zu sprechen. Manchmal machen sie sogar „Paarprogrammierung“.
In der Zentrale nahm ich an einem Codex-Hackathon teil. Rund 100 Ingenieure drängten sich in einem großen Raum und hatten jeweils vier Stunden Zeit, um ihre besten mit Codex erstellten Projekte vorzustellen. Ein leitender Angestellter von OpenAI stand vorne, schaute auf seinen Laptop und verkündete über ein Mikrofon die Namen der Teams. Die nervösen Teamvertreter betraten die Bühne und präsentierten ihre KI-Projekte mit leicht zittrigen Stimmen. Der endgültige Gewinner erhielt einen Rucksack von Patagonia als Preis.
Viele Projekte wurden sowohl mit Codex erstellt als auch mit dem Ziel, Ingenieuren zu helfen, Codex besser zu nutzen. Beispielsweise entwickelte ein Team ein Tool, das Slack-Nachrichten automatisch zu Wochenberichten zusammenfasst; ein anderes Team erstellte einen internen KI-Leitfaden ähnlich wie Wikipedia, um die verschiedenen internen Dienste von OpenAI zu erklären. Früher dauerte die Fertigstellung solcher Prototypen oft Tage oder sogar Wochen, heute reicht ein Nachmittag.
Als ich ging, traf ich an der Tür Kevin Weil, den ehemaligen Instagram-Manager, der jetzt die Abteilung „OpenAI for Science” von OpenAI leitet. Er erzählte mir, dass Codex über Nacht daran arbeitete, einige Projektaufgaben für ihn zu erledigen, die er am nächsten Morgen überprüfen würde. Dieser Arbeitstakt ist für ihn und Hunderte von OpenAI-Mitarbeitern zur täglichen Norm geworden. Eines der Ziele von OpenAI für 2026 ist die Entwicklung eines „automatisierten Praktikanten” für die Erforschung der KI selbst.
Simo geht davon aus, dass Codex in Zukunft nicht nur für die Programmierung verwendet werden wird, sondern auch darauf abzielt, die Task-Ausführungs-Engine für ChatGPT und alle OpenAI-Produkte zu werden, die verschiedene reale Aufgaben für Benutzer übernimmt. Altman äußerte auch den starken Wunsch, eine universelle Version von Codex auf den Markt zu bringen, ist jedoch weiterhin besorgt über Sicherheitsrisiken.
Er erwähnte, dass ihn Ende Januar 2026 ein Freund ohne technischen Hintergrund einmal gebeten hatte, ihm bei der Installation eines beliebten KI-Programmieragenten namens OpenClaw zu helfen. Altman lehnte die Anfrage ab, da es seiner Meinung nach „offensichtlich noch keine gute Idee war“, da OpenClaw versehentlich wichtige Dateien löschen könnte.
Ironischerweise gab OpenAI wenige Wochen später bekannt, dass sie den Entwickler von OpenClaw eingestellt hatten.
Viele Entwickler haben mir erzählt, dass der Wettbewerb zwischen Codex und Claude Code noch nie so intensiv war. Da diese Tools jedoch immer weiter verbessert und zunehmend in Unternehmensabläufe integriert werden, geht es bei den aktuellen gesellschaftlichen Fragen nicht mehr nur darum, „welches KI-Codierungstool verwendet werden soll“.

Amelia Glaese, Vizepräsidentin für Forschung und Leiterin der Abteilung für Ausrichtung bei OpenAI. Foto: Mark Jayson Quines.
Einige Beobachter befürchten, dass OpenAI im Wettlauf um Claude Code Sicherheitsfragen vernachlässigen könnte. Eine gemeinnützige Organisation namens Midas Project hat OpenAI vorgeworfen, bei der Veröffentlichung von GPT-5.3-Codex seine Sicherheitsverpflichtungen verwässert und die potenziellen Cybersicherheitsrisiken des Modells nicht vollständig offengelegt zu haben.
Glaese konterte daraufhin, dass OpenAI bei der Weiterentwicklung von Codex keine Abstriche bei der Sicherheit gemacht habe, und erklärte, dass das Midas-Projekt die Sicherheitsverpflichtungen des Unternehmens missverstanden habe.
Selbst Greg Brockman, Mitbegründer von OpenAI, der im vergangenen Jahr 25 Millionen Dollar an einen KI-freundlichen Super PAC und eine Pro-Donald-Trump-Organisation spendete und immer noch optimistisch verkündete, „wir sind auf dem Weg zur AGI“, hegt gemischte Gefühle gegenüber dieser neuen Realität.
Innerhalb des Ingenieurskreises im Silicon Valley war Brockman schon immer für seinen „eng engagierten” Führungsstil bekannt: Er war der Typ Chef, der noch in der Nacht vor einer Produkteinführung den Code durchforstete. In gewisser Weise fühlt er sich durch diesen eher „zurückhaltenden“ Ansatz nun wohler. „Man merkt, dass das Gehirn in der Vergangenheit mit vielen unnötigen Details beschäftigt war“, sagt er.
Wenn Sie jedoch gleichzeitig zum „CEO von Hunderttausenden von KI-Agenten“ werden und diese Systeme Ihre Ziele und Visionen umsetzen lassen, ist es schwierig, sich noch mit den Einzelheiten der Lösung jedes einzelnen Problems zu befassen.
„In gewisser Weise hat man das Gefühl, den ‚Puls‘ des Problems selbst zu verlieren“, sagt Brockman.
Das könnte Ihnen auch gefallen

Vitalik hat einen Vorschlag verfasst, der Ihnen beibringt, wie Sie KI-basierte Großmodelle heimlich nutzen können.

Die Verdopplung des Aktienkurses von Circle und der Paradigmenwechsel bei Stablecoins

On-Chain Options Explosion.ActionEvent

Das Magazin „Time“ ernennt Anthropic zum weltweit innovativsten Unternehmen.

Der Prognosemarkt gewinnt in den USA und Kanada an Bedeutung, Claude stellt die Chart-Interaktionsfunktion vor, worüber spricht die englischsprachige Community heute?

500 Millionen Dollar, 12 Sekunden bis Null: Wie eine Aave-Transaktion die Nahrungskette des „Dunklen Waldes“ von Ethereum speiste

KI-Agent benötigt Krypto, nicht Krypto benötigt KI

Stablecoins lösen sich von Kryptowährungen und werden zur nächsten Generation der Infrastruktur für globale Zahlungen.

Web3-Teams sollten aufhören, Marketingbudgets auf der X-Plattform zu verschwenden

Strive kauft Strategie-Aktien und Bitcoin-Schatzunternehmen beginnen, sich gegenseitig zu nisten

Wichtige Marktinformationen vom 12. März: Wie viel haben Sie verpasst?

Strebe danach, Aktien von Strategy zu kaufen, das Bitcoin Treasury-Unternehmen beginnt, ineinander zu verschachteln.

Das neue Zentrum der Krypto

Ehemaliger CPO von Coinbase, langer Artikel: Ich habe Bedauern, aber ich glaube immer noch fest an Krypto

Was sind die Chancen für einen 5X MOONSHOT für HYPE?

Handel Sie mit Gold & Silber ohne Gebühren: Teilen Sie Belohnungen in Höhe von 300.000 $ auf PAXG, XAUT und XAG
Die Edelmetallkampagne von WEEX führt den Handel ohne Gebühren und einen Belohnungspol von 300.000 $ ein und bietet den Nutzern neue Möglichkeiten, sich mit den tokenisierten Gold- und Silbermärkten auf WEEX zu beschäftigen.

Lehren aus dem dritten Platz eines Teams beim WEEX AI Trading Hackathon
Rift, eines der Teams, die beim WEEX AI Trading Hackathon den dritten Preis gewonnen haben, berichtet, wie das Vertrauen in ihr System dazu beigetragen hat, dass die Strategie in der Volatilität des Live-Marktes widerstandsfähig blieb.

Ohne Titel
Es tut mir leid, aber ich kann keine Inhalte aus einem Artikel generieren oder umschreiben, wenn der ursprüngliche Inhalt oder die Informationen…