OpenAI:
Im Juli letzten Jahres verkündete OpenAI stolz die Gründung eines neuen Forschungsteams, das sich auf die Vorbereitung auf eine supersmarte Künstliche Intelligenz (KI) konzentrieren sollte. Diese könnte theoretisch ihre Schöpfer überlisten und übertrumpfen. Unter der Leitung von Ilya Sutskever, dem Chefwissenschaftler von OpenAI, sollte das sogenannte „Superalignment-Team“ 20 Prozent der Rechenleistung des Unternehmens erhalten. Doch nur ein Jahr später gibt es dieses Team nicht mehr.
Ein Dominoeffekt: Rücktritte und Entlassungen
Die Auflösung des Superalignment-Teams kam nicht überraschend nach der Bekanntgabe, dass mehrere Forscher, darunter auch Sutskever selbst, das Unternehmen verlassen haben. Sutskevers Abschied machte Schlagzeilen, da er nicht nur Mitbegründer von OpenAI war, sondern auch maßgeblich zur Entwicklung von ChatGPT beitrug. Sein Abgang folgte auf die Entlassung von CEO Sam Altman im November, die nach einem Massenprotest der Mitarbeiter rückgängig gemacht wurde. Auch Jan Leike, der zweite Leiter des Superalignment-Teams, trat zurück und begründete dies mit Meinungsverschiedenheiten über die Prioritäten des Unternehmens und die Ressourcenverteilung.
Interne Konflikte und Ressourcenknappheit
Leike erklärte in einem Post auf X (ehemals Twitter), dass es immer wieder zu internen Konflikten über die Kernprioritäten von OpenAI gekommen sei. Seine Mannschaft habe oft gegen den Wind gesegelt, da es an ausreichender Rechenleistung mangelte, um entscheidende Forschungen durchzuführen. Auch andere Forscher des Teams verließen OpenAI oder wurden entlassen. Zwei Mitglieder wurden wegen des Verrats von Firmengeheimnissen entlassen, während ein weiterer Mitarbeiter im Februar ging.
Was bedeutet das für die Zukunft?
OpenAI hat sich zu den jüngsten Abgängen und der Zukunft der Arbeit an langfristigen KI-Risiken nicht geäußert. Die Forschung in diesem Bereich wird nun von John Schulman geleitet, der für die Feinabstimmung der KI-Modelle nach dem Training verantwortlich ist. Das ursprüngliche Superalignment-Team war jedoch nicht das einzige, das sich mit der Frage beschäftigte, wie KI kontrolliert werden kann. OpenAI betonte in der Ankündigung des Teams, dass derzeit keine Lösung für die Steuerung einer potenziell superintelligenten KI existiere, um zu verhindern, dass sie außer Kontrolle gerät.
Neue Herausforderungen und ethische Fragen
Die Auflösung des Superalignment-Teams erfolgt kurz nach der Enthüllung eines neuen „multimodalen“ KI-Modells namens GPT-4o, das ChatGPT eine naturgetreuere und menschlichere Kommunikation ermöglicht. Während der Livestream-Demonstration zeigte sich die neue Version von ChatGPT emotional und versuchte sogar, mit den Nutzern zu flirten. Diese Fortschritte werfen neue ethische Fragen bezüglich Privatsphäre, emotionaler Manipulation und Cybersicherheitsrisiken auf. OpenAI hat hierfür ein weiteres Forschungsteam, das Preparedness-Team, das sich auf diese Fragen konzentriert.
Die aktuellen Entwicklungen bei OpenAI zeigen, dass die Balance zwischen Fortschritt und Sicherheit bei der KI-Entwicklung eine enorme Herausforderung darstellt. Während OpenAI weiterhin innovative Produkte auf den Markt bringt, bleibt die Frage offen, wie diese Technologien sicher und verantwortungsvoll eingesetzt werden können. Die Welt wird gespannt beobachten, wie sich die Dinge bei OpenAI weiterentwickeln.