Neues ChatGPT führt Unterhaltungen – und singt
ChatGPT-App auf einem Smartphone. Die Software kann jetzt mit den Benutzern sprachlich interagieren. (Urheber/Quelle/Verbreiter: Matt Rourke/AP/dpa)

Der populäre Chatbot ChatGPT kann jetzt eine Unterhaltung mit Menschen führen und deren Emotionen erkennen. Mit der natürlichen Stimme und der kurzen Reaktionszeit erinnert das neue KI-Modell GPT-4o an Sprachassistenten aus Hollywood-Filmen. Die Entwicklerfirma OpenAI wird es auch Gratis-Nutzern zur Verfügung stellen. Wie gut die Software Deutsch sprechen kann, blieb nach der Präsentation allerdings offen.

Mit Nutzern sprechen konnte ChatGPT im Prinzip schon vorher – aber mit Pausen zur Verarbeitung der Daten. Jetzt zeigte OpenAI, wie die Software den Tonfall von aufgeregt bis mitfühlend variieren kann – und auch fließend zwischen Englisch und Italienisch übersetzt. ChatGPT wird damit zu einem mächtigen Konkurrenten für die Sprachassistenten der Tech-Schwergewichte wie Amazons Alexa und Apples Siri, die im Vergleich dazu sehr schlicht wirken. Zuletzt gab es Medienberichte, Apple verhandele mit OpenAI über eine Integration von Technologie der Firma in seine Software.

Weitere Neuerung: Gleichzeitig mit gesprochenen Befehlen kann ChatGPT auch Informationen von einer Smartphone-Kamera verarbeiten. In einem Livestream demonstrierte OpenAI unter anderem, wie das neue Modell dadurch helfen kann, eine Mathe-Gleichung zu lösen. ChatGPT gab per Stimme Ratschläge für den Rechenweg, ohne das Ergebnis zu verraten. Ein Mitarbeiter von OpenAI schrieb dafür die Gleichung auf einem Blatt Papier und richtete die Smartphone-Kamera darauf. Fragen an ChatGPT stellte er mündlich – und die Software folgte per Kamera seinem Fortschritt. Einziger Patzer: Der Chatbot behauptete erst, er sehe die Aufgabe, noch bevor er die Gleichung aufschrieb. «Oops, ich war zu aufgeregt», entschuldigte sich ChatGPT.

Auch bat ein OpenAI-Mitarbeiter den Chatbot, seine Laune an dem Gesichtsausdruck zu erkennen. Schwer machte er es ChatGPT mit einem breiten Grinsen allerdings nicht. Das gilt auch für andere Live-Demonstrationen am Montag: Sie funktionierten weitgehend reibungslos, aber man weiß nicht, wie gut die Software unter realen Alltags-Umständen agiert. Alle Interaktionen wurden mit dem Weck-Satz «Hey, ChatGPT» eingeleitet – ähnlich wie man es von heutigen Sprachassistenten kennt.

Gute-Nacht-Geschichte erfinden und vorlesen lassen

In einer weiteren Demo erfand ChatGPT eine Gute-Nacht-Geschichte und las sie vor. Dabei konnte man die Software unterbrechen und bitten, mehr Dramatik in die Stimme zu bringen oder wie ein Roboter zu sprechen. Den letzten Satz sang ChatGPT auf Wunsch sogar vor.

OpenAI-Chef Sam Altman schrieb nach der Präsentation, es sei die beste Art einen Computer zu bedienen, die er je erlebt habe. «Es fühlt sich an wie die KI aus Kinofilmen. Und es überrascht mit immer noch ein wenig, dass es real ist.» Altman und andere OpenAI verwiesen zuvor schon auf den rund ein Jahrzehnt alten Film «Her», in dem sich der von Joaquin Phoenix gespielte Protagonist in eine KI-Assistenzsoftware verliebt. Die weibliche Stimme von ChatGPT in der Präsentation erinnerte tatsächlich an den Film.

Zugleich warnte die IT-Sicherheitsexpertin Rachel Tobac umgehend, dass zum Beispiel Funktionen wie die automatische Übersetzung für Betrugs-Anrufe genutzt werden können, die zuvor an Sprachbarrieren scheiterten.

Abo-Kunden von OpenAI werden mehr Leistung in dem Modell bekommen. Zugleich machte OpenAI die Interaktionen für kommerzielle Nutzer günstiger. Man werde jede Menge Dinge finden, für die man Geld verlangen könne, schrieb Altman dazu. Und das werde OpenAI helfen, kostenlos hoffentlich Milliarden Menschen zu bedienen. Nach bisherigen Angaben kommt ChatGPT auf rund 100 Millionen Nutzer. Es dürfte einige Wochen dauern, bis das neue Modell breit verfügbar ist. Wenige Stunden nach der Präsentation meldete OpenAI eine Störung bei dem Modell, die jedoch schnell wieder behoben wurde.

Google-Entwicklerkonferenz am Dienstag

Der Zeitpunkt der Präsentation ist interessant: Am Dienstag hält Google seine jährliche Entwicklerkonferenz ab, bei der auch Ankündigungen zu neuen Funktionen mit Künstlicher Intelligenz erwartet werden. Google zeigte bereits vor einigen Monaten, wie seine KI-Software Gemini gesprochene und visuelle Informationen verarbeiten kann.

Kurz vor der Konferenz Google I/O verkündete auch der OpenAI-Rivale Anthropic den Europa-Start seines KI-Assistenten Claude. Tests hätten gezeigt, dass Claude sehr gut unter anderem auf Deutsch, Französisch und Italienisch funktioniere, sagte Anthropic-Mitgründer Jack Clark der Deutschen Presse-Agentur. Ähnlich wie ChatGPT kann Claude mit Hilfe Künstlicher Intelligenz unter anderem Sätze auf dem Niveau eines Menschen formulieren und den Inhalt von Texten zusammenfassen. In Europa werden die Web-Version, die iPhone-App und eine Variante für Unternehmen verfügbar sein.

Anthropic reduziert «Halluzinationen»

Anthropic brachte im März die aktuelle Generation Claude 3 heraus, die in einigen technischen Tests die Leistung des GPT-4-Modells des ChatGPT-Entwicklers OpenAI übertraf. Anthropic verweist darauf, dass Claude auch lange Texte zusammenfassen und Fragen dazu beantworten kann. Damit könne die Software besonders nützlich unter anderem für Rechtsexperten sowie in der Medizin und Finanzbranche sein, betonte Mitgründer Jared Kaplan. Die Firma sieht bislang keine Datenspeicherung in Europa vor, sei aber offen dafür, wenn Kunden sich das wünschen sollten. Zugleich seien Kundendaten stets verschlüsselt und damit nur für sie zugänglich.

Anthropic sei auch erfolgreich damit gewesen, sogenannte «Halluzinationen» zu reduzieren, bei denen die Software falsche Angaben macht, sagte Kaplan. Die «Halluzinationen» sind ein grundsätzliches Problem von KI-Programmen, die mit ihrer Funktionsweise zusammenhängen. Die Software wird mit riesigen Mengen an Informationen angelernt. Beim Formulieren von Texten entscheidet sie Wort für Wort, wie ein Satz wahrscheinlich weitergehen soll.

Dabei können völlig falsche Angaben herauskommen, selbst wenn die KI-Modelle nur mit korrekten Informationen gefüttert wurden. Anthropic versucht bei Claude, solche Fehler durch den Abgleich mit Fakten zu minimieren. Auf ähnliche Weise werden die formulierten Sätze auch mit Grundsatz-Regeln abgeglichen, um Beleidigungen oder Diskriminierung zu verhindern.

Von Andrej Sokolow, dpa

Von