Sorge vor Missbrauch: Die Software zum Klonen echter Stimmen von OpenAI soll vorerst nicht öffentlich nutzbar werden. (Urheber/Quelle/Verbreiter: Richard Drew/AP/dpa)

Der ChatGPT-Entwickler OpenAI arbeitet an einer Software zum Klonen menschlicher Stimmen – hält sie wegen Sorgen vor Missbrauch aber vorerst zurück. «Voice Engine verwendet Texteingaben und eine lediglich 15-sekündige Audioprobe, um natürlich klingende Sprache zu erzeugen, die dem Originalsprecher sehr ähnlich ist», teilte der US-Konzern mit. OpenAI arbeite seit 2022 an dem Programm, unter anderem um Software zu verfeinern, die Text in Sprache umwandelt.

Ob und wann Voice Engine für die breite Öffentlichkeit nutzbar wird, ist allerdings offen. Gerade in einem Wahljahr berge eine solche Anwendung erhebliche Risiken, hieß es von OpenAI. Wegen möglichen Missbrauchs gehe der Konzern deshalb «behutsam und sachkundig» an die Frage einer Freigabe heran. OpenAI erhoffe sich einen Diskurs über Chancen und Risiken der Technologie und wolle weitere Tests durchführen. 

Im Januar hatten fingierte Anrufe Angst vor Manipulationen mithilfe Künstlicher Intelligenz im Rennen ums Weiße Haus geschürt. In automatisierten Anrufen hatte eine Stimme, die der von US-Präsident Joe Biden zum Verwechseln ähnlich klang, Demokraten in New Hampshire dazu aufgerufen, nicht an den Vorwahlen teilzunehmen. Solche sogenannten Robocalls sind ein gängiges Wahlkampf-Instrument in den USA.

OpenAI verwies in seiner Mitteilung aber auch auf die Chancen der Anwendung. Mit einem Partner habe OpenAI daran geforscht, wie die synthetischen Stimmen beim Lesenlernen unterstützen können. Potenzial habe Voice Engine außerdem beim Übersetzen etwa von Videos und Podcasts, die so ein breiteres Publikum erreichen könnten. Wichtig sei in jedem Fall, dass sich die geklonte Stimme zuvor als KI-generiert zu erkennen gebe.

Von