OpenAI onthult ook stemklonen
OpenAI onthulde vrijdag een hulpmiddel voor het klonen van stemmen dat het van plan is streng onder controle te houden totdat er veiligheidsmaatregelen zijn getroffen om namaak van audio te dwarsbomen die bedoeld is om luisteraars te misleiden.
Een model genaamd “Voice Engine” kan in wezen iemands spraak dupliceren op basis van een audiofragment van 15 seconden, volgens een OpenAI-blogpost waarin de resultaten van een kleinschalige test van de tool worden gedeeld.
“We erkennen dat het genereren van spraak die lijkt op de stemmen van mensen ernstige risico's met zich meebrengt, die vooral in een verkiezingsjaar hoog op de agenda staan”, aldus het in San Francisco gevestigde bedrijf.
“We werken samen met Amerikaanse en internationale partners uit de hele overheid, media, entertainment, onderwijs, het maatschappelijk middenveld en daarbuiten om ervoor te zorgen dat we hun feedback meenemen tijdens het bouwen.”
Onderzoekers op het gebied van desinformatie vrezen een wijdverbreid misbruik van door AI aangedreven toepassingen in een cruciaal verkiezingsjaar dankzij de steeds groter wordende tools voor het klonen van stemmen, die goedkoop, gemakkelijk te gebruiken en moeilijk te traceren zijn.
OpenAI erkende deze problemen en zei dat het “een voorzichtige en goed geïnformeerde benadering hanteerde voor een bredere release vanwege de mogelijkheid van synthetisch stemmisbruik.”
De voorzichtige onthulling kwam een paar maanden nadat een politiek adviseur die werkte voor de langlopende presidentiële campagne van een democratische rivaal van Joe Biden, toegaf achter een robocall te zitten waarin hij zich voordeed als de Amerikaanse leider.
De door AI gegenereerde oproep, het geesteskind van een medewerker van het congreslid Dean Phillips uit Minnesota, bevatte wat leek op de stem van Biden die mensen opriep om niet te stemmen tijdens de voorverkiezingen in New Hampshire in januari.
Het incident veroorzaakte alarm onder experts die vrezen voor een stortvloed aan AI-aangedreven deepfake-desinformatie tijdens de Witte Huis-race van 2024 en bij andere belangrijke verkiezingen over de hele wereld dit jaar.
OpenAI zei dat partners die Voice Engine testen, akkoord gingen met regels, waaronder het vereisen van expliciete en geïnformeerde toestemming van elke persoon wiens stem wordt gedupliceerd met behulp van de tool.
Het moet het publiek ook duidelijk worden gemaakt wanneer de stemmen die ze horen door AI worden gegenereerd, voegde het bedrijf eraan toe.
“We hebben een reeks veiligheidsmaatregelen geïmplementeerd, waaronder watermerken om de oorsprong van alle door Voice Engine gegenereerde audio te traceren, evenals proactieve monitoring van hoe deze wordt gebruikt”, aldus OpenAI.