OpenAI gaat anti-desinformatie-instrumenten lanceren voor de verkiezingen van 2024

OpenAI gaat anti-desinformatie-instrumenten lanceren voor de verkiezingen van 2024

ChatGPT-maker OpenAI heeft gezegd dat het hulpmiddelen zal introduceren om desinformatie te bestrijden voorafgaand aan de tientallen verkiezingen dit jaar in landen waar de helft van de wereldbevolking woont.

Het explosieve succes van tekstgenerator ChatGPT leidde tot een wereldwijde revolutie op het gebied van kunstmatige intelligentie, maar leidde ook tot waarschuwingen dat dergelijke tools het internet zouden kunnen overspoelen met desinformatie en kiezers zouden kunnen beïnvloeden.

Met dit jaar verkiezingen in landen als de Verenigde Staten, India en Groot-Brittannië zei OpenAI maandag dat het niet zal toestaan ​​dat zijn technologie – inclusief ChatGPT en de beeldgenerator DALL-E 3 – wordt gebruikt voor politieke campagnes.

“We willen ervoor zorgen dat onze technologie niet wordt gebruikt op een manier die het democratische proces zou kunnen ondermijnen”, aldus OpenAI in een blogpost.

“We werken er nog steeds aan om te begrijpen hoe effectief onze tools kunnen zijn voor gepersonaliseerde overtuigingskracht”, voegde het eraan toe.

“Tot we meer weten, staan ​​we niet toe dat mensen applicaties bouwen voor politieke campagnes en lobbywerk.”

AI-gedreven desinformatie en desinformatie vormen de grootste mondiale risico’s op de korte termijn en kunnen nieuw gekozen regeringen in grote economieën ondermijnen, waarschuwde het World Economic Forum in een rapport dat vorige week werd uitgebracht.

De angst voor desinformatie over verkiezingen begon jaren geleden, maar de publieke beschikbaarheid van krachtige AI-tekst- en beeldgeneratoren heeft de dreiging vergroot, zeggen experts, vooral als gebruikers niet gemakkelijk kunnen zien of de inhoud die ze zien nep of gemanipuleerd is.

OpenAI zei maandag dat het werkte aan tools die betrouwbare attributie zouden koppelen aan tekst gegenereerd door ChatGPT, en gebruikers ook de mogelijkheid zouden geven om te detecteren of een afbeelding is gemaakt met behulp van DALL-E 3.

“Begin dit jaar zullen we de digitale referenties van de Coalition for Content Provenance and Authenticity implementeren – een aanpak die details over de herkomst van de inhoud codeert met behulp van cryptografie”, aldus het bedrijf.

De coalitie, ook wel bekend als C2PA, wil de methoden voor het identificeren en traceren van digitale inhoud verbeteren. Tot de leden behoren Microsoft, Sony, Adobe en de Japanse beeldverwerkingsbedrijven Nikon en Canon.

OpenAI zei dat ChatGPT, wanneer hem procedurele vragen worden gesteld over Amerikaanse verkiezingen, zoals waar te stemmen, gebruikers naar gezaghebbende websites zal leiden.

“De lessen uit dit werk zullen onze aanpak in andere landen en regio’s bepalen”, aldus het bedrijf.

Het voegde eraan toe dat DALL-E 3 “vangrails” heeft die voorkomen dat gebruikers afbeeldingen van echte mensen genereren, inclusief kandidaten.

De aankondiging van OpenAI volgt op stappen die vorig jaar werden onthuld door de Amerikaanse technologiegiganten Google en Facebook-moederbedrijf Meta om verkiezingsinmenging te beperken, vooral door het gebruik van AI.

Hoewel veel van deze inhoud van lage kwaliteit is en het niet meteen duidelijk is of deze met AI-apps is gemaakt, zeggen experts dat desinformatie een vertrouwenscrisis in politieke instellingen aanwakkert.