Meta begint in mei met het labelen van door AI gegenereerde inhoud

Meta begint in mei met het labelen van door AI gegenereerde inhoud

Facebook en Instagram-gigant Meta zeiden vrijdag dat het vanaf mei zal beginnen met het labelen van door AI gegenereerde media, omdat het gebruikers en overheden probeert gerust te stellen over de risico’s van deepfakes.

De social media-moloch voegde eraan toe dat het niet langer gemanipuleerde beelden en audio zal verwijderen die anders zijn regels niet overtreden, maar in plaats daarvan zal vertrouwen op etikettering en contextualisering, om geen inbreuk te maken op de vrijheid van meningsuiting.

De veranderingen komen als reactie op kritiek van de toezichthoudende raad van de technologiegigant, die onafhankelijk de beslissingen over het modereren van Meta beoordeelt.

Het bestuur verzocht Meta in februari dringend haar aanpak van gemanipuleerde media te herzien, gezien de enorme vooruitgang op het gebied van AI en het gemak waarmee media kunnen worden gemanipuleerd tot zeer overtuigende deepfakes.

De waarschuwing van het bestuur kwam voort uit de angst voor ongebreideld misbruik van door kunstmatige intelligentie aangedreven toepassingen voor desinformatie op platforms in een cruciaal verkiezingsjaar, niet alleen in de Verenigde Staten maar wereldwijd.

Meta's nieuwe “Made with AI”-labels identificeren inhoud die is gemaakt of gewijzigd met AI, inclusief video, audio en afbeeldingen. Bovendien zal een prominenter label worden gebruikt voor inhoud waarvan wordt aangenomen dat deze een hoog risico loopt om het publiek te misleiden.

“We zijn het erover eens dat het bieden van transparantie en aanvullende context nu de betere manier is om deze inhoud aan te pakken”, zei Monika Bickert, vice-president van inhoudsbeleid van Meta, in een blogpost.

“De labels zullen een breder scala aan inhoud bestrijken, naast de gemanipuleerde inhoud die de Oversight Board heeft aanbevolen te labelen”, voegde ze eraan toe.

Deze nieuwe etiketteringstechnieken zijn gekoppeld aan een overeenkomst die in februari tussen grote technologiegiganten en AI-spelers is gesloten om samen te werken aan manieren om gemanipuleerde inhoud aan te pakken die bedoeld is om kiezers te misleiden.

Meta, Google en OpenAI waren al overeengekomen om een ​​gemeenschappelijke watermerkstandaard te gebruiken die afbeeldingen die door hun AI-toepassingen zijn gegenereerd, onzichtbaar zou taggen.

Het identificeren van AI-inhoud “is beter dan niets, maar er zullen zeker gaten zijn”, vertelde Nicolas Gaudemet, AI-directeur bij Onepoint, aan AFP.

Hij nam het voorbeeld van open source-software, die niet altijd gebruik maakt van dit soort watermerken dat door de grote spelers van AI wordt overgenomen.

Meta zei dat de uitrol in twee fasen zal plaatsvinden, waarbij het labelen van door AI gegenereerde inhoud in mei 2024 zal beginnen, terwijl de verwijdering van gemanipuleerde media uitsluitend op basis van het oude beleid in juli zal stoppen.

Volgens de nieuwe standaard zal de inhoud, zelfs als deze met AI wordt gemanipuleerd, op het platform blijven tenzij deze andere regels schendt, zoals de regels die haatzaaiende uitlatingen of inmenging van kiezers verbieden.