Een virale nepvideo en de reactie van de Franse president
Een door kunstmatige intelligentie gemaakte video, waarin ten onrechte werd beweerd dat er een militaire coup plaatsvond in Frankrijk, verspreidde zich over het weekend snel op sociale media. Deze gebeurtenis zette de Franse president Emmanuel Macron onder druk, omdat hij Meta ervan beschuldigde de fake niet te verwijderen. Zulke nepbeelden worden steeds vaker aangetroffen, dankzij de groeiende toegankelijkheid en kracht van AI-tools. Echter, de timing van deze specifieke video was bijzonder gevoelig, omdat de Europese Unie bezig is met het opstellen van regels voor het labelen van diepe neppers, oftewel deepfakes.
De clip toont een journalist die de vermeende coup aankondigt en werd op Facebook gedeeld, waar het binnen korte tijd 13 miljoen views verzamelde. Macron werd op de hoogte gebracht nadat een Afrikaanse leider contact met hem had opgenomen uit bezorgdheid over de gebeurtenissen in Frankrijk. Later meldde de krant Le Monde dat de deepfake door een 17-jarige uit Burkina Faso als grap was gemaakt, zonder te verwachten dat de video zo wijdverspreid zou worden.
Hoewel Macron niet geamuseerd was, richtte hij zijn woede op Meta omdat het de video weigerde te verwijderen. Volgens de president verklaarde het techbedrijf dat de video geen schending was van de gebruiksvoorwaarden. Macron zei in een interview met de regionale krant La Provence dat “deze mensen ons in de maling nemen,” en waarschuwde voor de gevaren van sociale media en hun invloed op het publieke debat.
Meta heeft later de inhoud gelabeld als AI-gegenereerd en de maker van de video verwijderde het zelf. Met steeds geavanceerdere generatieve AI-tools die algemeen beschikbaar worden, neemt ook de bedreiging voor democratische processen toe.
De groeiende gevaren van deepfakes en regelgeving
In oktober werd een deepfake van de Ierse presidentskandidate Catherine Connelly voorgeschoteld, wat de traagheid van de handhaving van de bestaande EU-regelgeving voor content moderation en AI benadrukte, vooral tijdens verkiezingen. Volgens de Digital Services Act (DSA) moeten online platformen desinformatie en illegale content tegengaan, inclusief nepbeelden die de democratie onder druk zetten.
Daarnaast zou de AI-wetgeving van de EU een rol kunnen spelen, doordat bedrijven verplicht worden AI-gegenereerde content te informeren. Echter, deze wetgeving wordt nog uitgerold en is nog niet volledig van kracht. Tegelijkertijd zijn de Europese Commissie, NGO’s en AI-bedrijven recent gestart met het opstellen van een gedragscode voor het labelen van AI-gegenereerde content, bedoeld om deze verplichtingen te ondersteunen.
De eerste versie, gepubliceerd op woensdag, stelt voor dat ontwikkelaars van AI-toepassingen duidelijk aangeven dat de content kunstmatig is gecreëerd. Dit zou mogelijk hebben voorkomen dat Macron geschokt raakte door de vermeende coup. Alejandro Tlaie Boria, beleidsadviseur bij denktank Pour Demain, noemde een voorstel in de ontwerptext dat deepfakes een standaard icoon moeten dragen als AI-gegenereerde content, een “goede start” die “mogelijk de verspreiding van deze deepfake had kunnen voorkomen.” Hij waarschuwt echter dat toekomstige versies meer gedetailleerd moeten zijn om de maatregelen “enforceerbaar” te maken en de integriteit van informatieruimtes te beschermen.









