De uitdagingen van AI-ethiek in Europa: van principes naar praktijk

Europa leidt in het formuleren van AI-ethiekprincipes, maar worstelt met hun implementatie

Europa heeft in de afgelopen tien jaar een eigen benadering ontwikkeld voor ‘betrouwbare kunstmatige intelligentie’, waarbij ambities op het gebied van AI-ethiek zoals transparantie, verantwoording en non-discriminatie niet alleen zijn omgezet in richtlijnen, maar nu ook tot bindende regels zijn gemaakt onder de AI-wet. Toch blijft het vertalen van deze principes naar concrete ontwerpkeuzes een struikelblok voor organisaties en voor de dagelijkse beslissingen die door ingenieurs, onderzoekers en overheidsinstanties worden genomen. Een voorbeeld hiervan is de vraag of ’transparantie’ dezelfde betekenis heeft voor een robot die aardbeien plukt en voor een online systeem dat desinformatie opspoort.

Deze ‘uitvoeringskloof’ vormt het vertrekpunt voor AIOLIA, een project dat door de Europese Unie wordt gefinancierd en als doel heeft om AI-ethiek van abstracte waarden naar werkbare praktijk te brengen. In plaats van nog eens een set principes op te stellen, onderzoekt AIOLIA hoe ethiek daadwerkelijk wordt toegepast in bestaande systemen. Vervolgens worden deze lessen vertaald naar trainingen voor degenen die AI ontwikkelen, beoordelen en governancerollen vervullen.

De voortbestaan van de kloof tussen ethische principes en praktische toepassing

Volgens Alexei Grinbaum, projectcoördinator van AIOLIA, senior wetenschapper en voorzitter van de Operationele Digitale Ethiekcommissie bij CEA-Saclay in Frankrijk, bestaat deze kloof al sinds de eerste discussies over AI-ethiek. In een gesprek met Euractiv zegt hij: “Beleidsmakers, onderzoekers en industrieën zijn zich al lange tijd bewust van het probleem. Het ligt niet aan gebrek aan kennis, maar aan het vertalen van abstracte waarden naar meetbare maatregelen die in code, workflows of organisatiebeheer kunnen worden geïntegreerd.”

Grinbaum stelt dat het niet gaat om een gebrek aan bewustzijn, maar om de uitdaging van de praktische vertaling van principes. Het gaat erom instrumenten en procedures te ontwikkelen die het mogelijk maken ethisch handelen in realistische werkomgevingen te verankeren.

Een bottom-up benadering voor ethiek in AI

Het AIOLIA-project neemt een sterke afwijken van eerdere top-down aanpakken door niet voorschriften te geven over wat ethische principes in theorie zouden moeten betekenen. In plaats daarvan kijken ze naar de praktijk: hoe organisaties binnen hun eigen beperkingen ethische principes operationaliseren. Aan de hand van tien verschillende toepassingsgebieden, waarin zowel professionals als burgers betrokken zijn, wordt onderzocht hoe organisaties ethische richtlijnen in de praktijk toepassen en welke technische en organisatorische maatregelen daarbij worden gebruikt.

Het doel is om herhaalbare, sectoroverstijgende praktische maatregelen en voorbeelden te verzamelen, zonder te pretenderen dat één model voor alle situaties geschikt is. De bevindingen moeten handvatten bieden die de uitvoering van ethische eisen makkelijker maken voor degenen die ermee werken.

Training als kerncomponent van AI-ethiek

Training vormt de ruggengraat van AIOLIA’s aanpak, met speciale aandacht voor het Ethics Appraisal Scheme van de Europese Commissie. Alle projecten die worden gefinancierd door de EU ondergaan een ethische beoordeling, inclusief een specifieke analyse van de risico’s gerelateerd aan AI.

“De experts die deze voorstellen beoordelen, zijn niet altijd uitgebreid gespecialiseerd in AI of AI-ethiek,” benadrukt Grinbaum. “Er zijn honderden beoordelaars, waardoor training zowel noodzakelijk als uitdagend is.”

Een belangrijke focus ligt op het begeleiden van beoordelaars bij het herkennen van de zogeheten ‘ernstige en complexe ethische kwesties’. Grinbaum voegt toe: “Het is niet de bedoeling om ze allemaal op te sommen, maar om te leren onderscheiden welke problemen echt kritiek zijn en diepgaand moeten worden aangepakt. Deze vaardigheid wordt ontwikkeld via gerichte training.”

Naast beoordelaars van de Commissie richt AIOLIA zich ook tot nationale en institutionele ethische commissies en onderzoekers, waaronder jonge wetenschappers. De nadruk ligt hierbij op ethiek-by-design, dat wil zeggen het adresseren van problemen als databis inserting, manipulatiRisico’s en governance-kloften al tijdens het ontwerp van systemen, in plaats van achteraf.

Menselijke gedragingen, cognitieve processen en de rol van Europa

De focus van het project weerspiegelt de razendsnelle veranderingen binnen AI-systemen. Grinbaum wijst op de opkomst van generatieve AI en grote taalmodellen, waarmee niet-menselijke agentschappen communiceren in overtuigende menselijke taal. Hij merkt op dat zelfs wanneer gebruikers weten dat ze met een machine communiceren, ze spontaan menselijke eigenschappen toeschrijven, wat de kans op beïnvloeding en manipulatie vergroot, zelfs als volledige transparantie wordt gegeven.

Volgens Grinbaum is de relatief rustige tempo van Europa een voordeel, omdat het de leercurve en het publieke debat stimuleert. “Deze aanpak kan de implementatie vertragen, maar dat vormt geen zwakte – het is een sterkte.”

Hij wijst op gebieden waar voorzichtigheid geboden is, zoals democratische processen en het onderwijssysteem. “De invloed van generatieve AI op jongeren en leren is enorm,” waarschuwt hij. “We beginnen slechts net de risico’s en kansen te doorgronden.”

Voor AIOLIA betekent de aanpak geen slogans, maar praktische paden: het verkleinen van de kloof tussen ethische taal en operationele beslissingen, en het ontwikkelen van trainingen die de AI-ecosystemen in Europa helpen te handelen volgens de ethische principes die ze zelf al navolgen.

Grinbaum onderstreept dat er geen eenvoudige oplossing bestaat, maar dat het proces van reflectie, testen en het implementeren van waarborgen essentieel is om vooruitgang te boeken.