Toen ik Recht & Robots oprichtte heb ik al tijdens de ontwerpfase een artificial intelligence-verklaring opgesteld. Dat vond ik een belangrijk onderdeel van mijn werkwijze: transparantie. “Allemaal leuk en aardig Steven, maar een AI-verklaring is toch helemaal geen wettelijk vereiste? Dat is toch overbodig werk?” Klopt, maar moeten we dan altijd door Vrouwe Justitia gedwongen worden om ons ergens toe te bewegen? In deze blog leg ik uit waarom ik een AI-verklaring heb opgesteld en geef ik enkele onderdelen die je zelf in een verklaring kunt opnemen. Ook ga ik kort in op de aanstaande AI-Act – waar ik inmiddels aardig bekend mee ben – om te laten zien dat het handig is om nu al over AI-verklaringen na te denken.
Waarom ik een verklaring opstelde
Voor mijn volledige betoog over waarom ik specifiek een AI-verklaring opstelde, kun je de verklaring lezen. In het kort heb ik de verklaring opgesteld omdat ik transparantie ontzettend belangrijk vind. Dat kunnen collega’s en cliënten hopelijk beamen. En anders moet ik maar weer eens de ouderwetse steekpenningen van stal halen. Omgekeerd erger ik mij er ook aan als ik diensten of producten gebruik die niet transparant zijn.
Denk bijvoorbeeld aan die irritante reclames met ‘natuurlijke’ suikers die pretenderen beter te zijn dan kunstmatige. Of software-updates zonder patch notes waarbij je zelf maar uit moet vogelen wat er veranderd is. Of wanneer je op de computer (zonder adblocker) van een familielid eindeloze pop-ups krijgt en het kruisje steeds op een andere plek staat of onderdeel van de pop-up blijkt te zijn. Soms is een literaire aderlating precies wat je nodig hebt om je frustratie kwijt te kunnen.
Toen ik rond januari van dit jaar met het idee speelde een blog te beginnen, was de hype rondom ChatGPT net losgebarsten. Net als miljoenen anderen ging ook ik in de weer met de tool. Hoewel ik mij bewust ben van alle juridische en ethische risico’s omtrent AI, zag en zie ik ook zeker de mogelijkheden. Zo merkte ik dat ChatGPT goed werkte om door de mentale barrière van writer’s block te breken en om een startpunt te bieden voor onderzoek over bepaalde onderwerpen. Hoewel sommigen betogen dat AI-tools als ChatGPT in wezen niet anders zijn dan het gebruik van bijvoorbeeld Google, voelde ik dat ik dit anders vond. Reden om na te denken over waarom en hoe ik naar de buitenwereld ging communiceren dat ik gebruikmaakte van AI-tools op mijn website.
Het belang van een AI-verklaring
Na het nodige denkwerk (doet altijd weer pijn) ben ik tot een viertal pijlers gekomen die het belang van een AI-verklaring vertegenwoordigen. Hoewel ik deze pijlers voor mijzelf heb geformuleerd, denk ik dat ze ook relevant zijn voor de verklaringen van anderen. Deze pijlers zijn als volgt:
- Transparantie en kwaliteitsborging: een AI-verklaring zorgt ervoor dat bezoekers van de website weten dat AI ter ondersteuning wordt gebruikt bij het schrijven van teksten en bij het genereren van afbeeldingen. Deze transparantie is onder meer belangrijk om niet de schijn te wekken dat AI-materiaal als eigen materiaal wordt afgedaan (in het geval afbeeldingen). Ook is het belangrijk omdat lezers dan weten wat de mate van menselijke betrokkenheid in het proces is geweest, zonder te gissen of de tekst geheel of gedeeltelijk door een tool is gegenereerd. Dit vergroot het vertrouwen in de kwaliteit van mijn blogs.
- Verantwoordelijkheid: door open te zijn over het gebruik van AI, neem ik de volledige verantwoordelijkheid voor de content op de website. Dat betekent dat ik eventuele foute informatie niet op AI kan afschuiven. Al zou dat af en toe wel makkelijk zijn; een nieuwe vorm van ‘de hond heeft mijn huiswerk opgegeten’.
- Respect voor intellectueel eigendom: een AI-verklaring moet de huidige juridische en ethische vraagstukken omtrent auteursrechtelijk beschermd materiaal in trainingsdata van AI benoemen. Door de keuzes die daaromtrent zijn genomen weer te geven, worden makers van werken gerespecteerd. Dit is met name relevant bij het gebruik van AI voor het genereren van afbeeldingen, waarbij trainingsdata mogelijk auteursrechtelijk beschermd werk bevat.
- Dialoog en samenwerking: middels een AI-verklaring worden bezoekers uitgenodigd om mee te denken, feedback te geven en vragen te stellen over het gebruik van AI. Dit bevordert een open dialoog en samenwerking tussen mij en de bezoekers, wat hopelijk bijdraagt aan verantwoordelijker gebruik van AI in de toekomst.
Mogelijke onderdelen van een AI-verklaring
Uit de voorgaande pijlers kunnen al de nodige onderdelen worden gehaald. Toch is het belangrijk om te benadrukken dat een AI-verklaring de ethische waarden van de schrijver of schrijvende organisatie moet bevatten. Dat klinkt voor de meesten vaak wollig, maar ethiek is kort door de bocht niks anders dan nadenken over de juiste handelingen en keuzes in relatie tot de normen en waarden van een individu of samenleving. Dus wat vind je als mens/organisatie belangrijk in de context van AI of in het algemeen? Vertaal die waarden vervolgens naar keuzes en voilà, je hebt een AI-verklaring. Om je op weg te helpen heb ik hier enkele mogelijke onderdelen voor een verklaring opgenomen:
- Waarom de verklaring is opgesteld
- Welke tools worden gebruikt
- Hoe deze tools worden gebruikt
- Kwaliteitsborging
- Verantwoordelijkheid voor de resultaten en het gebruik van de tools
- Hoe om wordt gegaan met vraagstukken omtrent intellectueel eigendom
- Verstrekken van contactgegevens voor een mogelijkheid tot dialoog, feedback en klachten
De rol van de AI Act: het verschil tussen een AI- en transparantieverklaring
Tot dusver heb ik de generieke term ‘AI-verklaring’ gebezigd. Aan het begin van deze blog gaf ik aan dat een dergelijke verklaring geen wettelijke verplichting is en daarom ook vormvrij is. Mogelijk rijst bij sommige lezers dan de vraag of de AI-verklaring hetzelfde is als de transparantieverklaring, maar dan met een andere naam.
Wellicht dat je de term ‘transparantieverklaring’ al meermaals tegen bent gekomen in nieuwsberichten omtrent de aanstaande Europese AI Act (of: AI-verordening). Voor deze blog is het voldoende om te vermelden dat de AI Act een wet is die een raamwerk voor AI-systemen in het leven gaat roepen. In de AI Act is gekozen voor een risicogebaseerde aanpak waarbij onderscheid wordt gemaakt tussen verboden AI-systemen, systemen met een hoog risico en tot slot met een laag risico. Voor systemen met een laag risico, zoals chatbots en deepfakes, geldt een basale verplichting tot transparantie. Dat betekent dat het duidelijk moet zijn dat je met een chatbot en niet met een mens aan het praten bent. Altijd fijn als je een medewerker wil spreken maar je middels cirkelredenaties het zevenendertigste begin van het chatbotscript triggert.
Voor systemen met een hoog risico geldt een veel strikter regime dat gepaard gaat met een stuk meer eisen, ook omtrent transparantie. Hieruit vloeit de ‘echte’ transparantieverklaring voort. Mede om verwarringsgevaar te voorkomen heb ik ervoor gekozen om mijn eigen verklaring een AI-verklaring te noemen. Ook vond ik bijvoorbeeld dat ‘transparantie’ de lading voor mijn verklaring niet dekte, omdat deze ook andere onderdelen besloeg. Kortom, de AI-verklaring zie ik meer als een uitdraging van normen en waarden omtrent het gebruik van AI, terwijl de transparantieverklaring voortvloeit uit de verplichtingen van de AI Act. wettelijk vereist stuk uit de AI Act is.
Verplichte onderdelen van een ‘transparantieverklaring’
Laat ik vooropstellen dat de transparantieverklaring net zoveel genoemd wordt in de AI Act als de privacyverklaring in de Algemene verordening gegevensbescherming (AVG); nul keer. Net Zie art. 13 en 14 AVGheb je volgens de AI Act een informatieverplichting, maar de wijze waarop je dat doet is niet vastgelegd. Wel is uit de praktijk gebleken dat een verklaring een effectieve manier is om aan die verplichting te voldoen. Dat is waarom ik een soortgelijke uitwerking voorzie in het geval van AI.
Toch is er een verschil met de privacyverklaring. Waar laatstgenoemde betrokkenen (degene van wie persoonsgegevens worden verwerkt) informeert, gaat het bij de AI Act voornamelijk over het informeren van In deze context zijn de gebruikers degene die het systeem gebruiken, of dat nu een individueel persoon (die de AI niet beroepsmatig gebruikt) of een multinational is.Zo is in art. 13 lid 1 van de AI Act opgenomen dat: “AI-systemen met een hoog risico zodanig moeten worden ontworpen en ontwikkeld dat de werking ervan transparant genoeg is voor gebruikers om de output te begrijpen en op passende wijze te gebruiken.” Dat houdt in dat je je systeem niet aan een andere partij mag slijten, je duim omhoog steekt en succes roept. Je moet in begrijpelijke taal uitleggen hoe het systeem werkt en hoe de resultaten geïnterpreteerd dienen te worden.
Vervolgens gaat lid 2 van artikel 13 nog een stapje verder door te verplichten dat ontwikkelaars van systemen duidelijke gebruiksinstructies voor het systeem meesturen. In lid 3 is opgenomen wat ten minste in die aanwijzingen moet staan. Dat is:
- identiteit en contactgegevens van de aanbieder (van het systeem);
- kenmerken, capaciteiten en beperkingen van het ai-systeem met hoog risico, zoals:
- het doel;
- de nauwkeurigheid, robuustheid en cyberbeveiliging;
- eventuele bekende of te voorziene omstandigheden die kunnen leiden tot risico’s voor gezondheid, veiligheid of grondrechten;
- prestaties met betrekking tot de (groepen) personen voor wie systeem wordt gebruikt;
- specificaties voor trainingsdata;
- eventuele wijzigingen van het systeem die op het moment van de eerste conformiteitsbeoordeling (een soort deugdelijkheidsbeoordeling) zijn bepaald;’
- genomen maatregelen met betrekking tot menselijk toezicht
- verwachte levensduur van het systeem en instructies omtrent onderhoud en updates.
Grote kans dat we bovenstaande categorieën van informatie ook terug gaan zien in transparantie- en/of privacyverklaringen naar betrokkenen toe. Immers, de AI Act beoogt transparantie en door de AVG word je verplicht informatie over de verwerking van persoonsgegevens te verstrekken. Ik denk dat je dus goed parallel kan werken aan de transparantieverplichting voor ontwikkelaars, om die informatie te vertalen naar informatie voor betrokkenen. Drie vliegen in één klap zullen we maar zeggen.
Conclusie
De AI-verklaring is een uitstekend middel om aan je klanten/lezers/etc. te tonen dat je hebt nagedacht over het gebruik van AI-tools en deze verantwoord inzet. Hoewel deze verklaring vormvrij is, zijn er enkele onderdelen die handig zijn om op te nemen als je je publiek adequaat wil informeren. Hierbij is het belangrijkste dat je opschrijft wat je keuzes zijn met betrekking tot AI.
Naast de AI-verklaring wordt ook de term transparantieverklaring gebruikt. Nu je deze blog hebt gelezen zie je wellicht in dat ik de AI-verklaring en transparantieverklaring uit elkaar wil houden. Zo zie ik eerstgenoemde als een algemene verklaring over de keuzes die je maakt met betrekking tot AI-gebruik, en laatstgenoemde als een uitwerking van de wettelijk verplichting tot verstrekking van (veelal technische) informatie. Mijn vermoeden is dat de transparantieverklaring dezelfde bekendheid gaat genieten als de privacyverklaring, waardoor ik deze twee op voorhand al gescheiden wil houden. Maar, het kan ook zo zijn dat we in het kader van AI een heel andere vorm van informatieverstrekking gaan gebruiken. Wellicht dat ik over enkele jaren nog eens hier terug kan komen om te kijken of ik het bij het juiste eind had.