De Nationale Cybersecurity certificeringsautoriteit (NCCA) gaat samen met UNESCO de veilige inzet van AI aanjagen. Momenteel onderzoekt UNESCO hoe de toezichthouding rondom AI plaatsvindt wereldwijd. De NCCA zal het internationale orgaan voorzien van feedback en communicatie met de Europese Unie.
De Europese AI Act heeft te maken met een continu verschuivende techwereld, waarbij de ontwikkeling van AI-applicaties nog altijd op hoog tempo verloopt. Er is nog geen uniforme aanpak van AI binnen de EU, zoals bleek uit het tijdelijk verbod op ChatGPT in Italië, bijvoorbeeld.
Trustworthy, Responsible, Ethical AI
Het project van UNESCO en de NCCA hoopt een collectie van best practices te ontwikkelen voor landen omtrent het toezicht op AI. Dit zal concreet leiden tot het opzetten van graadmeters en juridische raamwerken om een “veiligere en meer ethische AI-inzet” te garanderen. Assistentie zal beschikbaar worden voor EU-lidstaten die moeite hebben om wetgeving vorm te geven.
De discussie rondom de ethische inzet van AI heeft inmiddeld veel manifestaties. Zo spreken techbedrijven veelal over Trustworthy AI, waar SAS-topman Reggie Townsend in gesprek met Techzine een uitgebreide uitleg voor aanbood. Daarbij was het zaak dat wetgeving ruimte houdt voor innovatie maar duidelijke, consistente regels voorschrijft.
Tip: Vertrouwen in AI begint voor de eerste coderegel
Echter is er een wolk aan andere AI-concepten die daar deels mee overlappen. Zo hebben Google en Microsoft elk een pagina waarbij zij hun respectievelijke blik op een correcte aanpak van AI uitleggen. Deze principes zegt men op eigen kracht na te leven, los van specifieke wetgeving. Het valt te bezien in hoeverre die overeenkomen met de bevindingen van UNESCO.