3 min Analytics

Google introduceert principes voor verantwoordelijke AI

Google introduceert principes voor verantwoordelijke AI

Google heeft een een aantal principes voorgesteld voor verantwoordelijker ontwikkelen van AI-oplossingen. Hiermee wil de techgigant een duit in het zakje doen binnen de ethische discussie over de mogelijkheden van AI-oplossingen.

Met de opkomst van AI tools als ChatGPT, GPT-4 en Bard is de discussie over ethisch gebruik flink toegenomen. Daarbij wordt gewezen op de mogelijke risico’s die deze diensten met zich mee kunnen brengen. De roep op wet- en regelgeving rondom de nieuwe AI-mogelijkheden neemt daarom toe.

Google en ethiek rondom AI

In een blog geeft Google aan dat binnen deze discussie het mes aan twee kanten snijdt. In de eerste plaats moeten de gevaren en risico’s van de nieuwe diensten worden tegen gegaan. Maar aan de andere kant moet ook goed in de gaten worden gehouden dat deze diensten wel veel voordelen brengen. Bijvoorbeeld voor het voorspellen van rampen of het ontwikkelen van zeer doeltreffende medicijnen.

Ook moet er, volgens de techgigant, rekening mee worden gehouden dat AI en de daaruit voortvloeiende tools nog steeds opkomende technologie is. Dit betekent dat het in kaart brengen van risico’s en mogelijkheden zich uitstrekt “tot voorbij mechanische programmeerregels tot aan trainingsmodellen en het vaststellen van uitkomsten.”

Google beseft dat voor een goede ethische ontwikkeling en gebruik van AI wel regelgeving moet komen. Hierbij werkt de techgigant naar eigen zeggen al samen met verschillende organisaties.

Principes voor risicobeperking

De techgigant presenteert nu principes die moeten gelden voor de regelgeving waarmee de risico’s rondom AI zoveel mogelijk kunnen worden beperkt. Ook moeten ze zorgdragen voor een goede verantwoordelijkheid rondom de technologie.

In de eerste plaats moeten de nieuwe regels rondom AI gebouwd zijn op bestaande wet- en regelgeving. Dit laat zien dat er al een hoop regelgeving op dit terrein aanwezig is, onder meer voor privacy en veiligheid of voor andere zaken rondom het gebruik van AI-applicaties.

In de tweede plaats moet er een proportioneel op risico’s gebaseerd framework komen die zich specifiek op applicaties richt. Hiermee wordt aangegeven dat AI een technologie is die voor meerdere taken geldt. Dit roept volgens Google op tot meer maatwerk en een meer verspreide verantwoordelijkheid voor ontwikkelaars, uitrollers en eindgebruikers.

Ten derde moet een interoperabele werkwijze voor AI-standaarden en -governance worden gestimuleerd. Dit moet in een internationaal kader plaatsvinden.

Verwachtingen, interoperabiliteit en transparantie

Als vierde principe geeft Google aan dat dezelfde verwachtingen moeten gelden voor zowel niet op AI gebaseerde systemen als voor wel op AI gebaseerde systemen. Hierdoor zouden zelfs de meest imperfecte AI-systemen zichzelf op de bestaande processen kunnen verbeteren.

Als vijfde en laatste principe stelt Google dat AI-ontwikkelaars transparantie moeten tonen in hun werkzaamheden en de mogelijkheden van hun oplossingen. Hierdoor wordt er meer vertrouwen gekweekt en het stelt eindgebruikers in staat het beste uit deze ontwikkelingen te halen.

Als voorbeeld van AI-frameworks die veel van deze principes nu al omarmen, noemt Google het U.S. National Institute of Standards and Technology AI Risk Management Framework en het AI Principles and AI Policy Observatory framework van de economische samenwerkings- en belangenorganisatie van de Verenigde Naties, de OECD.

Lees ook: “Ontwikkeling AI-modellen moet worden gepauzeerd voor veiligheidsmaatregelen”