Nieuws

AI-personeel bezorgd over slecht toezicht AI-bedrijven

Grote AI-bedrijven zoals OpenAI en Google Deepmind zijn niet transparant genoeg over de risico's van kunstmatige intelligentie. Financiële belangen dwarsbomen effectief toezicht en de governance van de AI-bedrijven steekt niet goed in elkaar.

Dat schrijven een aantal huidige en voormalige medewerkers van OpenAI en Google Deepmind in een open brief met de titel 'Het recht om te waarschuwen over geavanceerde kunstmatige intelligentie'.

Grote risico’s

De schrijvers denken dat AI "ongeëvenaarde voordelen voor de mensheid" kan opleveren, maar ze zien ook grote risico's, zoals het versterken van ongelijkheid, manipulatie, misinformatie en het verlies van controle over autonome AI-systemen, met als gevolg zelfs het mogelijk uitsterven van de mens. "AI-bedrijven erkennen zelf openlijk deze risico's, evenals overheden wereldwijd."

De medewerkers zeggen goede hoop te hebben dat de risico’s kunnen worden beperkt met behulp van academici, beleidsmakers en de maatschappij. AI-bedrijven hebben volgens hen echter "sterke financiële prikkels" om effectief toezicht te vermijden. "Wij geloven niet dat de huidige corporate governance voldoende is om dit te veranderen."

Geen effectief toezicht

AI-bedrijven beschikken volgens de schrijvers over "belangrijke niet-openbare informatie" over de mogelijkheden en beperkingen van hun systemen, de effectiviteit van beschermende maatregelen en de risiconiveaus van verschillende soorten schade die AI-systemen kunnen aanrichten. "Ze hebben momenteel echter slechts zwakke verplichtingen om deze informatie met regeringen te delen en geen enkele verplichting om informatie te delen met het maatschappelijk middenveld."

Zolang er geen effectief toezicht is vanuit overheden, zien de schrijvers zichzelf daarom als een van de weinigen die de AI-bedrijven publiekelijk ter verantwoording kunnen roepen. "Brede geheimhoudingsovereenkomsten weerhouden ons er echter van onze zorgen openlijk te uiten, behalve naar de bedrijven die momenteel juist mogelijk falen in het aanpakken van deze problemen. De gewone bescherming van klokkenluiders is onvoldoende, omdat die zich richt op illegale activiteiten, terwijl veel van de risico's waar wij ons zorgen over maken nog niet gereguleerd zijn."

Vergelding

De medewerkers zeggen bang te zijn voor verschillende vormen van vergelding vanuit de bedrijven, gezien de ervaringen van eerdere klokkenluiders in de sector. Zij pleiten daarom voor vier maatregelen:

  1. Geen geheimhoudingsovereenkomsten meer die medewerkers ervan weerhouden zich uit te spreken wanneer zij zich zorgen maken over risico's.
  2. Een nieuwe mogelijkheid voor huidige en voormalig medewerkers om geverifieerd, maar anoniem, meldingen te kunnen doen over risico's aan het bestuur, toezichthouders en onafhankelijke organisaties.
  3. Het stimuleren van een werkcultuur waarin openlijk kritiek uiten wordt gesteund, en waarin medewerkers zich openlijk kunnen uitspreken over risico's, op voorwaarde dat bedrijfsgeheimen en intellectueel eigendom beschermd blijven.
  4. Bedrijven moeten stoppen met vergelding tegen klokkenluiders die zich publiekelijk uitspreken, als alle andere manieren om een risico te melden binnen het bedrijf niets opleverden.

De schrijvers zeggen te snappen dat het niet de bedoeling is dat vertrouwelijke informatie onnodig openbaar wordt, maar wijzen erop dat de huidige en voormalige werknemers van AI-bedrijven vrij moeten zijn om hun zorgen openbaar te maken, zolang er geen goede bescherming is van klokkenluiders.

Reactie OpenAI

OpenAI laat in een reactie aan The Guardian weten dat het onder meer een tiplijn heeft voor medewerkers en dat het nieuwe technologie niet uitbrengt zonder adequate beschermingsmaatregelen. Verder zegt het bedrijf dat "rigoureuze debatten cruciaal zijn" vanwege het belang van de technologie en dat het in gesprek blijft met overheden, het maatschappelijk middenveld en andere organisaties.

Ceo Sam Altman heeft in een reactie tegen Vox ook gezegd dat het bedrijf de off-boarding procedures zal veranderen.

Open brief: 'A Right to Warn about Advanced Artificial Intelligence'

Gerelateerd

Aanmelden nieuwsbrief

Ontvang elke werkdag (maandag t/m vrijdag) de laatste nieuwsberichten, opinies en artikelen in uw mailbox.

Bent u NBA-lid? Dan kunt u zich ook aanmelden via uw ledenprofiel op MijnNBA.nl.