Techbedrijf OpenAI doet te weinig om risico’s te voorkomen met zijn kunstmatige-intelligentiesystemen (AI) zoals ChatGPT en Sora. Een groep van negen huidige en voormalige medewerkers van het bedrijf zegt dat in een open brief.
De (oud-)werknemers spreken van een cultuur van ‘roekeloosheid en geheimzinnigheid’ en ‘keiharde tactieken’ om te voorkomen dat medewerkers kritiek uiten op het bedrijf. Zo zouden medewerkers overeenkomsten moeten tekenen die hen verbieden om zich na vertrek uit te spreken over OpenAI. Effectief toezicht zou ontbreken bij het technedrijf.
Open brief
De groep roept in de open brief op tot meer transparantie en bescherming van klokkenluiders binnen de organisatie.
Vorig jaar ontstond onrust binnen de organisatie. Een deel van de medewerkers wilde de ontwikkeling van kunstmatige intelligentie aanjagen, een ander deel wilde die ontwikkeling juist afremmen. Het leidde tot het ontslag van topman Sam Altman, maar hij keerde kort daarna alweer terug.
Een woordvoerder van OpenAI meldde aan Amerikaanse media dat het bedrijf ‘de meest capabele en veilige AI-systemen’ heeft en openstaat voor discussies daarover.
Bron: NOS