llya Sutskever, medeoprichter en voormalig chief scientist van OpenAI, begint een nieuw AI-bedrijf dat zich richt op veiligheid. Het bedrijf heet Safe Superintelligence Inc. (SSI). De startup biedt ‘één doel en één product’: het creëren van een veilig en krachtig AI-systeem.
SSI wordt beschreven als een start-up die zijn AI-systeem snel kan ontwikkelen terwijl veiligheid de grootste prioriteit heeft. In de aankondiging wordt ook de externe druk genoemd waarmee AI-teams bij bedrijven als OpenAI, Google en Microsoft vaak te maken hebben. Door de focus op veiligheid ‘spelen managementoverhead of productcycli geen rol’.
Andere oprichters van het bedrijf zijn Daniel Gross, een voormalige AI-manager bij Apple, en Daniel Levy, die eerder werkte als technisch medewerker bij OpenAI.
Conflict OpenAI
Vorig jaar was Sutskever verantwoordelijk voor de actie om OpenAI-ceo Sam Altman te ontslaan. Sutskever verliet OpenAI afgelopen mei en zinspeelde al op de start van een nieuw project. Kort na zijn vertrek kondigden ook andere medewerkers aan op te stappen vanwege veiligheidsissues.