Volgens Arstechnica (via Platformer), heeft Microsoft zojuist een AI-ethiekteam ontmanteld na de massale ontslagen binnen het bedrijf waarbij 10.000 werknemers betrokken waren. Het team was verantwoordelijk voor het monitoren en verminderen van de sociale schade veroorzaakt door Microsoft AI-producten.

Microsoft haalde de afgelopen maanden de krantenkoppen voor zijn initiële investering in ChatGPT-moederbedrijf OpenAI en de integratie ervan in zijn Bing-zoekmachine. Terwijl alle bedrijven die AI in hun producten en diensten integreren een team hebben om de mogelijke gevaren te onderzoeken, heeft Microsoft zojuist zijn AI-ethische teamleden ontslagen.

Het team zou naar verluidt een”toolkit voor verantwoorde innovatie”voor Microsoft hebben ontwikkeld dat hielp de ingenieurs van het bedrijf om de door de AI gegenereerde risico’s te voorspellen en te elimineren. Voormalige teamleden zeggen dat ze een sleutelrol speelden bij het beperken van AI-risico’s in Microsoft-producten.

Microsoft AI-ethiekteam heeft het bedrijf verlaten na recente ontslagen

In reactie op het nieuws kondigde Microsoft aan dat het”zich blijft inzetten voor het veilig en verantwoord ontwikkelen van AI-producten en-ervaringen, en doet dit ook door te investeren in mensen, processen en partnerschappen die hier prioriteit aan geven.”

Het bedrijf zegt ook dat het zich de afgelopen zes jaar heeft gericht op het opbouwen van zijn Office of Responsible AI. Dit team blijft op zijn plaats en werkt samen met de Aether-commissie en Responsible AI Strategy in Engineering om AI-risico’s te beperken.

Het besluit van Microsoft om een ​​AI-ethiekteam te ontslaan valt samen met de lancering van OpenAI’s meest geavanceerde AI-model, GPT-4. Dit model is toegevoegd aan Microsoft Bing, wat nog meer interesse kan wekken in de rivaal van Google.

Microsoft begon in 2017 met het vormen van zijn AI-ethiekteam en het team zou naar verluidt 30 leden hebben. The Platformer meldt dat het bedrijf de leden later over verschillende afdelingen verspreidde toen de AI-concurrentie met Google oplaaide. Ten slotte bracht Microsoft het team terug tot slechts zeven mensen.

De voormalige werknemers beweren ook dat Microsoft niet luisterde naar hun aanbevelingen voor AI-gestuurde tools zoals Bing Image Creator die het werk van kunstenaars kopieerden. De ontslagen werknemers maken zich nu zorgen over de mogelijke gevaren die AI kan blootstellen aan gebruikers wanneer er niemand in het bedrijf is om”nee”te zeggen tegen de mogelijk onverantwoordelijke ontwerpen.

Categories: IT Info