Tiedon Arstechnica (Plusformer), Microsoft on juuri eronnut tekoälyn eettisestä tiimistä yrityksen 10 000 työntekijää koskeneiden joukkoirtisanomisten seurauksena. Tiimi vastasi Microsoft AI-tuotteiden aiheuttamien sosiaalisten haittojen seurannasta ja vähentämisestä.

Microsoft on viime kuukausina ollut otsikoissa ensimmäisestä sijoituksestaan ​​ChatGPT-emoyhtiöön OpenAI:han ja integroimisestaan ​​Bing-hakukoneeseensa.. Kaikilla tuotteisiinsa ja palveluihinsa tekoälyä sisällyttävillä yrityksillä on tiimi, joka tutkii mahdollisia niihin liittyviä vaaroja, mutta Microsoft irtisanoi tekoälyn eettiset tiiminsä jäsenet.

Tiimin kerrotaan kehittäneen”vastuullisen innovaation työkalupakin”Microsoftille. joka auttoi yrityksen insinöörejä ennakoimaan ja eliminoimaan tekoälyn aiheuttamat riskit. Tiimin entiset jäsenet sanovat, että heillä oli keskeinen rooli tekoälyriskien vähentämisessä Microsoftin tuotteissa.

Microsoftin tekoälyn etiikkatiimi jätti yrityksen viimeaikaisten irtisanomisten jälkeen

Vastauksena uutiseen Microsoft ilmoitti olevansa”sitoutunut kehittämään tekoälytuotteita ja-kokemuksia turvallisesti ja vastuullisesti ja tekee niin investoimalla ihmisiin, prosesseihin ja kumppanuuksiin, jotka priorisoivat tämän.”

Yhtiö kertoo myös keskittyneensä vastuullisen tekoälyn toimiston rakentamiseen viimeisen kuuden vuoden aikana. Tämä tiimi pysyy paikallaan ja työskentelee Aether-komitean ja Responsible AI Strategy in Engineeringin kanssa vähentääkseen tekoälyriskejä.

Microsoftin päätös irtisanoa tekoälyn etiikkatiimi osuu samaan aikaan OpenAI:n edistyneimmän tekoälymallin, GPT:n, julkaisun kanssa.-4. Tämä malli on lisätty Microsoft Bingiin, mikä voi herättää entistä enemmän kiinnostusta Googlen kilpailijassa.

Microsoft aloitti tekoälyn eettisen tiimin muodostamisen vuonna 2017, ja tiimissä oli kuulemma 30 jäsentä. The Platformer raportoi, että yritys hajauttaa jäsenet myöhemmin eri osastoille, kun tekoälykilpailu Googlen kanssa kiihtyi. Lopulta Microsoft pienensi tiimiä vain seitsemään henkilöön.

Entiset työntekijät väittivät myös, että Microsoft ei kuunnellut heidän suosituksiaan tekoälypohjaisista työkaluista, kuten Bing Image Creator, joka kopioi taiteilijoiden töitä. Axed työntekijät ovat nyt huolissaan mahdollisista vaaroista, joita tekoäly voi altistaa käyttäjille, kun yrityksessä ei ole ketään, joka sanoisi”ei”mahdollisesti vastuuttomille suunnitelmille.

Categories: IT Info