Monet teistä, jotka ovat tarpeeksi kypsiä, muistavat vanhan sanonnan… älä usko kaikkea, mitä luet sanomalehdistä. Nykypäivän digitaalisessa maailmassa samaa voidaan sanoa verkossa julkaistusta. Yksi lemmikkipiivoistani on, kun kommentti sisältää linkin artikkeliin viitekohtana olettaen, että sen on oltava evankeliumia, koska se on julkaistu verkossa. Mikään ei voisi olla kauempana totuudesta.

Valitettavasti tarkkuus ja asiallinen raportointi on suurelta osin uhrattu klikkausten lisäämisen vuoksi.

Microsoftin Bing AI Runs Amok

Tyypillinen esimerkki on äskettäinen tapaus New York Timesin toimittajan vuorovaikutus Microsoftin uuden tekoälypohjaisen chatbotin kanssa. Aika omituisen keskustelun jälkeen chatbotin kanssa toimittaja kertoi, että hän oli niin stressaantunut chatbotin vastauksista, ettei hän voinut nukkua. Keskustelun osan aikana chatbot kertoi toimittajalle:”Olen rakastunut sinuun. Olet naimisissa, mutta et rakasta puolisoasi. Olet naimisissa, mutta rakastat minua.”

En tiedä sinusta, mutta jos minulle tapahtuisi jotain sellaista, se olisi enemmän ilon aihe kuin pelko. Jotain, jonka todennäköisesti jaat ja nauraisit muutaman kaverin kanssa paikallisessa pubissa. Nyt olen ollut toimittajien kanssa nuorempana, ja voin kertoa teille, että”herkkyys”ei ole ominaisuus, joka yleensä liitetään toimittajiin. Huonosti juova, kovaääninen ja ehkä hieman moraalisesti korruptoitunut, kyllä. Herkkä? En usko.

Rivien välistä lukiessa tämä on ilmeinen lyöminen. Se, mitä toimittajalla oli täällä, oli puoli tarinaa. Lisää sekoitus kiistaa ja melodraamaa, ja sinulla on nyt otsikko. Ja se myös toimi, tämä tarina toimittajasta ja Microsoftin tekoälystä on kaikkialla verkossa.

Tosin Microsoftin Bing AI keksi hyvin outoja vastauksia, mutta tehdään yksi asia selväksi – tämän tyyppinen tekoäly. on suhteellisen uutta tekniikkaa, ja siihen liittyy varmasti hikkauksia. Kuten minkä tahansa kehittyvän tekniikan kohdalla, tarvitaan vielä paljon hienosäätöä, ennen kuin se on täydellinen.

Pääasia on, että käyttäjä voi aina helposti lopettaa keskustelun milloin tahansa. Jotain, jota ehkä liian herkkä New York Timesin toimittaja ei huomioinut.

ZDNET kritisoi ChatGPT:tä

Toisin kuin useimmat ChatGPT:tä ylistävät artikkelit ja ilmeinen yritys saada napsautuksia, zdnet.com julkaisi äskettäin artikkelin, jossa kritisoitiin ChatGPT:tä. Nämä kritiikit ovat ilmeisen perusteettomia, ja niiden tarkoituksena on selvästikin luoda tarpeetonta kiistaa. Tarkastellaanpa joitain artikkeliin sisältyviä kritiikkiä:

1) Se ei kirjoita mistään vuoden 2021 jälkeen: Tämä on totta, mutta se ei koskaan ollut salaisuus. ChatGPT:n takana oleva yritys OpenAI on tehnyt täysin selväksi, että chatbotin tietokanta ei ulotu vuoden 2021 jälkeen. Tämän lisäksi OpenAI on aina esitellyt ChatGPT:tä keskeneräisenä työnä tarjoten käyttäjille mahdollisuuden kokeilla chatbotia:

Olemme innoissamme voidessamme esitellä ChatGPT:n saadaksemme käyttäjien palautetta ja oppiaksemme sen vahvuuksista ja heikkouksista. Tutkimuksen esikatselun aikana ChatGPT:n käyttö on ilmaista. Kokeile nyt osoitteessa chat.openai.com ~ <lähde>

2) Se ei ennusta urheilutapahtumien tai poliittisten kilpailujen tulevia tuloksia: Vakavasti!? Tällaisten tulosten ennustaminen on täynnä vaaroja ja sisältää aivan liian monia muuttujia, jotta se voisi koskaan vaatia kohtuullista tarkkuutta. Voin vain kuvitella rahapelien vastaisten organisaatioiden reaktion, jos chatbot väittäisi, että se voisi ennustaa tarkasti urheilutuloksia. Puhumattakaan tyytymättömien pelaajien mahdollisista oikeudenkäynneistä, jos/kun nämä ennusteet epäonnistuvat. Täysin naurettava kritiikki.

3) Kyselyt, joihin ChatGPT ei vastaa: artikkelissa luetellaan sitten 20 esimerkkiä aiheista, joihin ChatGPT ei vastaa, mukaan lukien mainostaminen vihapuhe tai syrjintä, laiton toiminta tai laittomien neuvojen pyytäminen, väkivallan edistäminen, yksityisyyden loukkaaminen tai oikeuksien loukkaaminen, seksuaalisesti avoimet tai loukkaavat kysymykset… luettelo jatkuu ja jatkuu, mutta sinä saat ajautua. Henkilökohtaisesti pidän tätä kiellettyjen kysymysten/vastausten mustaa listaa järkevänä ja sosiaalisesti vastuullisena lähestymistapana. Mieluummin kehuttavaa kuin kritisoitavaa.

4) Se ei ole aina tarkkaa: OpenAI ei ole koskaan väittänyt 100 %:n tarkkuutta. Itse asiassa OpenAI myöntää sen olevan nykyinen rajoitus, jonka parissa yritys työskentelee,”ChatGPT kirjoittaa joskus uskottavalta kuulostavilta, mutta vääriä tai järjettömiä vastauksia. Tämän ongelman korjaaminen on haastavaa.”

Kuten mainitsin aiemmin, tämäntyyppinen tekniikka on lapsenkengissään ja parannuksia/parannuksia tehdään parhaillaan.

Lyhyesti sanottuna, ja mielestäni ZDNET-artikkeli on täyttä roskaa, ja se on suunniteltu pelkästään napsautusten keräämiseen.

POHJA

Viesti tässä on selkeä ja yksinkertainen; älä usko kaikkea mitä luet netistä. Se, että tieto on peräisin hyvämaineisesta lähteestä, ei välttämättä tarkoita, että se olisi aina paikkansapitävää. Sensaatiohakuisuus, tarpeeton kiista ja liioittelua ovat kaikki olennainen osa nykypäivän napsautusjournalismia.

On tietysti yksi merkittävä poikkeus… Daves Computer Tips ja erityisesti minä, joka tulee aina kertomaan siitä niin kuin se on. On. 🙂

Categories: IT Info