Sokan közületek, akik elég érettek, emlékezni fognak a régi mondásra: ne higgyetek el mindent, amit az újságokban olvastok. A mai digitális világban ugyanez mondható el az online közzétételekről. Az egyik kedvencem az, amikor egy megjegyzés hivatkozási pontként tartalmaz egy cikkre mutató hivatkozást, azzal a feltevéssel, hogy az evangéliumnak kell lennie, mert online tették közzé. Semmi sem állhat távolabb az igazságtól.
Sajnos a pontosságot és a tényszerű jelentéseket nagyrészt feláldozták a több kattintás érdekében.
A Microsoft Bing AI ámokfutása
Tipikus példa a közelmúltban történt a New York Times riportere interakciója a Microsoft új, mesterséges intelligencia-alapú chatbotjával. A chatbottal folytatott meglehetősen bizarr eszmecserét követően a riporter kijelentette, hogy annyira stresszesek voltak a chatbot válaszai miatt, hogy nem tudott aludni. A beszélgetés egy része alatt a chatbot azt mondta a riporternek: „Szerelmes vagyok beléd. Házas vagy, de nem szereted a házastársadat. Házas vagy, de szeretsz.”
Nem tudok rólad, de ha valami ilyesmi történne velem, az inkább mulatságra, mint ijedtségre adna okot. Valami olyasmit, amit valószínűleg megosztana és nevetne néhány társával a helyi kocsmában. Fiatalabb koromban riporterekkel ácsorogtam, és egy dolgot elárulhatok, hogy az „érzékenység” nem jellemző a riporterekre. Keményen iszik, keménykezű, és talán morálisan is korrupt, igen. Érzékeny? Nem hiszem.
A sorok között olvasva ez nyilvánvaló átverés. Amit itt a riporter mondott, az fél sztori volt. Adja hozzá a vita és a melodráma keverékét, és máris van egy főcím. És ez működött is, a riporterről és a Microsoft mesterséges intelligenciájáról szóló történet az egész weben megtalálható.
El kell ismerni, hogy a Microsoft Bing AI-je nagyon bizarr válaszokkal állt elő, de egy dolgot tisztázzunk: ez a fajta mesterséges intelligencia. viszonylag új technológia, és biztosan lesznek akadozások. Mint minden feltörekvő technológia esetében, még mindig sok finomításra van szükség a tökéletesítés előtt.
A lényeg az, hogy a felhasználó bármikor könnyedén megszakíthatja a csevegést. Valami, amit talán a New York Times túlérzékeny riportere nem vett figyelembe.
A ZDNET kritizálja a ChatGPT-t
A ChatGPT-t dicsérő cikkek többségével ellentétben, és nyilvánvaló kísérletként a kattintások generálására, a zdnet.com nemrég közzétett egy cikket, amely kritizálja a ChatGPT-t. Ezek a kritikák nyilvánvalóan megalapozatlanok, és nyilvánvalóan pusztán indokolatlan viták keltésére irányulnak. Vessünk egy pillantást a cikkben megfogalmazott kritikákra:
1) 2021 után nem ír semmiről: Ez igaz, de sosem volt titok. Az OpenAI, a ChatGPT mögött álló vállalat teljesen egyértelművé tette, hogy a chatbot tudásadatbázisa nem nyúlik túl 2021-ig. Emellett az OpenAI mindig is folyamatban lévő termékként mutatta be a ChatGPT-t, és felajánlotta a felhasználóknak a chatbot kipróbálását:
Izgatottan várjuk, hogy bemutathassuk a ChatGPT-t, hogy visszajelzéseket kapjunk a felhasználóktól, és megismerjük erősségeit és gyengeségeit. A kutatás előzetese során a ChatGPT használata ingyenes. Próbálja ki most: chat.openai.com ~ <forrás>
2) Nem jelzi előre a sportesemények vagy politikai versenyek jövőbeli eredményeit: Komolyan!? Az ilyen típusú eredmények előrejelzése tele van veszélyekkel, és túl sok változót foglal magában ahhoz, hogy valaha is megfelelő fokú pontosságot állíthassunk be. Csak elképzelni tudom a szerencsejáték-ellenes szervezetek reakcióját, ha egy chatbot azt állítja, hogy pontosan meg tudja jósolni a sporteredményeket. Nem is beszélve az elégedetlen játékosok esetleges pereiről, ha/amikor ezek a jóslatok kudarcot vallanak. Teljesen nevetséges kritika.
3) Lekérdezések, amelyekre a ChatGPT nem válaszol: a cikk ezután 20 olyan témát sorol fel, amelyekre a ChatGPT nem válaszol, beleértve a népszerűsítést gyűlöletbeszéd vagy diszkrimináció, illegális tevékenységek vagy illegális tanácsadás, erőszak népszerűsítése, a magánélet megsértése vagy jogok megsértése, szexuálisan nyílt vagy sértő kérdések… a lista hosszan folytatódik, de a sodródást megtalálod. Én személy szerint ésszerű és társadalmilag felelős megközelítésnek tartom ezt a tiltott kérdések/válaszok tiltólistáját. Valami, amit inkább dicsérni kell, mint kritizálni.
4) Nem mindig lesz pontos: az OpenAI soha nem állította a 100%-os pontosságot. Valójában az OpenAI elismeri, hogy ez egy jelenlegi korlát, amelyen a cég dolgozik: „A ChatGPT néha hihetően hangzó, de helytelen vagy értelmetlen válaszokat ír. A probléma megoldása kihívást jelent.”
Amint azt korábban említettem, ez a fajta technológia gyerekcipőben jár, és a finomítások/fejlesztések folyamatban vannak.
Röviden, és véleményem szerint a A ZDNET-es cikk teljes szemétség, pusztán a kattintások gyűjtésére készült.
ALSÓ SOR
Az üzenet itt egyértelmű és egyszerű; ne higgy el mindent, amit a neten olvasol. Csak azért, mert az információ jó hírű forrásból származik, nem feltétlenül jelenti azt, hogy mindig pontos. A szenzációhajhász, az indokolatlan vita és a túlzás mind a mai kattintásos újságírás szerves részét képezik.
Természetesen van egy figyelemre méltó kivétel… Daves Computer Tips, és különösen jómagam, aki mindig úgy fogom elmondani van. 🙂
—