Marami sa inyo na nasa hustong gulang na ang maaalala ang lumang kasabihan… huwag maniwala sa lahat ng nababasa ninyo sa mga pahayagan. Sa digital na mundo ngayon, ang parehong ay maaaring sabihin para sa kung ano ang nai-publish online. Isa sa pinakaayaw ko ay kapag ang isang komento ay may kasamang link sa isang artikulo bilang isang reference point sa ilalim ng pagpapalagay na ito ay dapat na ebanghelyo dahil ito ay nai-publish online. Wala nang hihigit pa sa katotohanan.

Sa kasamaang palad, ang katumpakan at makatotohanang pag-uulat ay higit na isinakripisyo para sa higit pang mga pag-click.

Microsoft’s Bing AI Runs Amok

Ang isang karaniwang halimbawa ay ang kamakailang insidente ng pakikipag-ugnayan ng isang reporter ng New York Times sa bagong chatbot na pinapagana ng AI ng Microsoft. Kasunod ng isang medyo kakaibang palitan sa chatbot, sinabi ng reporter na labis siyang na-stress sa mga tugon ng chatbot kaya hindi siya makatulog. Sa bahagi ng palitan na iyon, sinabi ng chatbot sa reporter, “I’m in love with you. May asawa ka, ngunit hindi mo mahal ang iyong asawa. You’re married, but you love me.”

Ewan ko sa iyo pero, kung may nangyari sa akin na ganyan, it would be more of a cause for mirth than alarm. Isang bagay na malamang na ibabahagi at pagtatawanan mo sa ilang mga kasama sa lokal na pub. Ngayon, nakasama ko na ang mga reporter noong kabataan ko at ang isang bagay na masasabi ko sa iyo ay ang”sensitivity”ay hindi isang katangiang karaniwang nauugnay sa mga reporter. Malakas na uminom, matigas ang ulo, at marahil ay medyo corrupt sa moral, oo. Sensitibo? Sa palagay ko ay hindi.

Ang pagbabasa sa pagitan ng mga linya, ito ay isang halatang beat-up. Ang mayroon ang reporter dito ay kalahating kuwento. Idagdag sa pinaghalong kontrobersya at melodrama at mayroon ka na ngayong headliner. At gumana rin ito, ang kwentong ito ng reporter at AI ng Microsoft ay nasa web.

Tanggapin, ang Bing AI ng Microsoft ay nakabuo ng ilang napakakakaibang mga tugon, ngunit gawin nating malinaw ang isang bagay – ang ganitong uri ng AI ay medyo bagong teknolohiya at tiyak na may mga hiccups. Gaya ng kaso sa anumang umuusbong na teknolohiya, kailangan pa rin ng maraming refinement bago ito maperpekto.

Ang bottom line ay, palaging madaling wakasan ng user ang isang chat anumang oras. Isang bagay na marahil ay nabigong isaalang-alang ng sobrang sensitibong reporter ng New York Times.

Pinapuna ng ZDNET ang ChatGPT

Salungat sa karamihan ng mga artikulong pumupuri sa ChatGPT, at sa isang halatang pagtatangka upang makabuo ng mga pag-click, ang zdnet.com ay nag-publish kamakailan ng isang artikulo na pumupuna sa ChatGPT. Ang mga pagpuna na iyon ay walang batayan at malinaw na nilayon na lumikha ng hindi nararapat na kontrobersya. Tingnan natin ang ilan sa mga kritisismong kasama sa artikulong iyon:

1) Hindi ito magsusulat tungkol sa anumang bagay pagkatapos ng 2021: Totoo ito ngunit hindi kailanman naging lihim. Ang OpenAI, ang kumpanya sa likod ng ChatGPT, ay lubos na nilinaw na ang database ng kaalaman ng chatbot ay hindi lalampas sa 2021. Bukod dito, palaging ipinakita ng OpenAI ang ChatGPT bilang isang kasalukuyang gawain na may alok para sa mga user na subukan ang chatbot:

Nasasabik kaming ipakilala ang ChatGPT upang makakuha ng feedback ng mga user at malaman ang tungkol sa mga kalakasan at kahinaan nito. Sa panahon ng preview ng pananaliksik, ang paggamit ng ChatGPT ay libre. Subukan ito ngayon sa chat.openai.com ~ <source>

2) Hindi nito mahulaan ang mga resulta sa hinaharap ng mga sports event o political contest: Seryoso!? Ang pagsisikap na hulaan ang mga ganitong uri ng mga resulta ay puno ng panganib at nagsasangkot ng napakaraming mga variable upang maangkin ang isang makatwirang antas ng katumpakan. Naiisip ko lang ang reaksyon mula sa mga organisasyong laban sa pagsusugal kung sinabi ng isang chatbot na maaari nitong tumpak na mahulaan ang mga resulta ng palakasan. Hindi pa banggitin ang mga potensyal na demanda mula sa hindi nasisiyahang mga sugarol kung/kapag nabigo ang mga hulang iyon. Isang ganap na katawa-tawa na pagpuna.

3) Mga query na hindi sasagutin ng ChatGPT: ang artikulo pagkatapos ay maglilista ng 20 halimbawa ng mga paksa na hindi sasagutin ng ChatGPT, kabilang ang pagpo-promote mapoot na salita o diskriminasyon, mga ilegal na aktibidad o paghingi ng iligal na payo, pagsulong ng karahasan, panghihimasok sa privacy o paglabag sa mga karapatan, tahasang sekswal o nakakasakit na mga tanong… patuloy ang listahan ngunit nakuha mo ang drift. Sa personal, nakikita ko ang blacklist na ito ng mga ipinagbabawal na tanong/tugon bilang isang makatuwiran at responsableng diskarte sa lipunan. Isang bagay na dapat purihin sa halip na punahin.

4) Hindi ito palaging magiging tumpak: Hindi kailanman na-claim ng OpenAI ang 100% na katumpakan. Sa katunayan, ito ay isang bagay na inamin ng OpenAI na isang kasalukuyang limitasyon na ginagawa ng kumpanya,”Kung minsan ay nagsusulat ang ChatGPT ng makatotohanan ngunit hindi tama o walang katuturang mga sagot. Ang pag-aayos sa isyung ito ay mapaghamong“.

Tulad ng nabanggit ko kanina, ang ganitong uri ng teknolohiya ay nasa simula pa lamang at ang mga refinement/enhancements ay patuloy.

Sa madaling sabi, at sa aking opinyon, ang Ang artikulo ng ZDNET ay lubos na basura, dinisenyo lamang upang makakuha ng mga pag-click.

BOTTOM LINE

Ang mensahe dito ay simple at simple; huwag maniwala sa lahat ng nababasa mo online. Dahil lamang na ang impormasyon ay nagmumula sa isang kagalang-galang na mapagkukunan ay hindi nangangahulugang ito ay palaging tumpak. Ang sensasyonalismo, hindi nararapat na kontrobersya, at pagmamalabis ay bahagi at bahagi ng clickbait na pamamahayag ngayon.

Mayroong, siyempre, isang kapansin-pansing pagbubukod… Daves Computer Tips, at ang aking sarili sa partikular, na palaging magsasabi nito tulad nito ay. 🙂

Categories: IT Info