Banyak dari Anda yang cukup dewasa akan mengingat pepatah lama… jangan percaya semua yang Anda baca di koran. Di dunia digital saat ini, hal yang sama berlaku untuk apa yang dipublikasikan secara online. Salah satu hal yang membuat saya kesal adalah ketika sebuah komentar menyertakan tautan ke sebuah artikel sebagai titik referensi dengan asumsi bahwa itu pasti Injil karena telah dipublikasikan secara online. Tidak ada yang lebih jauh dari kebenaran.
Sayangnya, akurasi dan pelaporan faktual sebagian besar telah dikorbankan demi lebih banyak klik.
Bing AI Microsoft Runs Amok
Contoh umumnya adalah insiden baru-baru ini interaksi reporter New York Times dengan chatbot bertenaga AI Microsoft yang baru. Setelah percakapan yang agak aneh dengan chatbot, reporter tersebut menyatakan bahwa dia sangat tertekan dengan tanggapan chatbot sehingga dia tidak bisa tidur. Selama bagian dari percakapan itu, chatbot memberi tahu reporter, “Saya jatuh cinta dengan Anda. Anda sudah menikah, tetapi Anda tidak mencintai pasangan Anda. Kamu sudah menikah, tapi kamu mencintaiku.”
Aku tidak tahu tentang kamu, tetapi jika hal seperti itu terjadi padaku, itu akan lebih menimbulkan kegembiraan daripada alarm. Sesuatu yang mungkin akan Anda bagikan dan tertawakan dengan beberapa teman di pub setempat. Sekarang, saya telah bergaul dengan wartawan di masa muda saya dan satu hal yang dapat saya katakan kepada Anda adalah bahwa”kepekaan”bukanlah karakteristik yang umumnya diasosiasikan dengan wartawan. Peminum berat, keras kepala, dan mungkin agak korup secara moral, ya. Peka? Saya kira tidak.
Membaca yang tersirat, ini jelas merupakan kesalahan. Apa yang dimiliki reporter di sini adalah setengah cerita. Tambahkan campuran kontroversi dan melodrama dan Anda sekarang memiliki headliner. Dan berhasil juga, kisah reporter dan AI Microsoft ini tersebar di seluruh web.
Memang, Bing AI Microsoft memberikan beberapa tanggapan yang sangat aneh, tetapi mari kita perjelas satu hal – jenis AI ini adalah teknologi yang relatif baru dan pasti ada cegukan. Seperti halnya dengan teknologi yang sedang berkembang, masih banyak penyempurnaan yang diperlukan sebelum disempurnakan.
Intinya adalah, pengguna selalu dapat dengan mudah mengakhiri obrolan kapan saja. Sesuatu yang mungkin gagal dipertimbangkan oleh reporter New York Times yang terlalu sensitif.
ZDNET Mengkritik ChatGPT
Bertentangan dengan sebagian besar artikel yang memuji ChatGPT, dan dalam upaya nyata untuk menghasilkan klik, zdnet.com baru-baru ini menerbitkan artikel yang mengkritik ChatGPT. Kritik tersebut jelas tidak berdasar dan jelas dimaksudkan murni untuk menciptakan kontroversi yang tidak semestinya. Mari kita lihat beberapa kritik yang disertakan dalam artikel tersebut:
1) Tidak akan menulis apa pun setelah tahun 2021: Ini benar tetapi tidak pernah menjadi rahasia. OpenAI, perusahaan di balik ChatGPT, telah memperjelas bahwa basis data pengetahuan chatbot tidak melampaui tahun 2021. Selain itu, OpenAI selalu menghadirkan ChatGPT sebagai pekerjaan yang sedang berjalan dengan tawaran bagi pengguna untuk mencoba chatbot:
Kami sangat senang memperkenalkan ChatGPT untuk mendapatkan umpan balik pengguna dan mempelajari kekuatan dan kelemahannya. Selama pratinjau penelitian, penggunaan ChatGPT gratis. Coba sekarang di chat.openai.com ~ <sumber>
2) Tidak akan memprediksi hasil acara olahraga atau kontes politik di masa mendatang: Dengan serius!? Mencoba memprediksi jenis hasil ini penuh dengan bahaya dan melibatkan terlalu banyak variabel untuk mengklaim tingkat akurasi yang masuk akal. Saya hanya bisa membayangkan reaksi dari organisasi anti-perjudian jika chatbot mengklaim dapat memprediksi hasil olahraga secara akurat. Belum lagi potensi tuntutan hukum dari penjudi yang tidak puas jika prediksi tersebut gagal. Kritik yang benar-benar konyol.
3) Pertanyaan yang tidak akan ditanggapi oleh ChatGPT: artikel tersebut kemudian mencantumkan 20 contoh topik yang tidak akan ditanggapi oleh ChatGPT, termasuk promosi ujaran kebencian atau diskriminasi, aktivitas ilegal atau meminta nasihat ilegal, mempromosikan kekerasan, melanggar privasi atau melanggar hak, pertanyaan yang eksplisit atau menyinggung secara seksual… daftarnya terus bertambah tetapi Anda mengerti maksudnya. Secara pribadi, saya melihat daftar hitam pertanyaan/tanggapan yang dilarang ini sebagai pendekatan yang masuk akal dan bertanggung jawab secara sosial. Sesuatu yang harus dipuji daripada dikritik.
4) Itu tidak selalu akurat: OpenAI tidak pernah mengklaim akurasi 100%. Faktanya, itu adalah sesuatu yang diakui OpenAI sebagai batasan saat ini yang sedang dikerjakan perusahaan, “ChatGPT terkadang menulis jawaban yang terdengar masuk akal tetapi salah atau tidak masuk akal. Memperbaiki masalah ini sangat menantang“.
Seperti yang saya sebutkan sebelumnya, jenis teknologi ini masih dalam tahap awal dan penyempurnaan/peningkatan sedang berlangsung.
Singkatnya, dan menurut pendapat saya, Artikel ZDNET benar-benar sampah, dirancang murni untuk mengumpulkan klik.
BOTTOM LINE
Pesan di sini jelas dan sederhana; jangan percaya semua yang Anda baca online. Hanya karena informasi tersebut berasal dari sumber yang memiliki reputasi baik, tidak berarti informasi tersebut selalu akurat. Sensasionalisme, kontroversi yang tidak semestinya, dan berlebihan adalah bagian dari jurnalisme clickbait hari ini.
Tentu saja ada satu pengecualian penting… Daves Computer Tips, dan saya khususnya, yang akan selalu menceritakannya seperti itu adalah. 🙂
—