Bagi sesiapa sahaja yang mempunyai akses kepada Bard AI Google, jelas sekali ia kalah dalam perlumbaan chatbot terhadap ChatGPT dan Bing AI (tidak pernah terfikir saya akan berkata demikian!). Ia mendapat banyak perkara yang sangat asas salah dan juga merupakan satu-satunya AI yang tidak pasti sama ada ia peka. Google telah mengakui bahawa Bard sedang dalam pembangunan beta awal dan akan melakukan kesilapan. Walau bagaimanapun, pengkritik telah menunjukkan bagaimana ia tidak sepadan dengan pesaingnya. Walaupun bagus untuk beberapa perkara, terutamanya kerana ia dilatih pada Carian Google, ia masih belum mencapai banyak tugas.
Nah, itu sehingga sekarang. Selepas dituduh menggunakan data daripada ChatGPT secara langsung, Ketua Pegawai Eksekutif Google dan Alphabet Sundar Pichai telah menyatakan dalam temu bual di The New York Times Podcast Hard Fork (pujian: The Verge) bahawa “Tidak lama lagi, mungkin apabila [podcast] disiarkan secara langsung, kami akan menaik taraf Bard kepada beberapa model PaLM yang lebih berkebolehan, yang akan membawa lebih banyak keupayaan-sama ada dalam penaakulan, pengekodan atau menjawab soalan matematik.”Beliau juga menyatakan bahawa pengguna akan melihat kemajuan sepanjang minggu hadapan. Kemungkinan besar ia telah pun menerima peningkatan ini dan beberapa individu dalam Bard Discord telah pun menyatakan perkara ini.
Nampaknya, Bard sendiri telah menjalankan”versi LaMDA yang ringan dan cekap,”yang merupakan kontroversi Google model bahasa. Syarikat itu pada dasarnya mengehadkan keupayaan Bard untuk memastikan keselamatan pengguna, seperti yang disahkan oleh Sundar semasa podcast yang disebutkan di atas. Bagaimanapun, dengan peningkatan itu, Bard akan menerima versi LaMDA yang lebih berkuasa yang akan menyuntiknya dengan lebih kecerdasan dan mengembangkan keupayaannya.
Akhir sekali, beliau menjelaskan bahawa adalah penting untuk tidak mengeluarkan yang lebih berkebolehan model sehingga Google dapat memastikan ia selamat untuk pengguna. Google telah berulang kali menyatakan bahawa ia komited terhadap pembangunan AI yang bertanggungjawab dan memastikan modelnya selamat. Minggu ini, industri telah mencadangkan pembekuan model AI baharu dikeluarkan memandangkan ia sangat berkuasa, dan pakar penyelidikan telah bersetuju untuk menilai kebimbangan sebelum menjadi gila dengan revolusi AI baharu ini.