De strijd om kunstmatige intelligentie leidde tot de geboorte van Google’s Bard AI-chatbot, een rivaal van de Bing ChatGPT-chatbot. Maar sommige werknemers bij Google hebben niet zo’n hoge dunk van Bard als hun werkgevers willen, zo lijkt het. Wat kan precies de reden zijn achter de afwijzing die Bard van zijn mensen krijgt?
Nou, velen zouden kunnen beweren dat de rapporten vermelden slechts een onbeduidend aantal Google-medewerkers. Sommige mensen die deze lijst vormen van degenen die tegen Bard schoppen, zijn ex-Google-medewerkers. Maar hoe groot de tegenstand ook is, het is verstandig om rekening te houden met de reden voor hun afkeer.
Het komt neer op de mogelijkheden van de Bard AI-chatbot wanneer deze door mensen wordt gebruikt. De geschetste problemen zijn ook het geval bij Bards grootste rivaal, de Bing AI-chatbot. Grappig genoeg hebben de medewerkers van Google dit AI-platform bestempeld als”erger dan nutteloos”. Dit klinkt een beetje te hard van Googlers, waardoor meer aandacht wordt gevestigd op de prestaties van Bard.
Door de misleidende reacties van de Bard AI-chatbot van Google is deze door de makers onder de loep genomen
De afgelopen maanden heeft Microsoft de krantenkoppen gehaald als resultaat van de integratie van ChatGPT in zijn browser. Dit bracht de AI-chatbot naar Bing en Skype, maar gebruikers hebben enkele tekortkomingen kunnen ontdekken. Deze fouten zijn het gevolg van het feit dat de Bing AI-chatbot de grenzen van een gesprek niet kent, gebruikers bedreigt en informatie vervalst.
Kort nadat Microsoft de integratie van ChatGPT in Bing aankondigde, was Google al bezig met de voorbereidingen om aan te kondigen de Bard AI-chatbot. Welnu, het lijkt erop dat Google-medewerkers wijzen op merkbare gebreken in de AI-chatbot, na de komst ervan.
Deze gebreken lijken veel op de gebreken die in de schijnwerpers kwamen met de ChatGPT-chatbot. Bard geeft nu valse informatie aan gebruikers en geeft gevaarlijk advies, waardoor de veiligheid van de gebruiker in gevaar komt. De haast van Google is mogelijk de belangrijkste oorzaak van deze problemen waarop hun werknemers wijzen in het gebruik van Bard.
Mensen hebben het interne veiligheidsteam geadviseerd de chatbot niet te lanceren. In plaats daarvan worden deze fouten verholpen om de lancering van een stabieler en gebruiksvriendelijker product te bevorderen. Nu zal Google zich moeten concentreren op het oplossen van deze problemen om ervoor te zorgen dat degenen die dit product gebruiken veilige en nauwkeurige antwoorden voor hun zoekopdrachten kunnen krijgen.
Net als de Bing AI-chatbot van Microsoft, wordt Bard geleverd met enkele gebreken. Velen zullen misschien beweren dat het normaal is voor elk nieuw AI-product, maar dergelijke problemen dwingen bepaalde landen om AI-chatbots te verbieden. De AI-chatbot-industrie moet worden verfijnd voordat deze bij de meerderheid kan worden beschouwd als veilig voor gebruik.