Voor iedereen die toegang heeft tot de Bard AI van Google, is het duidelijk dat het de chatbotrace tegen ChatGPT en Bing AI aan het verliezen is (nooit gedacht dat ik dat zou zeggen!). Het krijgt een aantal zeer basale dingen verkeerd en is ook de enige AI die niet zeker weet of het bewust is. Google heeft erkend dat Bard zich in een vroege bètafase bevindt en fouten zal maken. Critici hebben er echter op gewezen hoe het verbleekt in vergelijking met zijn concurrenten. Hoewel het voor sommige dingen geweldig is, vooral omdat het is getraind op Google Zoeken, kan het gewoon nog niet veel taken aan.
Nou, tot nu toe. Sundar Pichai, CEO van Google en Alphabet, werd beschuldigd van het rechtstreeks gebruiken van gegevens van ChatGPT. hard-fork-sundar.html?”target=”_blank”>Hard Fork-podcast (kudos: The Verge) dat “vrij binnenkort, misschien als de [podcast] live gaat, we Bard zullen upgraden naar enkele van onze meer capabele PaLM-modellen, die meer mogelijkheden zullen bieden-of het nu gaat om redeneren, coderen of het beantwoorden van wiskundige vragen. Hij verklaarde ook dat gebruikers in de loop van de volgende week vooruitgang zouden zien. Het is zeer waarschijnlijk dat het deze upgrades al ontvangt, en sommige individuen in de Bard Discord hebben hier al op gewezen.
Blijkbaar draait Bard zelf op een”lichtgewicht en efficiënte versie van LaMDA”, wat Google’s controversiële taal model. Het bedrijf heeft in feite de mogelijkheden van Bard beperkt om de veiligheid van de consument te waarborgen, zoals bevestigd door Sundar tijdens de eerder genoemde podcast. Met de upgrade krijgt Bard echter een krachtigere versie van LaMDA die het met meer intelligentie zal injecteren en zijn mogelijkheden zal uitbreiden.
Ten slotte legde hij uit dat het belangrijk was om geen capabeler model totdat Google ervoor kon zorgen dat het veilig was voor consumenten. Google heeft herhaaldelijk bevestigd dat het zich inzet voor verantwoorde AI-ontwikkeling en ervoor zorgt dat zijn modellen veilig zijn. Deze week heeft de industrie voorgesteld om de release van nieuwe AI-modellen te bevriezen omdat ze zo krachtig zijn, en onderzoeksexperts zijn overeengekomen om de zorgen te beoordelen voordat ze gek worden van deze nieuwe AI-revolutie.