De kunstmatige intelligentie van Google heeft een opmerkelijke prestatie geleverd: een vreemde taal leren zonder enige menselijke hulp. Deze verbazingwekkende prestatie heeft de technologiegigant Mountain View perplex gemaakt, omdat ze nog moeten begrijpen hoe de AI erin is geslaagd dit te doen.
In een recent interview met CBS, Sundar Pichai, CEO van Google, besprak de voorzichtige aanpak van het bedrijf kunstmatige intelligentie. De afgelopen jaren heeft Google verschillende AI-projecten uitgesteld vanwege zorgen over beveiligings-en imagorisico’s. Door deze voorzichtigheid konden concurrenten als OpenAI en Microsoft een voorsprong nemen in de AI-race, ook al beschikte Google over alle benodigde middelen om zichzelf als pionier in het veld te vestigen.
Google’s AI verrast de technische wereld door te leren een nieuwe taal op zich!
Sundar Pichai benadrukt het belang van verantwoordelijkheid bij de ontwikkeling van AI.”We moeten allemaal bij elke stap onze verantwoordelijkheid nemen”, zegt hij. De strategie van Google voor het lanceren van zijn chatbot, Bard, is een voorbeeld van deze voorzichtige aanpak. In plaats van een wereldwijde release koos Google voor een geleidelijke uitrol, te beginnen met de Verenigde Staten en het Verenigd Koninkrijk.
Volgens Pichai wil het bedrijf “robuuste beveiligingslagen ontwikkelen alvorens efficiënter te bouwen en uit te rollen. modellen.” Google gebruikte aanvankelijk het LaMDA-model (Language Model for Dialogue Applications) voor Bard. Na verloop van tijd werden functies van een beter presterend taalmodel, Pathways Language Model (PaLM), geïntegreerd. PaLM beschikt over 540 miljard parameters, in tegenstelling tot de 137 miljard van LaMDA.
Generatieve kunstmatige intelligenties kunnen echter soms onverwacht gedrag vertonen. Daarom benadrukt Sundar Pichai om voorzichtig te werk te gaan en AI-reacties nauwlettend in de gaten te houden. Uit onderzoek van Google blijkt dat taalmodellen af en toe zelfstandig nieuwe vaardigheden kunnen leren, zonder kennis van programmeurs. Het bedrijf verwijst naar dit raadselachtige fenomeen als”opkomende eigenschappen”.
Een experimentele AI ontwikkeld door Google dient als een goed voorbeeld van deze opkomende eigenschappen. De AI leerde met succes Bengaals, de taal van Bangladesh, ondanks dat ze daarvoor niet was opgeleid. James Manyika, Senior Vice President of Technology bij Google, legt uit dat er maar een paar Bengaalse zoekopdrachten nodig waren voordat de AI zich aanpaste aan de onbekende taal:”We ontdekten dat hij met heel weinig Bengaalse zoekopdrachten nu al het Bengaals kan vertalen.”
Gizchina Nieuws van de week
Het concept van opkomende eigenschappen komt voort uit het kernprincipe van machine learning: een machine leert autonoom op basis van beschikbare data, zonder menselijke tussenkomst. Gezien dit is het niet geheel verrassend dat een AI een taal kan leren zonder hulp van een programmeur. De specifieke manier waarop de AI Bengaalse kennis verwierf, blijft echter een mysterie voor Google-ingenieurs.
Google AI imiteert het menselijk brein
Sundar Pichai geeft toe dat anomalieën in AI een”zwart doos”. Dit betekent dat we niet weten hoe ze intern werken. Hij geeft toe: “Weet je, je begrijpt het niet helemaal. En je kunt niet helemaal zeggen waarom hij dat zei, of waarom hij ongelijk had. We hebben enkele ideeën en ons vermogen om te begrijpen verbetert in de loop van de tijd.”
De CEO van Google praat over AI en nederigheid. Hij zegt dat de menselijke geest ook mysterieus is. We weten er niet alles van. Terwijl AI zich blijft ontwikkelen, is het van cruciaal belang voor techreuzen zoals Google om waakzaam en voorzichtig te blijven. Zorgen voor een verantwoorde ontwikkeling en implementatie van deze krachtige technologieën.
Kortom, de AI van Google heeft een indrukwekkend vermogen aangetoond om een vreemde taal te leren zonder menselijke tussenkomst. Het bedrijf liet zich in verwarring brengen over de exacte mechanismen achter deze prestatie. Het fenomeen van opkomende eigenschappen bij de ontwikkeling van AI benadrukt hoe belangrijk het is om voorzichtig te werk te gaan en het gedrag van AI nauwlettend in de gaten te houden. Kunstmatige intelligentie wordt steeds geavanceerder. We moeten nederig en verantwoordelijk zijn. Dit zorgt voor een veilige en ethische ontwikkeling van AI.
Bron/VIA: