Il était une fois, comme il y a deux ans en 2021, Alphabet Inc.-la société mère de Google LLC-s’est engagée à étudier l’éthique de l’IA. Eh bien, un groupe dédié à l’éthique concernant l’IA existait déjà chez Google et ils se sont efforcés de fournir des commentaires sur la moralité des produits de l’entreprise.
Ainsi, avant mars 2023-qui marque la sortie de Bard à un groupe ou à des individus fermés-le”comité d’éthique”a travaillé dur pour convaincre Google que Bard n’était pas exactement prêt pour un déploiement même limité.
Malgré cela, cependant, la société a procédé comme prévu et a publié Bard, apparemment dans le seul but d’avoir un concurrent existant pour ChatGPT et OpenAI de Microsoft. Cela, à son tour, a laissé le groupe d’éthique démoralisé et en ruine, car de nombreux acteurs clés ont quitté Google peu de temps après.
Google a-t-il renoncé à l’éthique juste pour libérer Bard plus tôt ?
Bard peut faire bien plus que bavarder et fournir des informations. La composition, le codage et le rendu d’image font partie de ses nombreux talents.
Bloomberg rapporte que Google a apparemment fourni des informations de mauvaise qualité à Bard juste pour qu’il puisse les dévoiler plus tôt. Ces informations sont étayées par des documents internes de l’entreprise examinés, mais non spécifiés, et par les propos de membres existants et anciens du groupe d’éthique.
Naturellement, le Big G n’a pas pris cela par terre. Il affirme que l’éthique est toujours une priorité absolue concernant Bard et l’IA en général. Et cela n’a de sens, étant donné que Google a hésité à se lancer dans l’IA pendant des années, exactement à cause des dilemmes moraux.
Pourtant, il a apparemment fallu la concurrence croissante pour que l’entreprise change sa position globale sur la manière. ChatGPT et OneAI-et toute autre IA d’ailleurs-n’existeraient pas sans les propres recherches de Google, alors est-ce mal de vouloir un morceau du délicieux gâteau, si vous avez cultivé les ingrédients pour cela ?
Google Barde: menteur pathologique ou apprenant vite ?
Imaginez maintenant un Pixel X Pro avec des tonnes de fonctionnalités exclusives, propulsé par Bard. N’est-ce pas un produit ?
Et Google est convaincu que tous les contrôles de sécurité ont été mis en place avant de lancer Bard… en tant qu’expérience et non en tant que produit. Ce label est-il une forme de prévention des risques ? Et si c’est le cas, comment est-il possible que nous attendions de nombreuses fonctionnalités pour des services tels que Docs, Slides, Gmail et YouTube-qui sont en fait des produits autonomes-alimentés par ladite expérience ? Est-ce éthique ?
Le groupe d’éthique de Google a une réponse et c’est l’hésitation. L’hésitation à s’exprimer et à discuter, car ils auraient reçu un”Vous essayez juste de ralentir le processus”en réponse. L’éthique a-t-elle pris le pas sur les entreprises commerciales ? Nourriture pour la pensée.
Avant de lancer Bard en mars, Google accordait l’accès à l’IA en interne à ses employés afin de recueillir des commentaires. Voici quelques extraits de ce que les employés de Google avaient à dire à propos de Bard : Menteur pathologique Digne de grincer des dentsA fourni des conseils qui se termineraient par un désastre”… pire qu’inutile : s’il vous plaît, ne lancez pas”
Google a quand même lancé Bard. Mais voici une perspective différente: un accès limité, mais toujours public, est une opportunité pour Bard d’apprendre et de se corriger. Après tout, Google est prolifique en termes d’algorithmes, est-il donc exagéré d’imaginer une réalité où tout cela fait partie d’un véritable plan pour permettre à Bard d’apprendre et de grandir, tout comme ChatGPT l’avait fait dans le passé ?
Encore : matière à réflexion.