Depuis le lancement de ChatGPT, il y a eu une prépondérance de chatbots IA comme ChatGPT. Cependant, la propagation de ces chatbots signifie également que des problèmes se préparent. En vérité, OpenAI a surpris le monde avec la capacité de ChatGPT. Pour cette raison, il y a eu de nombreuses objections à son utilisation et certaines impliquent même des batailles juridiques. Cependant, aux États-Unis, le pays d’origine de ChatGPT, la loi peut simplement protéger ChatGPT. L’article 230 de la loi américaine sur la décence des communications publiée en 1996 stipule qu’une entreprise n’a pas à assumer la responsabilité légale du contenu publié par des tiers ou des utilisateurs sur sa plate-forme (article 230).
Toutefois, la Cour suprême des États-Unis décidera dans les prochains mois d’affaiblir ou non cette protection. Cela peut également avoir un impact sur les chatbots IA tels que ChatGPT. Les juges devraient statuer d’ici la fin juin sur la question de savoir si YouTube, propriété d’Alphabet, peut être poursuivi pour avoir recommandé des vidéos aux utilisateurs. Bien que les plates-formes soient exonérées de toute responsabilité pour les vidéos téléchargées par les utilisateurs, les protections de la section 230 s’appliquent-elles toujours lorsqu’elles utilisent des algorithmes pour recommander du contenu aux utilisateurs ?
Les experts technologiques et juridiques affirment que l’affaire a des implications au-delà des plateformes de médias sociaux. Ils pensent que le verdict pourrait déclencher un nouveau débat sur la question de savoir si des entreprises telles que OpenAI et Google, qui développent des chatbots IA, peuvent être à l’abri de poursuites judiciaires telles que la diffamation ou l’atteinte à la vie privée. Les experts soulignent que cela est dû au fait que l’algorithme utilisé par ChatGPT et d’autres est similaire à la façon dont il recommande des vidéos aux utilisateurs de YouTube.
Que font les chatbots IA ?
Les chatbots IA sont formés pour générer de grandes quantités de contenu original, et l’article 230 s’applique généralement au contenu de tiers. Les tribunaux doivent encore déterminer si les réponses des chatbots IA seraient protégées. Un sénateur démocrate a déclaré que le droit à l’immunité ne peut pas s’appliquer aux outils d’IA génératifs car ces outils”créent du contenu”. « L’article 230 concerne la protection des utilisateurs et des sites Web hébergeant et organisant la parole des utilisateurs. Cela ne devrait pas isoler les entreprises des conséquences de leurs propres actions et produits », a-t-il déclaré.
L’industrie de la technologie a fait pression pour conserver la section 230. Certaines personnes pensent que des outils comme ChatGPT sont comme des moteurs de recherche, au service contenu existant aux utilisateurs en fonction des requêtes.”L’IA ne crée vraiment rien. Il présente simplement le contenu existant d’une manière différente ou dans un format différent », a déclaré Carl Szabo, vice-président et avocat général du groupe commercial de l’industrie technologique, NetChoice.
Szabo a déclaré que si l’article 230 était affaibli, il créerait une tâche impossible pour les développeurs d’IA. Cela les exposera également à un flot de poursuites qui pourraient étouffer l’innovation. Certains experts pensent que les tribunaux pourraient adopter une position neutre et examiner le contexte dans lequel les modèles d’IA génèrent des réponses potentiellement dangereuses.
Gizchina News of the week
Les avantages de l’exemption peuvent toujours s’appliquer dans les cas où le modèle d’IA semble être en mesure d’expliquer les sources existantes. Mais les chatbots comme ChatGPT sont connus pour générer de fausses réponses, qui, selon les experts, pourraient ne pas être protégées.
Hanny Farid, technologue et professeur à l’Univ. de Californie, Berkeley, a déclaré qu’il est exagéré de penser que les développeurs d’IA devraient être à l’abri de poursuites judiciaires concernant les modèles qu’ils”programment, forment et déploient”.
“Si les entreprises peuvent être tenues responsables dans des poursuites civiles, elles font des produits plus sûrs ; s’ils sont exemptés, les produits ont tendance à être moins sûrs », a déclaré Farid.
Les problèmes avec les outils d’IA comme ChatGPT
Les chatbots d’IA sont désormais très populaires dans le monde d’aujourd’hui. Cela est dû au fait qu’ils offrent un moyen efficace et pratique pour les gens d’interagir. Ces chatbots sont capables de traiter le langage naturel et de fournir des réponses pertinentes aux requêtes. Cela en fait un outil utile pour le service client, les ventes et le support. Cependant, des inquiétudes ont été exprimées quant à la sécurité de l’utilisation des chatbots IA, principalement en termes de confidentialité et de sécurité.
L’une des principales préoccupations concernant les chatbots IA pourrait être une lacune pour les violations de données et les cyberattaques. Comme les chatbots demandent souvent aux utilisateurs de fournir des informations personnelles telles que leur nom, leur adresse et leurs détails de paiement, il existe un risque que ces informations soient volées. Pour réduire ce risque, les entreprises doivent s’assurer que leurs chatbots sont sécurisés et utiliser des méthodes de cryptage pour protéger les données des utilisateurs.
Un autre problème avec les chatbots IA est la possibilité que le système cède aux biais. Comme ces chatbots sont programmés par des humains, il peut s’agir de préjugés et de stéréotypes qui existent dans la société. Par exemple, un chatbot conçu pour filtrer les demandeurs d’emploi peut discriminer certains groupes en fonction de leur race, de leur sexe ou de leur origine ethnique. Pour éviter cela, les développeurs de chatbots doivent s’assurer que leurs algorithmes sont presque parfaits et sans parti pris.
En outre, il existe un risque que les chatbots IA ne soient pas en mesure de gérer des requêtes complexes. Cela inclut ceux qui sont liés à la santé mentale ou à la violence domestique. Dans de tels cas, les utilisateurs peuvent ne pas recevoir le soutien dont ils ont besoin. Bien sûr, c’est l’un des domaines où les gens veulent que ces chatbots soient responsables. S’ils donnent une mauvaise réponse dans certains scénarios, le résultat pourrait être très mauvais.
Mots finaux
Malgré ces préoccupations, les chatbots IA peuvent être utilisés en toute sécurité s’ils sont utilisés correctement. Certaines personnes veulent utiliser des chatbots IA pour remplacer les médecins et autres experts. Ce ne sont pas des utilisations idéales de cet outil. De la part des développeurs, ils doivent à tout prix éviter les préjugés et s’assurer que le système est inclusif. De plus, les chatbots ne doivent pas fonctionner sans présence humaine. De temps en temps, ils doivent être vérifiés et mis à jour si nécessaire. Pour s’assurer qu’ils peuvent être utilisés en toute sécurité, les développeurs doivent répondre aux préoccupations concernant la sécurité, la confidentialité, les préjugés et les limites des chatbots. Avec les bons outils en place, les chatbots IA peuvent effectuer la recherche d’informations très facilement. Cela pourrait également être un assistant assez décent pour de nombreuses personnes qui ont besoin d’une sorte d’aide avec des informations.
Source/VIA :