Sinds de lancering van ChatGPT is er een overwicht van AI-chatbots zoals ChatGPT. De verspreiding van deze chatbots betekent echter ook dat er problemen ontstaan. In werkelijkheid verraste OpenAI de wereld met het vermogen van ChatGPT. Om deze reden zijn er veel bezwaren tegen het gebruik ervan en sommige gaan zelfs gepaard met juridische strijd. In de VS, het thuisland van ChatGPT, kan de wet ChatGPT echter gewoon beschermen. Artikel 230 van de Amerikaanse Communications Decency Act, uitgegeven in 1996, zegt dat een bedrijf geen wettelijke verantwoordelijkheid hoeft te dragen voor de inhoud die door derden of gebruikers op zijn platform wordt gepubliceerd (artikel 230).

Het Amerikaanse Hooggerechtshof zal echter in de komende maanden beslissen of deze bescherming wordt afgezwakt. Dit kan ook gevolgen hebben voor AI-chatbots zoals ChatGPT. Rechters zullen naar verwachting eind juni beslissen of YouTube, eigendom van Alphabet, kan worden aangeklaagd wegens het aanbevelen van video’s aan gebruikers. Hoewel platforms zijn vrijgesteld van aansprakelijkheid voor door gebruikers geüploade video’s, zijn de beveiligingen van Sectie 230 nog steeds van toepassing wanneer ze algoritmen gebruiken om inhoud aan gebruikers aan te bevelen?

Technologische en juridische experts zeggen dat de zaak implicaties heeft die verder reiken dan sociale mediaplatforms. Ze geloven dat de uitspraak een nieuw debat kan aanwakkeren over de vraag of bedrijven als OpenAI en Google, die AI-chatbots ontwikkelen, kunnen worden gevrijwaard zijn van juridische claims zoals laster of inbreuk op de privacy. Experts wijzen erop dat dit komt omdat het algoritme dat door ChatGPT en anderen wordt gebruikt, vergelijkbaar is met de manier waarop het video’s aan YouTube-gebruikers aanbeveelt.

Wat doen AI-chatbots?

AI-chatbots worden getraind om grote hoeveelheden originele inhoud te genereren, en artikel 230 is over het algemeen van toepassing op inhoud van derden. Rechtbanken moeten nog overwegen of reacties van AI-chatbots beschermd zouden worden. Een democratische senator zei dat het recht op immuniteit niet van toepassing kan zijn op generatieve AI-tools omdat die tools”content creëren”. “Sectie 230 gaat over het beschermen van gebruikers en websites die spraak van gebruikers hosten en organiseren. Het mag bedrijven niet vrijwaren van de gevolgen van hun eigen acties en producten”, zei hij.

De technische industrie heeft aangedrongen op handhaving van Sectie 230. Sommige mensen denken dat tools zoals ChatGPT net als zoekmachines zijn, bestaande inhoud aan gebruikers op basis van zoekopdrachten. “AI creëert niet echt iets. Het presenteert bestaande inhoud gewoon op een andere manier of in een ander formaat”, zegt Carl Szabo, vice-president en algemeen adviseur bij de handelsgroep voor de technische industrie, NetChoice.

Szabo zei dat als Sectie 230 zou worden afgezwakt, het zou een onmogelijke taak creëren voor AI-ontwikkelaars. Dit zal hen ook blootstellen aan een stortvloed aan rechtszaken die innovatie zouden kunnen belemmeren. Sommige deskundigen speculeren dat rechtbanken een neutraal standpunt kunnen innemen en de context kunnen onderzoeken waarin AI-modellen mogelijk schadelijke reacties genereren.

Gizchina Nieuws van de week

Er kunnen nog steeds vrijstellingsvoordelen van toepassing zijn in gevallen waarin het AI-model bestaande bronnen lijkt te kunnen verklaren. Maar van chatbots zoals ChatGPT is bekend dat ze valse antwoorden genereren, waarvan experts zeggen dat ze mogelijk niet beschermd zijn.

Hanny Farid, een technoloog en professor aan de Univ. uit Californië, Berkeley, zei dat het vergezocht is om te denken dat AI-ontwikkelaars immuun zouden moeten zijn voor rechtszaken over de modellen die ze “programmeren, trainen en inzetten”.

“Als bedrijven aansprakelijk kunnen worden gesteld in civiele procedures, veiligere producten; als ze zijn vrijgesteld, zijn de producten vaak minder veilig’, zei Farid.

Problemen met AI-tools zoals ChatGPT

AI-chatbots zijn nu erg populair in de wereld van vandaag. Dit komt door het feit dat ze een efficiënte en gemakkelijke manier bieden voor mensen om te communiceren. Deze chatbots zijn in staat natuurlijke taal te verwerken en relevante antwoorden op vragen te geven. Dit maakt ze een handig hulpmiddel voor klantenservice, verkoop en ondersteuning. Er zijn echter zorgen geuit over de veiligheid van het gebruik van AI-chatbots, vooral in termen van privacy en beveiliging.

Een van de grootste zorgen met AI-chatbots zou een lacune kunnen zijn voor datalekken en cyberaanvallen. Aangezien chatbots vaak van gebruikers verlangen dat ze persoonlijke informatie verstrekken, zoals hun naam, adres en betalingsgegevens, bestaat het risico dat deze informatie kan worden gestolen. Om dit risico te verkleinen, moeten bedrijven ervoor zorgen dat hun chatbots veilig zijn en versleutelingsmethoden gebruiken om gebruikersgegevens te beschermen.

Een ander probleem met AI-chatbots is de mogelijkheid dat het systeem toegeeft aan vooringenomenheid. Aangezien deze chatbots door mensen zijn geprogrammeerd, kunnen het vooroordelen en stereotypen zijn die in de samenleving bestaan. Een chatbot die is ontworpen om werkzoekenden te screenen, kan bijvoorbeeld bepaalde groepen discrimineren op basis van hun ras, geslacht of etniciteit. Om dit te voorkomen, moeten chatbotontwikkelaars ervoor zorgen dat hun algoritmen bijna perfect en onbevooroordeeld zijn.

Ook bestaat het risico dat AI-chatbots complexe vragen niet aankunnen. Dit geldt ook voor degenen die verband houden met geestelijke gezondheid of huiselijk geweld. In dergelijke gevallen krijgen gebruikers mogelijk niet de ondersteuning die ze nodig hebben. Dit is natuurlijk een van de gebieden waarop mensen willen dat deze chatbots aansprakelijk zijn. Als ze in bepaalde scenario’s een verkeerd antwoord geven, kan het resultaat heel slecht zijn.

Laatste woorden

Ondanks deze zorgen kunnen AI-chatbots veilig worden gebruikt als ze op de juiste manier worden gebruikt. Sommige mensen willen AI-chatbots gebruiken om artsen en andere experts te vervangen. Dit zijn geen ideale toepassingen van deze tool. Van de kant van de ontwikkelaars moeten ze ten koste van alles vooringenomenheid vermijden en ervoor zorgen dat het systeem inclusief is. Ook mogen chatbots niet aan het werk worden gelaten zonder menselijke aanwezigheid. Van tijd tot tijd moeten ze worden gecontroleerd en indien nodig worden geüpgraded. Om ervoor te zorgen dat ze veilig te gebruiken zijn, moeten ontwikkelaars zorgen over beveiliging, privacy, vooringenomenheid en de limieten van chatbots wegnemen. Met de juiste tools kunnen AI-chatbots het zoeken naar informatie heel gemakkelijk maken. Het zou ook een heel behoorlijke assistent kunnen zijn voor veel mensen die hulp nodig hebben met informatie.

Bron/VIA:

Categories: IT Info