Desde el lanzamiento de ChatGPT, ha habido una preponderancia de AI Chatbots como ChatGPT. Sin embargo, la propagación de estos chatbots también significa que se están gestando problemas. En verdad, OpenAI sorprendió al mundo con la capacidad de ChatGPT. Por este motivo, ha habido muchas objeciones a su uso y algunas incluso implican batallas legales. Sin embargo, en los EE. UU., la nación de origen de ChatGPT, la ley puede proteger a ChatGPT. El artículo 230 de la Ley de decencia en las comunicaciones de EE. UU. emitida en 1996 establece que una empresa no tiene que asumir responsabilidad legal por el contenido publicado por terceros o usuarios en su plataforma (artículo 230).
Sin embargo, la Corte Suprema de los Estados Unidos decidirá en los próximos meses si debilita esta protección. Esto también puede tener un impacto en los chatbots de IA como ChatGPT. Se espera que los jueces decidan a finales de junio si se puede demandar a YouTube, propiedad de Alphabet, por recomendar videos a los usuarios. Si bien las plataformas están exentas de responsabilidad por los videos subidos por los usuarios, ¿aún se aplican las protecciones de la Sección 230 cuando usan algoritmos para recomendar contenido a los usuarios?
Los expertos legales y tecnológicos dicen que el caso tiene implicaciones más allá de las plataformas de redes sociales. Creen que el veredicto podría generar un nuevo debate sobre si empresas como OpenAI y Google, que desarrollan chatbots de IA, pueden ser inmune a reclamos legales como difamación o invasión de la privacidad. Los expertos señalan que esto se debe a que el algoritmo utilizado por ChatGPT y otros es similar a la forma en que recomienda videos a los usuarios de YouTube.
¿Qué hacen los chatbots de IA?
Los chatbots de IA están capacitados para generar grandes cantidades de contenido original, y la Sección 230 generalmente se aplica al contenido de terceros. Los tribunales aún tienen que considerar si las respuestas de los chatbots de IA estarían protegidas. Un senador demócrata dijo que el derecho a la inmunidad no puede aplicarse a las herramientas generativas de IA porque esas herramientas “crean contenido”. “La Sección 230 se trata de proteger a los usuarios y los sitios web que alojan y organizan el discurso de los usuarios. No debería aislar a las empresas de las consecuencias de sus propias acciones y productos”, dijo.
La industria de la tecnología ha estado presionando para mantener la Sección 230. Algunas personas piensan que las herramientas como ChatGPT son como motores de búsqueda, que sirven contenido existente a los usuarios en función de las consultas. “La IA realmente no crea nada. Simplemente presenta el contenido existente de una manera diferente o en un formato diferente”, dijo Carl Szabo, vicepresidente y asesor general del grupo comercial de la industria tecnológica, NetChoice.
Szabo dijo que si la Sección 230 se debilitara, crearía una tarea imposible para los desarrolladores de IA. Esto también los expondrá a una avalancha de demandas que podrían sofocar la innovación. Algunos expertos especulan que los tribunales pueden adoptar una postura neutral y examinar el contexto en el que los modelos de IA generan respuestas potencialmente dañinas.
Gizchina Noticias de la semana
Los beneficios de la exención aún pueden aplicarse en los casos en que el modelo de IA parece poder explicar las fuentes existentes. Pero se sabe que los chatbots como ChatGPT generan respuestas falsas que, según los expertos, pueden no estar protegidas.
Hanny Farid, tecnólogo y profesor de la Univ. de California, Berkeley, dijo que es descabellado pensar que los desarrolladores de IA deberían ser inmunes a las demandas por los modelos que”programan, entrenan e implementan”.
“Si las empresas pueden ser consideradas responsables en demandas civiles, hacen productos más seguros; si están exentos, los productos tienden a ser menos seguros”, dijo Farid.
Problemas con herramientas de IA como ChatGPT
Los chatbots de IA ahora son muy populares en el mundo actual. Esto se debe al hecho de que brindan una manera eficiente y conveniente para que las personas interactúen. Estos chatbots son capaces de procesar el lenguaje natural y proporcionar respuestas relevantes a las consultas. Esto los convierte en una herramienta útil para el servicio al cliente, las ventas y el soporte. Sin embargo, se han planteado preocupaciones sobre la seguridad del uso de chatbots de IA, principalmente en términos de privacidad y seguridad.
Una de las principales preocupaciones con los chatbots de IA podría ser una laguna de violaciones de datos y ataques cibernéticos. Como los chatbots a menudo requieren que los usuarios proporcionen información personal, como su nombre, dirección y detalles de pago, existe el riesgo de que esta información sea robada. Para reducir este riesgo, las empresas deben asegurarse de que sus chatbots sean seguros y utilicen métodos de encriptación para proteger los datos de los usuarios.
Otro problema con los chatbots de IA es la posibilidad de que el sistema ceda ante los sesgos. Como estos chatbots están programados por humanos, pueden ser prejuicios y estereotipos que existen en la sociedad. Por ejemplo, un chatbot diseñado para evaluar a los solicitantes de empleo puede discriminar a ciertos grupos en función de su raza, género o etnia. Para evitar esto, los desarrolladores de chatbots deben asegurarse de que sus algoritmos sean casi perfectos y sin sesgos.
Además, existe el riesgo de que los chatbots de IA no puedan manejar consultas complejas. Esto incluye aquellos que se relacionan con la salud mental o el abuso doméstico. En tales casos, es posible que los usuarios no reciban el soporte que necesitan. Por supuesto, esta es una de las áreas en las que la gente quiere que estos chatbots sean responsables. Si dan una respuesta incorrecta en ciertos escenarios, el resultado podría ser muy malo.
Palabras finales
A pesar de estas preocupaciones, los chatbots de IA pueden ser seguros si se les da el uso adecuado. Algunas personas quieren usar chatbots de IA para reemplazar a los médicos y otros expertos. Estos no son usos ideales de esta herramienta. Por parte de los desarrolladores, deben evitar sesgos a toda costa y asegurarse de que el sistema sea inclusivo. Además, no se debe dejar que los chatbots funcionen sin presencia humana. De vez en cuando, deben revisarse y actualizarse si es necesario. Para garantizar que sean seguros de usar, los desarrolladores deben abordar las preocupaciones sobre seguridad, privacidad, sesgo y los límites de los chatbots. Con las herramientas adecuadas implementadas, los chatbots de IA pueden realizar la búsqueda de información con mucha facilidad. También podría ser un asistente bastante decente para muchas personas que necesitan algún tipo de ayuda con la información.
Fuente/VIA: