O National Cyber Security Centre (NCSC) do Reino Unido está alertando o público sobre os perigos do ChatGPT. Este modelo de inteligência artificial ganhou popularidade após o seu lançamento há alguns meses. Depois que se tornou disponível ao público, um monte de gente se juntou para experimentar suas habilidades de várias maneiras.
Algumas pessoas pediram receitas para pratos específicos, respostas para perguntas de tarefas e outras perguntas aleatórias. A resposta deste modelo de inteligência artificial a várias questões lançadas surpreendeu muita gente. Por esse motivo, mais pessoas quiseram experimentar o ChatGPT, aumentando assim sua popularidade.
Agora, o sistema no qual esse modelo de inteligência artificial é executado recebeu uma atualização. O sistema GPT-4 traz melhorias nas habilidades de conversação de vários modelos de inteligência artificial que dependem dele. Com a crescente adoção desse modelo de inteligência artificial, existem perigos que ele representa para a sociedade? Uma atualização recente destaca alguns, vamos dar uma olhada nesses perigos.
De acordo com o Centro Nacional de Segurança Cibernética (NCSC), aqui estão os perigos do ChatGPT
O Centro Nacional de Segurança Cibernética do Reino Unido (NCSC) alertou o público sobre os perigos do ChatGPT. Eles fizeram isso com um blog recente post em seu site oficial, onde se aprofundaram no ChatGPT e nos modelos de linguagem grande (LLMs).
Com o aumento da popularidade desses modelos de inteligência artificial, é necessário saber o risco que eles pode representar. Bem, o UK National Cyber Security Centre (NCSC) fez a pesquisa para ajudar a esclarecer o público. A partir de suas descobertas, os usuários do ChatGPT e outros LLMs saberão quais cursos fazer com esses modelos de inteligência artificial.
Uma das primeiras observações a serem feitas com os modelos de inteligência artificial é que eles podem ser errôneo. Algumas informações que eles fornecem às solicitações dos usuários podem estar erradas, tendenciosas, violentas etc. Por esse motivo, os usuários do ChatGPT e outros LLMs devem estar atentos ao conteúdo que consomem desses modelos de inteligência artificial.
Há é também a necessidade de ter cuidado com o tipo de informação que partilha com estas plataformas. O National Cyber Security Center (NCSC) desaconselha o compartilhamento de informações confidenciais com ChatGPT ou outros LLMs. Essas plataformas podem não revelar informações do usuário, mas têm acesso às consultas do usuário e podem ser invadidas, revelando essas consultas ao público.
Por esse motivo, tente não fazer perguntas a essas plataformas que são bastante sensíveis para sua vida pessoal ou trabalho. Os perigos do ChatGPT e de outros LLMs também abrangem como criminosos cibernéticos e malfeitores podem usá-lo. Portanto, enquanto você tenta modelos de linguagem grandes novos ou existentes, é importante entender os riscos que eles representam.