O Twitter inicia a luta contra imagens geradas por IA com o Notas da comunidade para imagens. Esse recurso está atualmente em fase de teste e ajudará os usuários no Twitter a identificar imagens geradas por IA. Nos últimos meses, muitos usuários se apaixonaram por essas imagens que são produtos de modelos de IA.
Esse recurso é apenas uma ferramenta no arsenal do Twitter que ele usará para combater a mídia enganosa. Alguns atores mal-intencionados que usam a plataforma do Twitter atingem milhões de usuários com imagens geradas por IA, alegando que são provas de atividades que nunca ocorreram. O objetivo por trás desse esforço é enganar as pessoas, e isso pode ser prejudicial para a comunidade global.
Uma vez que essas imagens chegam ao Twitter por meio de postagens, é fácil para usuários desavisados compartilhá-las com outras pessoas. Isso ajuda a espalhar informações enganosas como um incêndio, gerando falsas ideias de um indivíduo ou grupo. O Twitter Community Notes para imagens agora está aqui para combater a disseminação dessas imagens para milhões de pessoas que usam a plataforma de mídia social.
Twitter visa conter a disseminação de imagens geradas por IA com o recurso Community Notes for Images
As Notas da comunidade do Twitter página publicou recentemente uma postagem que aborda imagens geradas por IA. Esses tipos de imagens estão se tornando cada vez mais comuns na plataforma de mídia social e tendem a enganar muitos usuários. O Twitter tomou nota disso e agora está dando a um grupo de usuários a capacidade de sinalizar esse tipo de postagem para conhecimento de outros usuários.
Neste momento, é fácil para um Twitter mal-intencionado usuário usar qualquer modelo AI para gerar uma foto de qualquer coisa. Tudo o que eles precisam fazer é descrever como a foto deve ser e quais elementos ela deve possuir. O modelo de IA então começa a funcionar e produz uma imagem quase realista com base nas especificações dos usuários.
Armado com esta imagem, o usuário mal-intencionado pode postar a imagem no Twitter com uma descrição enganosa. Outros usuários do Twitter que conseguem ver esta postagem podem acreditar na descrição enganosa e retuitar ou curtir a postagem, espalhando-a para milhões. Agora, o Twitter está dando aos colaboradores em sua plataforma a capacidade de sinalizar essas imagens e vídeos enganosos gerados por IA.
Com as Notas da comunidade do Twitter para imagens, os colaboradores com classificações altas poderão sinalizar AI-imagens geradas. Atualmente, esse recurso está em fase de teste e permite que os contribuidores sinalizem essas imagens para outros usuários. Para sinalizar essas imagens, os colaboradores com classificações altas adicionarão descrições à imagem que seriam visíveis para outros usuários do Twitter.
Depois que as descrições forem definidas, o algoritmo do Twitter fará a correspondência de todas as postagens dessa imagem no plataforma com a descrição. Se outro usuário postar a imagem novamente, ela aparecerá com a descrição, sinalizando-a como uma imagem gerada por IA. No entanto, esse recurso precisa ter um bom desempenho durante os testes antes de ser disponibilizado ao público.