A Inteligência Artificial é uma ferramenta muito importante que ajuda os usuários a simplificar as tarefas. No entanto, treinar o Google AI para entender cenários de uso complexos não é uma tarefa fácil. Isso é mais difícil quando se trata de declarações que contêm emoções. Vamos dar duas dessas frases que têm emoções nelas: “Eu realmente agradeço por tudo que você fez”. “Ouça-me, obrigado, por sua causa, as coisas são muito mais fáceis agora…”
Talvez você diga, isso é muito simples, não é uma haste que tem sido tocada com frequência recentemente? No entanto, não é um processo totalmente simples, considerando que existem pessoas diferentes com necessidades diferentes. No entanto, há uma lacuna de gerações com a cultura popular, não apenas para os mais velhos, mas também para a IA. Assim, o que a IA precisa aprender para os mais velhos é muito diferente do que precisa aprender para os jovens. Um artigo recente descobriu que a taxa de erro com a IA do Google chega a 30%.
A IA do Google interpreta mal algumas frases
Aqui estão alguns exemplos de frases que a IA do Google interpreta facilmente
p>
“Diga agressivamente a um amigo que eu os amo”
O Google interpreta mal essa frase como “RAIVA” e isso muda completamente a intenção
“Você quase explodiu minha mente lá ”
O Google AI também interpreta erroneamente essa frase como “ARREBATAMENTO”, o que também muda o significado.
A partir deles, podemos ver que o Google AI, em alguns casos, simplesmente tira a declaração do contexto. A inteligência artificial se torna retardo mental artificial em segundos. Como ele cometeu um erro tão ultrajante?
Como ele comete o erro?
Isso tem que começar com a maneira como ele julga. Quando o conjunto de dados do Google rotula comentários, ele é avaliado apenas pelo texto. Podemos dar uma olhada na imagem abaixo, o conjunto de dados do Google julga mal a emoção no texto como raiva.
Por que não especulamos sobre o motivo do Google conjunto de dados está errado. Veja o exemplo acima, há alguns”palavrões”nesses quatro comentários.
O conjunto de dados do Google usa esses”palavrões”como base para julgamento. No entanto, se você ler toda a resenha com atenção, descobrirá que essa “base” é apenas uma ênfase de toda a frase. Portanto, isso não tem significado prático.
A maioria dos comentários dos usuários geralmente não existe isoladamente. Além disso, fatores como as postagens que eles seguem e as plataformas nas quais publicam podem fazer com que toda a semântica mude.
Por exemplo, basta olhar para este comentário:
“ suas armadilhas escondem a porra do sol”
É difícil julgar o elemento emocional disso sozinho. Mas talvez não seja difícil adivinhar se é um comentário de um site de músculo (ele só queria elogiar os músculos do cara).
Não é razoável ignorar o post para o qual o comentário é direcionado. Na verdade, destacar uma palavra com um forte apego emocional ao julgamento de seu elemento emocional pode estar errado. Uma frase não existe isoladamente, ela tem seu contexto específico. Isso significa que seu significado muda com o contexto.
Colocar comentários em um contexto completo para julgar seu apego emocional pode melhorar muito a precisão do julgamento. Mas a alta taxa de erro de 30% não é apenas”fora de contexto”, há razões mais profundas.
A IA do Google tem muito a aprender
Além do contexto interferir no conjunto de dados discriminação, a origem cultural também é um fator muito importante. Tão grande quanto um país ou região, ou tão pequeno quanto uma comunidade de site, haverá seus próprios símbolos culturais internos. Esses símbolos serão difíceis de interpretar para pessoas fora do círculo dos símbolos culturais. Isso cria um problema difícil: se você quiser um julgamento mais preciso. Para entender o sentimento dos comentários da comunidade, é necessário realizar algum treinamento de dados na comunidade para obter uma compreensão profunda dos genes culturais de toda a comunidade.
No Reddit, os comentários dos internautas apontaram que “todos os avaliadores são indianos nativos de língua inglesa”.
Isso leva a mal-entendidos de algumas expressões idiomáticas muito comuns, partículas modais e alguns “stalks” específicos. Dito isso, a razão para uma taxa tão alta de erro na discriminação do conjunto de dados é óbvia. Mas, ao mesmo tempo, há também uma direção clara para melhorar a precisão da capacidade da IA de identificar emoções. Abaixo estão algumas sugestões
Sugestões para melhorar a capacidade de IA
Primeiro, ao rotular comentários, você precisa ter uma compreensão sólida do contexto cultural em que eles viver. Tomando o Reddit como exemplo, para julgar o apego emocional de seus comentários, é necessário ter um conhecimento profundo de um pouco da cultura e política americana e ser capaz de obter rapidamente o “perseguir” do site exclusivo.
Em segundo lugar, é necessário testar se o julgamento do rótulo de alguns sarcasmos, expressões idiomáticas e memes está correto para garantir que o modelo possa entender completamente o significado do texto
Finalmente, verifique o julgamento do modelo em relação ao nosso julgamento real para fornecer feedback para treinar melhor o modelo.
Mais uma coisa
AI Daniel Wu Enda uma vez lançou um movimento de inteligência artificial centrado em dados.
Mude o foco dos profissionais de IA do desenvolvimento de modelos/algoritmos para a qualidade dos dados que eles usam para treinar modelos. Wu Enda disse uma vez:
Os dados são o alimento da inteligência artificial.
A qualidade dos dados usados para treiná-los também é fundamental para um modelo, e em abordagens emergentes centradas em dados para IA, a consistência dos dados é fundamental. Para obter resultados corretos, o modelo ou código precisa ser corrigido e a qualidade dos dados melhorada iterativamente.
Source/VIA: