.fb-comments,.fb-comments span,.fb-comments span iframe[ style]{min-width:100%!important;width:100%!important}

Participei recentemente do 15ª conferência anual sobre Inteligência Comum Sintética (AGI-22) que foi realizada em Seattle em agosto deste ano, na tentativa de me familiarizar com novos desenvolvimentos que poderiam orientar a eventual geração de uma Inteligência Geral Sintética (AGI).

Uma AGI é uma variedade de IA superior que pode generalizar em vários domínios e não é limitada em escopo. Ilustrações de IA fina incluem coisas como um automóvel autônomo, um chatbot, um bot de xadrez ou qualquer outra IA projetada por um motivo solitário. Um AGI em comparação seria capaz de alternar de forma flexível em relação a qualquer um dos mencionados anteriormente ou qualquer outro assunto de experiência. É composto por um estilo especulativo de IA que consideraria a vantagem de algoritmos nascentes, como descoberta de transferência e descoberta evolutiva, embora também explorando algoritmos legados como descoberta de reforço profundo.

Durante a palestra de abertura Ben Goertzel, pesquisador de IA, CEO e fundador da SingularityNET e chefe da OpenCog Foundation falou sobre o ponto fora do negócio. Ele parecia entusiasmado com a maneira potencial da AGI afirmando que “estamos anos ausentes em vez de décadas de distância”. Isso colocaria o eventual lançamento de uma AGI por volta de 2029, exatamente o mesmo ano em que Ray Kurzweil um dos maiores os principais inventores, pensadores e futuristas previram o surgimento de uma IA que alcança a inteligência do estágio humano.

O conceito é que, no momento em que essa variedade de inteligência é alcançada, a IA imediatamente e repetidamente se auto-aumenta para superar rapidamente a inteligência humana no que é conhecido como superinteligência.

Um palestrante adicional Charles J.  Simon, fundador e CEO da A IA do futuro disse em uma sessão independente: “O surgimento da AGI será gradual” e “A AGI é inevitável e chegará mais rápido do que a maioria das pessoas supõe, pode levar alguns anos”.

Mesmo com esse sentimento de alta, existem importantes barreiras internas. Ben Goertzel também reconheceu que, para obter AGI, “precisamos ter uma infusão de novas sugestões, não apenas aumentar as redes neurais”. Este é um sentimento compartilhado por Gary Marcus, que é conhecido por afirmar que “o profundo entendimento atingiu uma parede”.

Alguns dos principais desafios para fazer uma AGI incluem coisas como descobrir recompensas procedimento que pode dimensionar a inteligência de maneira informada ao máximo. Paradoxo de Moravec reflete o problema existente em alcançar a AGI com nossos conhecimento tecnológico atual. Este paradoxo afirma que as variações que são intuitivas para uma pessoa 12 meses antes, como entender como andar e simular fatos, são muito mais complicadas de programar em uma IA do que o que os seres humanos entendem como difícil.

Para os seres humanos é o inverso polar, dominar o xadrez ou executar uma formulação matemática complexa pode ter uma vida inteira para aprender, no entanto, essas são duas responsabilidades bastante diretas para IAs esbeltas.

Apenas uma das respostas para este paradoxo pode ser o domínio evolutivo também considerado como algoritmos evolutivos. Isso fundamentalmente permite que uma IA procure respostas sofisticadas imitando o processo de evolução orgânica.

Em uma sessão de perguntas e respostas individuais, Ben Goertzel disse que “AGI não é inevitável, mas é realmente possível”. Este é exatamente o mesmo resumo ao qual cheguei, mas a linha que envolve inevitabilidade e probabilidade se confunde. foi mencionado foi Polynomial Functors: A Normal Principle of Interaction por David Spivak do Topos Institute em Berkeley, CA e Nelson Niu do College of Washington, em Seattle, WA. Este artigo discute um grupo matemático conhecido como Poly que possivelmente pode influenciar a direção futura previsível da IA ​​quando se trata de interações pessoais com processos dinâmicos, produção de decisões finais e armazenamento e transformação de conhecimento. Resta saber como isso afetará a investigação de AGI, mas pode ser um dos componentes ausentes que poderia nos guiar para AGI.

Claro que havia outros trabalhos que acabaram mais especulativos, como o Índice de Versatilidade-Eficácia (VEI): na direção de uma definição detalhada de IQ for AGI Brokers por Mohammadreza Alidoust. O conceito é construir uma maneira alternativa de medir o nível de inteligência de métodos inteligentes, uma forma de teste de QI para medir agentes AGI de forma computacional.

Dois fornecedores notáveis ​​que talvez possam fazer avanços nesta tecnologia subjacente know-how são OpenAI e DeepMind, igualmente ausentes. Pode ser por temor que a AGI não seja tomada significativamente pelo grupo de IA, mas são as duas empresas que mais podem fazer o primeiro avanço nessa área. Isso é verdade principalmente considerando o fato de que a missão declarada da OpenAI é realizar uma investigação fundamental e muito longa para a criação de uma AGI inofensiva.

Embora não tenha havido grandes avanços inovadores para revelar na conferência, está claro que a AGI está preocupando alguns cientistas e é uma coisa que a comunidade local de IA deve dividir fora mais aviso para. Afinal, uma AGI pode ser a solução para resolver as muitas ameaças existenciais da humanidade.

Classifique este post

Compartilhar é cuidar!

Categories: IT Info