A OpenAI causou grande impacto quando lançou o GPT-4 ontem à noite. O modelo de linguagem AI de próxima geração é uma melhoria notável em relação ao seu antecessor e é capaz de muito mais. Se você sabe uma ou duas coisas sobre o ChatGPT e suas alternativas, já sabe o que isso significa para chatbots e inteligência artificial em geral. No entanto, para aqueles que não conhecem os modelos de linguagem ou GPT-4 em particular, estamos de volta. Vasculhamos os blogs da OpenAI e a Internet e selecionamos um guia dedicado ao GPT-4. Portanto, se você é alguém com pouca ou nenhuma ideia sobre isso, pegue uma xícara de café e sente-se enquanto contamos tudo sobre esse modelo de IA.

GPT-4: Tudo o que você precisa saber (2023)

O tópico do GPT-4 é amplo quando se trata de informações. Para ajudá-lo a organizar tudo, criamos uma tabela abaixo. Use-o se quiser pular rapidamente para um aspecto específico do modelo.

Índice

O que é GPT-4?

Simplificando, o GPT-4 é a mais recente iteração do OpenAI nos grandes sistemas de modelos de linguagem (LLM) da empresa. Os sistemas de modelo de linguagem, em geral, são sistemas que tentam prever a próxima palavra em uma frase e adicionar de forma inteligente suas entradas a ela. Eles fazem isso estudando um grande conjunto de dados que lhes dá a capacidade de identificar padrões e agir sobre eles.

GPT-4 é o modelo mais novo desta série e espera-se que seja uma grande melhoria em relação aos modelos da geração anterior, como GPT 3 e 3.5. Existem algumas coisas específicas em que o GPT-4 é melhor, que discutiremos em profundidade abaixo. No entanto, um ponto simples que você deve entender é que esse novo modelo capacitará chatbots como ChatGPT e MS Bing a serem muito mais capazes em suas respostas. Portanto, você pode esperar que eles forneçam respostas melhores, criem designs mais criativos e tenham um desempenho diferente com os prompts do ChatGPT mais antigos e mais recentes.

GPT-4 é multimodal

Se você já usou os modelos GPT anteriores, pode estar ciente de sua capacidade limitada de apenas interpretar o texto inserido. No entanto, uma das maiores e mais novas implementações do novo modelo é que ele é multimodal. Isso significa que GPT-4 é capaz de aceitar prompts de texto e imagens.

Isso se traduz na IA não apenas recebendo a imagem, mas também interpretando e compreendendo-a . Esse entendimento se aplicará a prompts intercalados com entradas de texto e de visão. Além disso, a capacidade multimodal do GPT-4 se espalhará por todos os tamanhos e tipos de imagens e texto, incluindo documentos com texto e fotografias, diagramas (esboçados ou desenhados à mão) ou capturas de tela. A saída do GPT-4 permanecerá tão capaz quanto em apenas entradas de texto.

Em uma transmissão ao vivo para desenvolvedores organizada pela OpenAI, a empresa apresentou o GPT natureza multimodal de-4. O GPT-4 recebeu uma captura de tela de uma janela do Discord no stream e foi solicitado a descrevê-la em detalhes minuciosos.

O modelo levou pouco mais de um minuto e gerou uma resposta extremamente descritiva e precisa. A resposta capturou quase todos os elementos da tela de entrada. Do nome do servidor no canto superior esquerdo aos diferentes canais de voz e até mesmo nomear todos os membros do Discord online no painel direito, o GPT-4 capturou tudo.

O GPT-4 foi submetido a mais alguns testes, nos quais as pessoas enviaram várias obras de arte aleatórias, incluindo fotos de um esquilo segurando uma câmera. A modelo foi então solicitada a identificar “o que havia de engraçado nesta imagem”. Ele novamente produziu uma resposta afirmando que a foto era engraçada porque os esquilos normalmente comem nozes e não agem como humanos. Como visto, novamente forneceu uma resposta muito específica, como um humano faria.

No entanto , como mencionado acima, a especificidade do modelo vai além das capturas de tela e para entradas de texto e imagem de todos os tipos. A OpenAI mostrou o mesmo quando Greg capturou uma foto de uma maquete desenhada à mão de um site de piadas. Ele então carregou o mesmo para o servidor Discord conectado à API do GPT-4. O modelo foi solicitado a’escrever um breve código HTML/JS para transformar a página em um site e substituir as piadas por outras reais’.

Surpreendentemente, GPT-4 compilou código de trabalho para o mesmo. Ao testá-lo, ele produziu um site totalmente funcional, no qual pressionar os botões revelava as piadas. O fato de o modelo ChatGPT poder decifrar a caligrafia humana e criar código a partir de uma combinação de entradas de texto e imagem é impressionante. A capacidade multimodal do GPT-4 é um grande passo na direção da IA ​​entender totalmente os prompts e fornecer resultados com precisão perfeita.

Embora não houvesse problemas consideráveis, a OpenAI afirmou que a velocidade é algo com que o GPT-4 poderia trabalhar e pode levar tempo. Além disso, as entradas visuais para GPT-4 ainda estão em pré-visualização de pesquisa e ainda não estão disponíveis publicamente.

Como o GPT-4 é melhor que o GPT 3.5/GPT-3?

Além de sua abordagem multimodal de tirar o fôlego, o GPT-4 vem com outras áreas de melhoria em que o novo modelo não apenas supera seus irmãos mais velhos. Algumas dessas áreas são:

1. Entendendo melhor os prompts diferenciados

A OpenAI afirma que pode ser difícil ver a diferença entre GPT-4 e GPT-3.5 à primeira vista. No entanto, os recursos do primeiro vêm à tona quando você entra no âmago da questão. Para demonstrar a diferença, o novo modelo foi confrontado com o GPT-3.5 em uma variedade de exames de nível humano. A OpenAI usou os testes mais recentes disponíveis publicamente e não deu aos modelos nenhum treinamento específico para isso.

GPT-4 vs 3,5

Os próprios dados mostram uma imagem melhor do que poderíamos dizer. Em todos os resultados, GPT-4 ficou no topo e pontuou acima de sua versão anterior. Enquanto o limite mal foi empurrado em alguns exames (como SAT EBRW), houve um tremendo salto no desempenho em outros exames (exame de barra uniforme, AP Chemistry e mais). A OpenAI declarou: “O GPT-4 também é mais confiável, criativo e geralmente capaz de lidar com instruções mais sutis quando comparado ao GPT-3.5”. Isso faz com que o bot compreenda de maneira eficaz solicitações mais complexas com facilidade.

2. Limite de palavras exponencialmente maior

Embora todos adorassem o GPT 3 e o GPT 3.5, as pessoas gostariam que ele reconhecesse entradas ainda mais longas. A introdução do GPT-4 resolveu esse problema. O novo modelo de linguagem GPT-4 AI vem com um limite de entrada impressionante de 25.000 palavras,que é significativamente grande. Para contextualizar, GPT 3.5 foi limitado a 8.000 palavras.

Isso significa que os usuários poderão alimentar o bot com prompts de entrada muito mais longos para que ele leia e renderize as saídas. Portanto, quando o GPT-4 finalmente for lançado, você pode esperar uma resposta muito mais detalhada e receber entradas mais longas sem problemas. O que isso significa para os desenvolvedores é que você poderá sentir as novas APIs e a documentação do chatbot e obter ajuda para escrever código ou corrigir erros no código existente com mais facilidade.

3. Suporta mais idiomas

O ChatGPT tem sido predominantemente usado por falantes de inglês em todo o mundo. No entanto, o GPT-4 leva em consideração outros idiomas. O modelo mais novo demonstrou suporte para mais de 26 idiomas diferentes. Isso inclui idiomas como ucraniano, coreano, germânico e muito mais.

A OpenAI testou o mesmo traduzindo os benchmarks MMLU em uma variedade de idiomas. De 26 idiomas, o GPT-4 supera o desempenho do idioma inglês do GPT-3.5 em 24 deles. No entanto, há mais treinamento de dados a ser feito antes que o GPT-4 suporte totalmente todos os idiomas.

4. Diferentes personalidades

Dirigibilidade é um conceito em que você pode instruir a IA a agir de uma certa maneira com um tom de fala fixo. Um bom exemplo disso é pedir ao ChatGPT para agir como um cowboy ou um policial (atribuindo-lhe uma função como fizemos ao criar nosso chatbot usando a API do ChatGPT). O GPT-4 obtém essa dirigibilidade, mas o OpenAI agora torna mais difícil para o AI quebrar o personagem. Os desenvolvedores agora podem corrigir o estilo de sua IA desde o início, descrevendo essas instruções na mensagem do “sistema”. Como essas mensagens são fáceis de desbloquear, a OpenAI também está trabalhando para torná-las mais seguras.

A partir das demos que o OpenAI apresentou em sua postagem no blog, foi muito engraçado ver o usuário tentando fazer com que o GPT-4 deixasse de ser um tutor socrático e apenas dissesse a resposta para sua consulta. No entanto, como foi programado para ser um tutor, o GPT-4 se recusou a quebrar o personagem, o que muitos desenvolvedores podem esperar quando treinarem seus bots no futuro.

Possíveis aplicações do GPT-4?

Embora a aplicação multimodal do GPT-4 ainda não seja possível para os usuários, OpenAI já se uniu ao Be My Eyes, um aplicativo destinado a deficientes visuais. A inclusão do GPT-4 no aplicativo permite que você tire uma foto do que está vendo e a IA descreverá exatamente o que está na tela, incluindo vestidos, plantas, máquinas em uma academia, leitura de mapas e muito mais.

GPT-4 também fez parceria com outros aplicativos como Duolingo, Khan Academy para aprendizado inteligente e até mesmo o governo da Islândia para preservação do idioma. Embora a API do GPT-4 esteja atualmente disponível em uma lista de espera, podemos esperar que os desenvolvedores criem experiências incríveis quando ela for finalmente lançada. Antes mesmo que isso aconteça, os aplicativos acima já estão disponíveis para as pessoas usarem.

O GPT-4 tem alguma limitação?

Embora o GPT-4 esteja sendo anunciado como o próximo passo na inteligência artificial, ele ainda tem seus obstáculos.

Para começar, GPT-4 não tem conhecimento de qualquer conhecimento mundial de eventos que ocorreram após setembro de 2021. O modelo também não aprende com sua experiência. Isso pode levar o modelo GPT-4 a cometer erros de raciocínio e até mesmo propenso a aceitar declarações falsas óbvias de um usuário.

GPT-4 também pode falhar em problemas como humanos seria. Como o GPT 3.5, o novo modelo também pode alucinar e errar com certeza em suas previsões. Isso pode fazer com que o GPT-4 não verifique novamente seu trabalho ao cometer um erro.

Apesar disso, no entanto, o OpenAI promete que o GPT-4 foi melhor treinado do que os modelos anteriores para evitar isso. Nas próprias avaliações de factualidade contraditórias internas da empresa, o modelo pontuou 35% a mais em comparação com o GPT 3.5 na redução de alucinações. Embora as percepções e previsões do modelo tenham melhorado, seus resultados ainda devem ser considerados em conjunto com o conselho humano.

OpenAI Evals – Torne o GPT-4 melhor juntos

OpenAI usa sua própria estrutura de software para criar e executar benchmarks para modelos como o GPT-4. No entanto, é de código aberto, então a empresa compartilhou alguns modelos que foram mais usados. A OpenAI começou que as avaliações serão parte integrante dos benchmarks de crowdsourcing que podem ser usados ​​para garantir que o GPT-4 seja melhor treinado e tenha um desempenho ainda melhor.

Como tal, a empresa convidou todos (sim, todos os usuários GPT-4) para testar seus modelos em relação a benchmarks e enviar seus exemplos. Você pode encontrar mais informações sobre o mesmo na página de pesquisa GPT-4 da OpenAI.

Como obter acesso ao GPT-4 agora mesmo

Infelizmente, o GPT-4 ainda não está disponível para todos. Atualmente, a OpenAI lançou o novo modelo apenas para assinantes do ChatGPT Plus com um limite de uso. Os assinantes Plus também estão obtendo acesso de token limitado a duas versões diferentes do GPT-4. Enquanto alguns usuários podem usar o mecanismo de 32K do GPT-4, o que lhes dá um limite maior de palavras, outros estão restritos ao GPT-4 8K com capacidade limitada. A OpenAI afirmou que isso será ajustado dinamicamente com base na demanda. Os assinantes do ChatGPT Plus que desejam acessar agora devem verificar nosso guia sobre como obter acesso ao GPT-4 aqui.

Se você não pode se incomodar em obter o ChatGPT Plus, ficará satisfeito em saber que Microsoft Bing já está usando GPT-4. Embora você não consiga brincar com o modelo de linguagem como no OpenAI, ainda é muito bom experimentar e experimentar diferentes tipos de coisas. Confira como usar o MS Bing em qualquer navegador da Web para começar.

Perguntas frequentes (FAQs)

1. O GPT-4 está chegando ao ChatGPT?

O GPT-4 já está chegando ao ChatGPT. Conforme mencionado acima, o novo modelo já está disponível para assinantes do ChatGPT Plus. Se você estiver conectado, tudo o que você precisa fazer é selecionar o modelo correto e começar a conversar. Você também pode seguir nosso link acima sobre como obter o ChatGPT Plus, caso ainda não o tenha feito.

2. O uso do GPT-4 será gratuito?

A partir de agora, o uso do GPT-4 infelizmente não é gratuito. Requer uma assinatura do ChatGPT Plus, que custa $ 20 por mês. Mas, OpenAI afirmou que espera oferecer consultas GPT-4 gratuitas para todos em algum momento. A empresa também pode introduzir um novo nível de assinatura para oferecer acesso aprimorado a novos modelos de linguagem de IA, como GPT-4.

3. Posso confiar totalmente no GPT-4?

Não, você não pode confiar no GPT-4 como uma medida completa. O novo modelo ainda sofre de algumas limitações, incluindo um conjunto de dados antigo e alucinações ocasionais. O modelo também pode dar respostas erradas com confiança, que embora não sejam mal-intencionadas, ainda podem ser maliciosas. Embora o GPT-4 tenha realmente melhorado em comparação com o GPT 3.5, ele ainda tem sua cota de problemas. Portanto, se você acabar usando o modelo mais novo, use o julgamento humano adequado ao lado dele.

4. Qual é o tamanho do conjunto de dados do GPT-4?

Embora muitos rumores estivessem circulando sobre o GPT-4 ter 100 trilhões de parâmetros em oposição aos 175 bilhões do GPT-3, isso provavelmente é falso. Em entrevista ao StriclyVC, o CEO da OpenAI, Sam Altman, afirmou indiretamente que não será o caso e que o”rumor do GPT-4 é uma coisa ridícula”.

Talvez para Por esse motivo, OpenAI moderou as expectativasno que diz respeito ao tamanho do conjunto de dados do GPT-4 e não forneceu um número exato. O tempo dirá se é realmente revelado. No entanto, acreditamos que deve funcionar muito bem em sua demonstração inicial.

5. Como o GPT-4 foi treinado?

Como seus modelos de linguagem anteriores, o modelo básico do GPT-4 foi treinado para prever a próxima palavra em um documento. Como tal, os dados usados ​​são uma combinação de dados disponíveis publicamente e os próprios dados licenciados da OpenAI.

Esses dados contêm uma mistura de informações corretas e incorretas, raciocínio fraco e forte, declarações autocontraditórias e várias outras ideias. Isso dá ao GPT-4 um amplo nível de dados para analisar e reconhecer o que está sendo solicitado.

Prepare-se para o novo modelo de IA multimodal GPT-4 da OpenAI

Esperamos que você esteja saindo deste explicador com mais informações sobre o GPT-4 do que antes. O GPT-4 é um modelo repleto de oportunidades e que traz muita emoção para todos. Uma vez totalmente implementado no ChatGPT para todos, será interessante ver como todos farão pleno uso do novo modelo para criar experiências. No entanto, você não precisa esperar para experimentar o ChatGPT. Confira todas as coisas legais que você pode fazer no ChatGPT e depois integre o ChatGPT com a Siri e até obtenha o ChatGPT no seu Apple Watch! Então, o que você acha deste novo modelo emocionante? Deixe seus pensamentos nos comentários abaixo!

Deixe um comentário

No ano passado, a MSI lançou o Titan GT77 com o Intel Core i9-12900HX e a GPU RTX 3080 Ti Laptop, e foi o laptop para jogos mais poderoso da face do planeta. Foi o mais pesado dos pesos pesados ​​[…]

Já se passaram alguns meses desde o lançamento da série iPhone 14 e está bem estabelecido que é o ano dos modelos Pro. Mas se você pretende ir para os profissionais com babados, o valor a gastar […]

A Wondershare tem desenvolvido alguns dos melhores softwares e ferramentas para simplificar nossa vida e esforços criativos nos últimos anos. Particularmente, o Wondershare Filmora recebeu inúmeros elogios. Recebeu o prêmio de Líder de Edição de Vídeo […]

Categories: IT Info