Openai lança gpt-4o, modelo mais rápido, gratuito e que pode "ver" com a câmera do celular . Atualização chega com novos apps para celular e desktops e consegue entender e conversar melhor com o usuário, como se fosse um humano

OpenAI lança GPT-4o, modelo mais rápido, gratuito e que pode “ver” com a câmera do celular  1u4l6r

Avatar de victor pacheco
Atualização chega com novos apps para celular e desktops e consegue entender e conversar melhor com o usuário, como se fosse um humano

Em, rápido evento realizado em seu canal no YouTube, fomos apresentados ao novo modelo de linguagem da OpenAI, chamado de GPT-4o. O LLM promete ser duas vezes mais rápido e 50% mais barato que o GPT-4 Turbo, mais completo modelo de linguagem da empresa até hoje. Veja todos os detalhes agora mesmo. 2w371s

Vantagens do GPT-4o 4i5sz

Mira Murati, Diretora de Tecnologia da OpenAI, apresentou novo modelo de linguagem (Captura de tela: Glauco Vital/Showmetech)

O “o” de GPT-4o vem da palavra latina “omni”, que significa “tudo”. Durante o evento da OpenAI, Mira Murati, Diretora de Tecnologia da empresa, subiu ao palco para apresentar o novo modelo de linguagem. Ela ressaltou que a novidade poderá ser utilizada gratuitamente por todos que possuem uma conta da OpenAI, mas quem tem uma conta ChatGPT Pro terá 5x mais limite de mensagens.

A grande vantagem do novo modelo de linguagem está no e para mais de 97 idiomas, além da capacidade para criar textos, imagens e atuar de forma mais aprimorada do que o GPT-4 Turbo. A novidade também tem um recurso de memória, que registra conversas anteriores para uma melhor compreensão de chats no futuro.

A empresa também cita que o novo modelo de linguagem conseguirá realizar navegações na web em breve, mas não chegou a dizer se isso será liberado para usuários com contas gratuitas ou apenas para quem tem uma conta Pro.

Por fim, ao escutar o que o usuário está falando, o novo modelo de linguagem da OpenAI consegue compreender o estado de humor de uma pessoa. Em exemplo mostrado durante a apresentação, ele identificou que uma pessoa estaria nervosa apenas por sua respiração ofegante. O GPT-4o também consegue identificar o humor apenas por uma foto.

Novidade poderá ser ada a partir de hoje (Imagem: Glauco Vital/Showmetech)

Mira Murati também compartilhou que, atualmente, mais de 100 milhões de pessoas usam o ChatGPT para a criação de imagens, textos e mais conteúdos. A executiva ressaltou o grande propósito da OpenAI em criar tecnologias íveis para todos e o lançamento do novo modelo de linguagem é mais uma forma de colocar este compromisso em prática.

Principais recursos e exemplos 4q5b1e

Não há como negar que o GPT-4o mais se parece com um grande assistente pessoal, como o Google Assistente e Amazon Alexa. Durante o evento de novidades da OpenAI, foi mostrada a capacidade do LLM em conseguir usar a câmera do smartphone como apoio em suas tarefas.

O desenvolvedor Mark Chan simulou estar em uma situação nervosa e logo após identificar o comportamento anormal, o modelo de linguagem indicou exercícios para que ele ficasse mais calmo. Confira o vídeo abaixo:

O recurso mais interessante é a possibilidade do modelo de linguagem reconhecer expressões faciais, ambientes e mais, apenas usando a câmera do smartphone. Basta dar um comando para o ChatGPT e abrir a câmera e esperar que isso seja feito, em alguns segundos. Veja a demonstração:

Caso você seja uma pessoa que precisa de ajuda em problemas matemáticos, a inteligência artificial também pode ajudar na resolução disso, usando a câmera de apoio. Durante o evento de hoje, um desenvolvedor desenhou uma equação de primeiro grau (3X + 1 = 4) e, com apoio do novo modelo de linguagem presente no ChatGPT, conseguiu chegar ao resultado. Veja outra demonstração:

Com o e para mais de 97 idiomas, a inteligência artificial da OpenAI também terá habilidade para ajudar duas pessoas que falam idiomas diferentes, em tempo real (algo já visto no Google Tradutor). Basta dar o comando, citando as duas línguas, e uma conversa poderá ser feita usando o modelo de linguagem GPT-4o como base. Confira:

A empresa também ressalta que todos os pedidos feitos pelos usuários poderão ser alterados ainda enquanto a voz do GPT-4o está enviando as respostas. Dessa forma, não é mais necessário esperar que toda uma resposta seja enviada para fazer um novo pedido para a inteligência artificial. Assista à demonstração:

Durante a interrupção do envio de respostas, será possível mudar o tom de voz, a entonação dos comandos enviados e a velocidade da fala da voz da inteligência artificial. Isso tudo em apenas alguns segundos. Estes são apenas alguns exemplos do que o novo modelo de linguagem pode fazer, mas com certeza, a novidade ganhará novas possibilidades assim que for liberada para uso geral.

Novo aplicativo para desktop 1y5t9

Aplicativo para desktop será lançado para macOS, pelo menos neste primeiro momento (Foto: Glauco Vital/Showmetech)

Um aplicativo que simula o uso da inteligência artificial na web foi lançado e exibido durante o evento da OpenAI de hoje. Além de enviar respostas sobre os comandos escritos no bate-papo, o aplicativo, que já conta com o novo modelo de linguagem integrado, pode ver o que está sendo mostrado na tela e até mesmo fazer resumos. A novidade também pode usar a webcam do Mac para “ver” e reconhecer imagens.

Por agora, o aplicativo para desktop do ChatGPT está liberado apenas para macOS a partir de hoje para usuários Pro, e demais usuários ao longo das próximas semanas. Não há informações sobre a disponibilidade para Windows ou Linux, mas atualizaremos a matéria quando a informação for liberada pela OpenAI.

A empresa também aproveitou o lançamento para renovar a interface web da IA, entretanto sem anunciar data para a implementação. Veja:

Nova interface do chatgpt com modelo de linguagem gpt-4o
Navegação ficou menos poluída (Foto: Reprodução/MacRumors)

Entre as novidades, há o reposicionamento de botões e um layout mais centralizado para as respostas da IA, tudo isso para ser mais “amigável e conversacional”, é o que informa a empresa.

Disponibilidade 4f4y6t

O lançamento do GPT-4o, apesar de começar a partir de hoje, será feito em partes. Conforme o pronunciamento para a imprensa, todas as pessoas que tiverem uma conta gratuita ou Pro terão o à capacidade do GPT-4o de forma gratuita, mas quem é terá um modelo de linguagem com limite de mensagens 5x maior. Veja a nova interface para quem é da OpenAI:

Modelo de linguagem está sendo liberado a partir de hoje (Foto: Bruno Martinez/Showmetech)

Já falando sobre o Voice Mode, que dá voz ao ChatGPT, será necessário esperar mais um pouco: a empresa anunciou que este recurso será lançado em um segundo momento, com sua total capacidade, “nas próximas semanas”.

A API do GPT-4o também já foi liberada e está 2x mais rápida do que o GPT-4 Turbo, além de ser 50% mais barata e ter limites de taxa 5x mais altos quando comparada com a do modelo anterior.

ChatGPT pode se tornar assistente pessoal? j386e

A novidade chega para mudar como usamos a IA que ficou famosa desde o final de 2023. E não há como negar que a OpenAI coloca sua grande ferramenta como uma opção interessante contra o Google Assistente e Amazon Alexa, ainda mais que agora consegue “falar”.

Nos resta ver se ela estará disponível em aparelhos lançados durante o restante de 2024, mas estamos vendo o começo de uma nova era para o uso do ChatGPT. Enquanto isso, diga pra gente nos comentários como você vê esta mudança e qual o recurso favorito apresentado hoje.

Veja também 6m676f

OpenAI e Moderna anunciam parceria para melhorar vacinas e tratamentos

Com informações: OpenAI

Revisado por Glauco Vital em 13/5/24.

Deixe um comentário Cancelar resposta 3j4g1g
Posts Relacionados 6r1fc

Hisense mostra produtos que vão chegar ao Brasil em 2025 3ow3l

Além de uma nova linha de geladeiras conectadas, empresa mostrou projetor C2 Ultra, que exibe tela de até 300 polegadas com resolução 4K. Veja tudo o que foi anunciado
Avatar de victor pacheco
Leia Mais

Bespoke AI: Samsung mostra produtos de casa conectada no México 705d4i

Casa inteligente da Samsung na Cidade do México mostra como a vida pode ser mais prática com Inteligência Artificial e o ecossistema SmartThings. Veja todos os produtos
Avatar de bruno martinez
Leia Mais

Veja o que esperar do Galaxy Z Fold7 e Z Flip7 27505k

Novos dobráveis da Samsung chegarão em breve e devem ser mais leves, ter processador do ano e câmeras melhores, com até mesmo uma versão de baixo custo do Z Flip. Veja tudo o que sabemos.
Avatar de victor pacheco
Leia Mais