IA da Meta agora pode falar com as vozes de John Cena, Judi Dench e Awkwafina
Mark Zuckerberg apresentou nova versão de seu modelo de IA, que pagou milhões para oferecer interação com vozes de famosos
A Meta revelou hoje o Llama 3.2, uma nova versão de seu modelo de inteligência artificial. Entre as novidades, destacam-se a capacidade de interpretar imagens e a introdução de vozes de celebridades para interações com os usuários. Dentre os nomes que “emprestaram” suas vozes para o projeto estão John Cena, Judi Dench, Awkwafina e Keegan-Michael Key e Kristen Bell.
↳ Vozes milionárias: Segundo o The Wall Street Journal, a Meta desembolsou milhões de dólares para garantir a participação dessas celebridades. Durante as negociações, muitos deles também impuseram restrições sobre o que suas vozes poderiam dizer, para evitar responsabilidades caso a IA fosse mal utilizada.
↳ Lançamento limitado: Inicialmente, essas vozes estarão disponíveis apenas nos EUA, Canadá, Austrália e Nova Zelândia.
↳ Capacidade visual: O Llama 3.2 é o primeiro modelo de IA da Meta a ser capaz de analisar fotos e fornecer informações detalhadas. Imagine tirar uma foto de um pássaro e a IA te dizer a espécie, ou enviar a imagem de um bolo e receber uma receita correspondente. A Meta também promete que o assistente será capaz de editar fotos conforme solicitado, trocando fundos ou alterando cores de roupas. Outro destaque do Llama 3.2 é sua versão otimizada para rodar em dispositivos móveis, permitindo que desenvolvedores criem aplicativos que utilizem câmeras de smartphones para facilitar ações no lugar dos usuários.
Comentários
Sua voz importa aqui no B9! Convidamos você a compartilhar suas opiniões e experiências na seção de comentários abaixo. Antes de mergulhar na conversa, por favor, dê uma olhada nas nossas Regras de Conduta para garantir que nosso espaço continue sendo acolhedor e respeitoso para todos.