Conferência: Gemini, a IA do Google, para funções de IA apresentadas para Apple Intelligence.
Uma nova funcionalidade foi apresentada durante a conferência Made by Google, juntamente com outras atualizações para o Gemini. Agora, o sistema do Google tem a capacidade de ler a tela do Android e resumir o conteúdo de vídeos do YouTube, mostrando-se como uma alternativa interessante para a inteligência artificial. Essas funções lembram as anunciadas para a Apple Intelligence na WWDC 2024, evidenciando a constante evolução da tecnologia.
Além disso, o Gemini também pode ser utilizado como um assistente pessoal, oferecendo suporte em diversas tarefas do dia a dia. A integração entre o Google e a IA promete facilitar a vida dos usuários, tornando a interação com a tecnologia mais intuitiva e eficiente. O futuro da inteligência artificial parece promissor com essas inovações no Gemini.
Gemini Live: Novidades da Conferência Feito por Google
As atualizações mais recentes do Gemini estão disponíveis apenas em inglês para os assinantes do Gemini Advanced e serão lançadas nas próximas semanas para os usuários de smartphones Pixel, Samsung, outros dispositivos Android e iOS. Abaixo, confira informações adicionais sobre as funcionalidades.
Google Assistente com IA: 4 dicas do Gemini para aprimorar sua experiência de e-mail
🔔 Canal do TechTudo no WhatsApp: mantenha-se informado sobre as principais notícias, tutoriais e análises
Gemini Live: uma nova funcionalidade do Google que permite interagir com a IA no Android — Imagem: Reprodução/Google 📝 É possível lucrar com inteligência artificial? Descubra no Fórum do TechTudo
Gemini Live: A IA do Google agora pode se comunicar com você
Anunciado hoje, o Gemini Live introduziu a capacidade de conversar por voz com a IA do Google. Usuários que possuem o aplicativo de inteligência artificial ou ativaram o Gemini no Google Assistente do Android podem iniciar uma conversa natural e contínua usando essa ferramenta.
A função pode permanecer ativa em segundo plano, eliminando a necessidade de pressionar botões para solicitar informações, basta fazer uma pergunta ao assistente — mesmo com a tela bloqueada. Cada interação é registrada no Gemini e pode ser retomada conforme a preferência do usuário.
Neste momento, o recurso está disponível apenas para os assinantes do Gemini Advanced e em inglês, mas em breve será estendido para outros dispositivos Android, para o app do iPhone, com suporte a diferentes idiomas.
A funcionalidade pode ser empregada para acessar dados armazenados no celular ou na web e, em breve, também para controlar o dispositivo por meio do Gemini. Gemini Live — Imagem: Reprodução/Google Outras inovações do Gemini O Gemini agora pode interagir com o usuário com base no contexto da tela do celular. A IA será capaz, por exemplo, de resumir vídeos do YouTube para o usuário sem a necessidade de iniciar a reprodução. Com o assistente ativo, será viável obter informações e fornecer comandos à IA por meio do botão ‘Pergunte sobre esta tela’.
Além disso, a inteligência artificial recebeu novas extensões, sendo compatível com os aplicativos Google Calendar, Google Tarefas e Google Keep. A ferramenta também pode ser usada para gerenciar a reprodução de mídia, o Bluetooth e a lanterna do celular, por exemplo, por meio do Google Utilitários. Para exemplificar a utilidade das novidades, o Google realizou uma demonstração.
A partir de uma foto de um cartaz com a programação da turnê de uma banda, a IA conseguiu verificar se o usuário estaria disponível quando os artistas visitassem sua cidade e ainda criou uma tarefa para lembrá-lo de comprar um ingresso posteriormente — tudo em uma única interação. Também será possível interagir de forma mais integrada com os aplicativos do sistema Google usando a IA.
Com o Gemini, os usuários poderão arrastar e soltar diretamente no Gmail uma imagem gerada com a ferramenta, por exemplo. Assim como o Gemini Live, essas novidades já estão disponíveis em inglês para os interessados.
Fonte: @Tech Tudo
Comentários sobre este artigo