Google Cloud Next 2025 – Principais Anúncios em IA e Desenvolvimento
Inovações em Inteligência Artificial (IA)
O Google Cloud Next ’25 foi marcado por inúmeros lançamentos em IA, reforçando a visão do Google de uma plataforma cloud otimizada para inteligência artificial generativa e sistemas multi-agente. As novidades englobaram desde novos modelos de fundação (Large Language Models e modelos multimodais) até melhorias na plataforma Vertex AI e aplicações práticas de IA para empresas. A seguir, detalhamos os destaques em IA anunciados no evento.
Novos modelos de fundação e multimodalidade
Foram apresentados novos modelos de IA generativa, ampliando o Vertex AI Model Garden com capacidades de linguagem, visão, áudio, música e vídeo:
- Gemini 2.5 Pro – Nova geração do modelo de linguagem do Google (LLM) disponível em preview público. Projetado para máxima qualidade em tarefas complexas que exigem raciocínio aprofundado e codificação, o Gemini 2.5 Pro alcançou o ranking #1 no Chatbot Arena (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Está acessível via Vertex AI, AI Studio e no app Gemini.
- Gemini 2.5 Flash – Versão de baixa latência e alto custo-benefício do modelo Gemini (foco em rapidez e preço). Indicada para cargas de trabalho com exigência de resposta imediata, estará disponível em breve no Vertex AI e AI Studio (Google Cloud Next 2025 Wrap Up | Google Cloud Blog).
- Imagen 3 – Novo modelo de geração de imagens, com qualidade superior e capacidade de inpainting (reconstrução de partes faltantes em imagens). Suporta múltiplos idiomas e inclui marcas d’água digitais (SynthID) para segurança (Your ultimate guide to the latest in generative AI on Vertex AI | Google Cloud Blog). Em relação à versão anterior, gera imagens até 40% mais rápido e com melhor compreensão de instruções (Your ultimate guide to the latest in generative AI on Vertex AI | Google Cloud Blog).
- Chirp 3 – Modelo de geração e compreensão de áudio, agora com Instant Custom Voice, permitindo criar vozes personalizadas com apenas 10 segundos de amostra de áudio (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Facilita aplicações como assistentes de voz com timbres customizados.
- Lyria – Primeiro modelo de texto-para-música voltado ao mercado empresarial, capaz de transformar prompts textuais em clipes de música de 30 segundos (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Esse modelo explora a geração de conteúdo musical a partir de descrições em linguagem natural.
- Veo 2 – Modelo avançado de geração de vídeo, agora com novos recursos de edição e controle de câmera. Permite aos usuários refinar e reutilizar conteúdo de vídeo com precisão, por exemplo alterando ângulos ou cenas de forma simples (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). (Curiosidade: o relógio de contagem regressiva da keynote do Next ’25 foi criado com o Veo 2 (Google Cloud Next 2025 Wrap Up | Google Cloud Blog).)
- Modelos de terceiros no Vertex AI – Além dos modelos proprietários, o Google integrou modelos abertos de parceiros. Destaque para o Llama 4 (modelo de linguagem open-source da Meta) disponível de forma geral no Vertex AI (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Também foi anunciada uma parceria com a AI2 (Allen Institute for AI) para trazer vários modelos open-source adicionais ao Model Garden do Vertex (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Com isso, o Vertex AI se torna a única plataforma de cloud que oferece modelos generativos de mídia em todas as modalidades: vídeo, imagem, voz e música (Google Cloud Next 2025 Wrap Up | Google Cloud Blog).
Plataforma Vertex AI: LLMs e recursos avançados
Para suportar esses modelos, a plataforma Vertex AI recebeu aprimoramentos que facilitam a utilização de IA generativa em escala de produção:
- Vertex AI Dashboards – Painéis de monitoramento que permitem acompanhar o uso dos modelos, throughput, latência e erros em tempo real (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Fornecem visibilidade e controle para depurar problemas e otimizar o desempenho das aplicações de IA.
- Customização e Fine-tuning de modelos – Nova interface unificada para treinar e ajustar modelos de fundação com dados proprietários de forma segura. É possível personalizar modelos do Google (Gemini, Imagen, Veo, etc.) e modelos abertos (ex: Llama, Mistral) dentro do Vertex, mantendo os dados do cliente isolados (Google Cloud Next 2025 Wrap Up | Google Cloud Blog).
- Vertex AI Model Optimizer – Funcionalidade que otimiza automaticamente as respostas de um modelo de acordo com preferências de qualidade vs. custo (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). O desenvolvedor pode escolher o equilíbrio desejado, e o Model Optimizer ajusta o prompt ou os parâmetros para obter a melhor resposta possível dentro daquele custo (Google Cloud Next 2025 Wrap Up | Google Cloud Blog).
- Live API – Uma nova API de streaming integrada aos modelos Gemini, permitindo interações verdadeiramente conversacionais. A Live API oferece streaming de áudio e vídeo diretamente para o modelo, de modo que agentes de IA possam processar voz e imagens em tempo real e responder de forma imersiva (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Por exemplo, um aplicativo pode agora aceitar perguntas faladas pelo usuário e fornecer respostas em áudio, tornando a experiência mais natural (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). (Em suma, é uma interface bidirecional de baixa latência que suporta entrada de texto, voz ou vídeo, e saída em voz e texto.)
- Vertex AI Global Endpoint – Novo endpoint global para os modelos Gemini, com roteamento inteligente de chamadas entre regiões (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Essa capacidade garante alta disponibilidade e baixa latência, distribuindo o tráfego de inferência entre múltiplos data centers conforme necessário para manter a responsividade mesmo em picos de uso ou falhas regionais.
- Outros recursos do Vertex AI – Foi mencionado ainda que funcionalidades como cache de contexto (context caching) e Batch API ajudam a reduzir custos de requisições de LLMs, especialmente para prompts longos ou cargas em lote (Your ultimate guide to the latest in generative AI on Vertex AI | Google Cloud Blog) (Your ultimate guide to the latest in generative AI on Vertex AI | Google Cloud Blog). Além disso, recursos antes em teste, como Controlled Generation (para forçar o modelo a seguir formatos de saída específicos, ex.: JSON) e SFT (Supervised Fine Tuning) para ajustar pesos do Gemini com dados rotulados, chegaram à disponibilidade geral, tornando a plataforma mais flexível e segura para aplicações corporativas (Your ultimate guide to the latest in generative AI on Vertex AI | Google Cloud Blog) (Your ultimate guide to the latest in generative AI on Vertex AI | Google Cloud Blog).
IA multi-agente e novas ferramentas de agentes inteligentes
(Google Cloud Next 2025 Wrap Up | Google Cloud Blog) A Google Cloud enfatizou no Next ’25 a evolução para sistemas de IA compostos por múltiplos agentes, cooperando entre si. Uma das iniciativas anunciadas foi o Agent2Agent (A2A), o primeiro protocolo aberto entre hyperscalers para comunicação entre agentes de IA de diferentes provedores e frameworks (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Mais de 50 parceiros da indústria (incluindo Accenture, Salesforce, SAP, ServiceNow, Box, entre outros) estão colaborando nesse protocolo, refletindo uma visão compartilhada de interoperabilidade em sistemas multi-agente (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Em complemento, o Google lançou um conjunto de ferramentas para facilitar a criação e gerenciamento desses agentes, mantendo controle e governança sobre seu comportamento:
- Agent Development Kit (ADK) – Framework open-source que simplifica o desenvolvimento de sistemas multi-agentes complexos, provendo componentes prontos e padrões de agente reutilizáveis (Google Cloud Next 2025 Wrap Up | Google Cloud Blog) (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). O ADK suporta o novo Model Context Protocol (MCP), padrão que fornece um meio unificado para agentes acessarem diversas fontes de dados e ferramentas externas (Google Cloud Next 2025 Wrap Up | Google Cloud Blog) – assim, em vez de cada agente ter integrações específicas, eles podem usar o MCP para interagir com APIs, bases de dados ou outros serviços de forma padronizada.
- Agent2Agent Protocol (A2A) – Especificação aberta que define como agentes de diferentes naturezas podem comunicar-se diretamente entre si. A proposta do A2A é permitir ecossistemas nos quais agentes (sejam LLMs, agentes de pesquisa, bots etc.) cooperem trocando mensagens padronizadas, independente da plataforma subjacente (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Essa interoperabilidade tem apoio de dezenas de empresas, indicando um esforço amplo para adoção do padrão.
- Agent Garden – Coleção de exemplos e componentes pré-prontos de agentes, acessíveis diretamente no ADK (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Inclui modelos de agentes comuns (atendimento ao cliente, busca de informação, etc.) que podem servir de ponto de partida, acelerando o desenvolvimento e ensinando melhores práticas por meio de exemplos funcionais.
- Agent Engine – Ambiente de execução gerenciado para agentes dentro do Vertex AI (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Permite implantar agentes customizados em produção com recursos embutidos de teste, versionamento e alta confiabilidade em escala global (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Em outras palavras, o Agent Engine cuida da infraestrutura para rodar múltiplos agentes simultâneos de forma segura, para que desenvolvedores foquem na lógica dos agentes.
- Grounding com Google Maps – Agora é possível dar contexto geoespacial aos agentes de IA, integrando o conhecimento do Google Maps. Por exemplo, um agente pode receber coordenadas ou nomes de locais e responder com informações mapeadas a lugares reais (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Essa funcionalidade (inicialmente disponível para localidades nos EUA) enriquece agentes que precisem entender ou referenciar localização, rotas, estabelecimentos, etc.
- Customer Engagement Suite aprimorado – O conjunto de ferramentas para engajamento de clientes (usado em contact centers e atendentes virtuais) recebeu melhorias de IA: vozes sintéticas ainda mais naturais e humanizadas, capacidade dos agentes compreenderem emoções na voz do cliente (ajustando seu tom ou respostas conforme detecção de frustração, por exemplo) e suporte a vídeo em tempo real, permitindo que um agente de IA interprete o que vê através do dispositivo do cliente (câmera) para reagir de forma adequada (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Além disso, foi incorporada uma interface no-code para construção de fluxos de agente, facilitando a criação de assistentes virtuais sem necessidade de programar (Google Cloud Next 2025 Wrap Up | Google Cloud Blog).
- Agentspace e agentes prontos para uso – Visando levar os agentes de IA ao dia a dia dos funcionários em empresas, o Google apresentou o Agentspace: uma plataforma que reúne os modelos de fundação do Google, a busca de qualidade Google e agentes de IA poderosos aplicados ao conhecimento empresarial, tudo acessível a cada colaborador (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). O Agentspace agora integra-se ao Chrome Enterprise, permitindo que funcionários encontrem informações internas de forma segura diretamente no navegador, dentro de seus fluxos de trabalho cotidianos (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Também traz uma Agent Gallery que centraliza todos os agentes disponíveis na organização (sejam criados pelo Google, pela equipe interna ou por parceiros), facilitando a descoberta e uso desses agentes conforme a necessidade (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Para capacitar usuários não técnicos a personalizarem soluções, há o Agent Designer, uma interface sem código onde qualquer pessoa pode criar ou ajustar agentes para automatizar tarefas do dia a dia ou consultar bases de conhecimento, adaptando-os ao seu fluxo de trabalho (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Por fim, o Google disponibilizou dois agentes prontos que demonstram aplicações práticas: o Idea Generation agent – que ajuda na criação autônoma de ideias inovadoras em qualquer domínio e as avalia para sugerir as melhores soluções (utilizando um sistema competitivo inspirado no método científico) (Google Cloud Next 2025 Wrap Up | Google Cloud Blog); e o Deep Research agent – que realiza pesquisas complexas sob demanda, vasculhando fontes internas e externas e sintetizando o conteúdo em relatórios compreensíveis, gerados a partir de um simples prompt do usuário (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Esses agentes embutidos mostram como a IA generativa pode auxiliar em criatividade e tomada de decisão dentro das empresas.
IA aplicada em domínios científicos e industriais
A colaboração entre Google DeepMind e Google Research resultou em modelos de IA focados em casos de uso científicos que agora estão disponíveis via Google Cloud:
- AlphaFold 3 – Nova versão do aclamado modelo de previsão de estruturas de proteínas. Desenvolvido pela DeepMind em parceria com a Isomorphic Labs, o AlphaFold 3 High-Throughput foca em escala e velocidade: é capaz de processar dezenas de milhares de sequências de proteínas em lote, aproveitando infraestrutura autoscalável para minimizar custos (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). A solução está disponível para uso não-comercial via Google Cloud Cluster Toolkit, permitindo a pesquisadores e empresas farmacêuticas executar predições de estrutura proteica em larga escala na nuvem.
- WeatherNext – Conjunto de modelos de IA para previsão do tempo de alta velocidade e precisão, desenvolvidos pelo Google DeepMind em conjunto com o Google Research (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Os modelos WeatherNext foram disponibilizados no Vertex AI Model Garden (Google Cloud Next 2025 Wrap Up | Google Cloud Blog), possibilitando que organizações personalizem e implantem esses modelos para aplicações diversas – desde pesquisa climática até previsão meteorológica operacional – se beneficiando da infraestrutura do Vertex para escalabilidade.
Infraestrutura de IA e hardware
Para suportar o crescente uso de IA generativa, o Google Cloud anunciou avanços na sua infraestrutura de hardware e software de alto desempenho (“AI Hypercomputer”):
- TPU v5 (Ironwood) – Lançada a 7ª geração das TPUs do Google, codinome Ironwood. Prevista para entrar em operação no final de 2025, a TPU v5 foi projetada para turbinar modelos de IA de raciocínio e inferência em escala (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). As TPUs do Google já equipam muitos dos modelos internos (como o PaLM e Gemini), e essa nova geração deverá oferecer mais desempenho por dólar em cargas de IA. (Detalhes adicionais não foram divulgados, mas tipicamente cada geração traz aumento de velocidade e eficiência energética.)
- Google Distributed Cloud + NVIDIA – Uma parceria estratégica com a NVIDIA foi anunciada para levar os modelos Gemini ao ambiente on-premises via Google Distributed Cloud. Em cooperação com a Dell, o Google Cloud integrará o Gemini às novas GPUs NVIDIA Blackwell (arquitetura de próxima geração da NVIDIA) disponíveis em servidores locais (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Isso permitirá que clientes rodem os modelos avançados do Google localmente (em ambientes isolados ou de borda), atendendo requisitos de soberania de dados ou baixa latência, sem precisar usar diretamente a nuvem pública. O próprio CEO da NVIDIA, Jensen Huang, participou do anúncio, destacando essa colaboração inédita entre as empresas (Google Cloud Next 2025 Wrap Up | Google Cloud Blog).
- Pathways no Google Cloud – O Pathways, sistema de execução distribuída de IA desenvolvido pelo Google DeepMind (famoso por permitir treinar um único modelo em milhares de TPUs/GPUs de forma eficiente), está sendo disponibilizado aos clientes pela primeira vez (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Ou seja, empresas poderão utilizar a mesma infraestrutura de runtime que o Google usa para treinar seus maiores modelos. O Pathways facilita o escalonamento de treinamento e inferência de modelos gigantes, coordenando recursos computacionais de forma otimizada.
- vLLM em TPUs – Integração do projeto open-source vLLM (uma otimização de inferência para LLMs) com as TPUs do Google Cloud (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Clientes que já utilizam vLLM com PyTorch poderão agora executar inferências em TPUs sem precisar alterar seu código (Google Cloud Next 2025 Wrap Up | Google Cloud Blog), aproveitando o desempenho das TPUs com facilidade. Além disso, será possível servir um modelo simultaneamente em TPUs e GPUs conforme necessário. Essa novidade reduz barreiras para desenvolvedores adotarem TPUs em aplicações de linguagem natural de alta performance.
- Novas VMs de GPU (Blackwell e além) – O Google ampliou seu portfólio de máquinas virtuais aceleradas por GPU:
- A4 e A4X VMs – instâncias baseadas nas GPUs NVIDIA Blackwell de data center (B200 e GB200). As VMs A4X (multi-GPU) entram em preview, e o Google Cloud destaca ser o primeiro provedor a oferecer essas GPUs de última geração (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Comparadas à geração anterior (A3 com H100), as Blackwell prometem ganhos significativos de desempenho, beneficiando treinamentos e inferências de modelos de próxima geração.
- GPUs NVIDIA Vera Rubin – Anunciado compromisso de oferecer futuramente as GPUs Vera Rubin, próxima geração após Blackwell, assim que disponíveis. Essas GPUs foram mencionadas por oferecer impressionantes 15 exaflops de performance FP4 por rack (Google Cloud Next 2025 Wrap Up | Google Cloud Blog), voltadas a cargas massivas de inferência em IA. O Google Cloud será um dos primeiros a disponibilizá-las assim que lançadas pela NVIDIA.
- (Além disso, em computação tradicional, novas VMs C4 (Intel Granite Rapids) e C4D (AMD 5ª gen) foram introduzidas, com melhorias de até 30-65% em performance sobre a geração anterior, mas esses anúncios focam mais em cargas gerais do que IA.)
- Cluster Director e supercomputação escalável – O serviço Cluster Director (anteriormente Hypercompute Cluster) recebeu melhorias para facilitar a orquestração de supercomputadores de IA na nuvem (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Ele permite agrupar dezenas ou centenas de GPUs/TPUs como um cluster unificado, com posicionamento colocalizado, agendamento de tarefas considerando a topologia e manutenção coordenada. Novos recursos previstos incluem integração com Slurm (popular orquestrador HPC) e observabilidade 360º do cluster (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Em termos de capacidade, o Google Cloud anunciou suporte a clusters com até 30.000 GPUs interconectadas sem bloqueio, voltado a treinar os modelos mais exigentes (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Paralelamente, aprimorou sua rede de alta velocidade: conexões RDMA entre GPUs atingindo 3,2 Tbps de bandwidth agregada, com latência ultra baixa, agora em disponibilidade geral (Google Cloud Next 2025 Wrap Up | Google Cloud Blog), além de políticas de segurança zero-trust para tráfego RDMA entre aceleradores (um “firewall” específico para evitar acessos indevidos em comunicações de GPU/TPU) (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Esses avanços colocam a infraestrutura do Google Cloud na liderança para quem precisa construir serviços de IA em escala massiva.
Novidades para Desenvolvedores
Além das inovações em IA, o Next ’25 trouxe diversos anúncios de interesse para desenvolvedores e equipes de TI, desde novas ferramentas de desenvolvimento, APIs e SDKs, até integrações de IA que simplificam o ciclo de vida de aplicações. Esses lançamentos visam aumentar a produtividade dos devs e tornar a plataforma Google Cloud mais amigável, unificando etapas de design, construção, implantação e operação de software.
Ferramentas e plataformas de desenvolvimento na nuvem
Várias melhorias foram introduzidas para facilitar o design e a gestão de aplicações cloud de forma colaborativa e eficiente:
- Application Design Center – Nova ferramenta (em preview) que oferece uma abordagem visual, em estilo canvas, para desenhar e modificar arquiteturas de aplicações (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Desenvolvedores e arquitetos podem arrastar componentes, configurar templates de aplicação prontos para deploy e visualizar o infrastructure-as-code correspondente em tempo real (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). A plataforma também permite colaboração em equipe no design (edição conjunta), agilizando o planejamento de sistemas complexos.
- Cloud Hub – Serviço centralizado (em preview) que funciona como um “painel de comando” unificado de todo o seu portfólio de aplicações na nuvem (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Nele é possível ter insights sobre todos os deployments ativos, verificar o status de saúde e realizar troubleshooting, acompanhar utilização de recursos, otimização, além de gerenciar manutenção, cotas, reservas e até chamados de suporte – tudo em um só lugar (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Em suma, o Cloud Hub consolida informações que antes exigiam navegar por múltiplos dashboards do Google Cloud.
- App Hub integrado – O App Hub, que modela aplicações como um conjunto de serviços interconectados, agora está integrado com mais de 20 produtos do Google Cloud (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Isso significa que ferramentas como Cloud Run, GKE, Cloud Functions, etc., comunicam seu contexto ao App Hub, permitindo uma visão orientada à aplicação (e não apenas a recursos individuais). Desenvolvedores ganham um quadro unificado de como os serviços de uma aplicação se relacionam e podem navegar facilmente entre eles.
- Application Monitoring (preview) – Novo recurso de monitoramento que enriquece automaticamente logs, métricas e traces com contexto da aplicação (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Ao invés de visualizar métricas isoladas por VM ou por serviço, o Monitoring agrupa e etiqueta os sinais de observabilidade conforme a aplicação a que pertencem, suportando alertas “conscientes da aplicação” e painéis prontos no nível de aplicação. Isso reduz o esforço manual de correlacionar dados e acelera a detecção de problemas em ambientes com múltiplos serviços.
- Cost Explorer (preview privado) – Ferramenta para análise granular de custos por aplicação (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Oferece visibilidade de uso e gasto de recursos no nível mais detalhado (por componente de app, equipe, etc.), ajudando a identificar oportunidades de otimização e eliminação de desperdícios. Com essa visibilidade, times de FinOps e desenvolvimento conseguem compreender melhor o custo de cada funcionalidade e tomar medidas para melhorar a eficiência (Google Cloud Next 2025 Wrap Up | Google Cloud Blog).
Assistentes de programação e integrações de IA para devs
Uma forte tendência do evento foi incorporar IA generativa para auxiliar o trabalho de desenvolvimento de software. O Google anunciou e atualizou várias ferramentas nessa linha:
- Gemini Code Assist – Conjunto de agentes de IA (alimentados pelo modelo Gemini) que ajudam em tarefas comuns de programação (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). O Code Assist pode auxiliar na migração de código legado, sugestão de implementação de novas features, revisão de pull requests, geração de casos de teste, teste de modelos de ML e até na escrita de documentação (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). O progresso dessas atividades pode ser acompanhado em um quadro Kanban integrado, dando visibilidade ao desenvolvedor sobre o que a IA já fez e o que está em andamento. Importante: o Code Assist foi desenvolvido com foco em segurança e privacidade para ambientes empresariais, garantindo que o código e dados do desenvolvedor permaneçam protegidos.
- Code Assist no Android Studio – O assistente de código do Gemini foi integrado diretamente ao Android Studio (IDE oficial de desenvolvimento Android) (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Agora, desenvolvedores mobile profissionais podem contar com sugestões inteligentes e autocompletar de código orientado por IA, similar a um “pair programmer” virtual, mas com as garantias de privacidade e compliance necessárias em projetos corporativos. Essa integração promete acelerar o desenvolvimento de apps Android, reduzindo trabalho repetitivo de codificação.
- Gemini Code Assist Tools – Conjunto de ferramentas (preview) que conecta o Code Assist a diversas fontes de informação do desenvolvedor (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Por exemplo, integrações com Atlassian, Sentry, Snyk e outros permitem que a IA acesse dados de tickets, erros em produção, vulnerabilidades conhecidas, etc., para fornecer sugestões de código ainda mais contextualizadas (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Assim, o assistente pode, por exemplo, recomendar código já levando em conta um bug reportado no Sentry ou aderindo a políticas de segurança do Snyk automaticamente.
- App Prototyping Agent – Um agente gerador de protótipos de apps, embutido no novo Firebase Studio (ambiente de desenvolvimento na nuvem). Em preview, esse agente pode transformar uma ideia escrita em linguagem natural em um protótipo funcional completo (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Ele gera a interface de usuário, o código de backend e os fluxos de IA necessários para materializar a ideia em um aplicativo básico (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). É como ter um “dev inicial” automatizado: agiliza brainstorming e desenvolvimento inicial, permitindo que equipes validem conceitos rapidamente antes de polir o produto.
- Gemini Cloud Assist – Assistente de IA voltado para tarefas de operação e arquitetura cloud. O Cloud Assist foi integrado ao Application Design Center para acelerar o desenho e implementação de infraestruturas durante o design de aplicações (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Por exemplo, pode sugerir configurações otimizadas ou detectar configurações faltantes enquanto o arquiteto monta o diagrama da aplicação. Além disso, o Cloud Assist agora permeia vários serviços do Google Cloud (Storage Insights, Cloud Observability, Firebase, Database Center, Flow Analyzer, etc.) oferecendo recomendações inteligentes em cada contexto (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Dois sub-recursos merecem menção:
- Cloud Assist Investigations – funcionalidade (preview privado) onde a IA analisa os dados do seu ambiente cloud para resolver incidentes e problemas mais rápido (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Ao ocorrer um alerta, a IA pode correlacionar métricas, logs e mudanças recentes para apontar a causa raiz ou sugerir etapas de mitigação, agilizando a resposta de SREs/DevOps.
- FinOps Hub 2.0 com IA – o Hub de Finanças Operacionais da nuvem recebeu uma atualização que incorpora insights de otimização de custos gerados pelo Cloud Assist (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Isso inclui identificação automática de recursos ociosos (“waste”) e sugestões de direitosizing ou ajustes de reservas para economizar dinheiro, tudo integrado no fluxo de gestão de custos.
Novas APIs, SDKs e serviços para desenvolvedores
Por fim, o Next ’25 introduziu novos programas e integrações pensadas para facilitar a vida do desenvolvedor e ampliar as possibilidades de construção de aplicações:
- Google Developer Program – Lançado um novo programa de adesão para desenvolvedores explorarem o Google Cloud e seus produtos de IA de forma segura e acessível (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). O programa oferece benefícios infundidos com IA (por exemplo, acesso ao Gemini Code Assist em todos os planos) e possui dois níveis: uma assinatura Premium individual (já disponível) e uma assinatura Enterprise para equipes (em preview, por US$75/mês por integrante) (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). A ideia é prover aos desenvolvedores independentes um baixo custo de entrada para experimentar recursos de IA na nuvem, e às equipes corporativas um pacote com ferramentas avançadas de desenvolvimento assistido por IA, suporte e créditos em um modelo previsível.
- Gen AI in Firebase – A plataforma Firebase incorporou diretamente capacidades de IA generativa. Agora o Vertex AI está integrado ao Firebase: desenvolvedores de aplicativos móveis/web podem chamar modelos como o Gemini diretamente em suas apps Firebase, por exemplo para criar experiências de chat ou Q&A. Especificamente, o Firebase suporta a nova Live API do Gemini, permitindo que usuários finais em um app façam perguntas por áudio e obtenham respostas conversacionais do modelo (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Essa integração diminui a barreira para adicionar funcionalidades de IA avançada nos aplicativos, usando as mesmas ferramentas Firebase já conhecidas.
- Genkit (IA Toolkit) – Apresentado o Genkit (Google Cloud Next 2025 Wrap Up | Google Cloud Blog), um framework open-source para construção de aplicações alimentadas por IA generativa, usando a linguagem de preferência do desenvolvedor. O Genkit provê componentes e boas práticas para acelerar o desenvolvimento de apps de IA. No Next ’25, anunciou-se suporte inicial ao Python (linguagem muito usada em IA) e suporte ampliado ao Go (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Também foram lançados templates de referência – por exemplo, um modelo de aplicação Genkit pode ser carregado no Firebase Studio (Google Cloud Next 2025 Wrap Up | Google Cloud Blog) para rapidamente montar uma app base e começar a customizar a partir daí.
- Firebase Data Connect – Novo serviço do Firebase, agora disponível em GA, que combina a robustez de um banco Cloud SQL (PostgreSQL) gerenciado com a simplicidade do GraphQL. O Data Connect fornece APIs GraphQL instantâneas e SDKs com tipagem forte sobre os dados (Google Cloud Next 2025 Wrap Up | Google Cloud Blog), facilitando o desenvolvimento full-stack. Desenvolvedores podem ter o melhor de dois mundos: a confiabilidade, consistência forte e escalabilidade (99.999% SLA) de um banco SQL multi-região do Google, acessados com a flexibilidade de consultas GraphQL em tempo real. Isso elimina a necessidade de construir camadas adicionais de API para expor os dados do banco ao frontend.
- Firebase Hosting e Testes – O Firebase App Hosting atingiu disponibilidade geral, oferecendo uma solução de hospedagem de front-end moderna integrada ao fluxo Git (CI/CD) para aplicações full-stack (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). É uma forma simplificada de implantar aplicações web com backend no Firebase, incluindo configuração automática de CDN, SSL e deploy contínuo a partir de repositórios. Já o Firebase App Distribution ganhou um novo App Testing agent (preview) que gera, gerencia e executa testes end-to-end automaticamente em apps mobile antes da publicação (Google Cloud Next 2025 Wrap Up | Google Cloud Blog). Esse agente de teste, alimentado por IA, simula interações de usuários, encontra potenciais bugs e valida se novas versões do aplicativo estão prontas para produção – economizando tempo dos QA e aumentando a qualidade das releases.
Principais novas ferramentas/recursos e seus públicos-alvo
Para resumir, a tabela a seguir destaca algumas das principais novidades do Next ’25, suas funcionalidades e para quem elas são mais relevantes:
Recurso/Funcionalidade | Descrição resumida | Público-alvo (usuários) |
---|---|---|
Gemini 2.5 Pro (LLM) | Modelo de linguagem de última geração com foco em qualidade e contexto extenso (milhões de tokens), capaz de raciocínio profundo e auxílio em código. Disponível em preview no Vertex AI ([Google Cloud Next 2025 Wrap Up | [Google Cloud Blog](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=1,1%20on%20Chatbot%20Arena](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=1,1%20on%20Chatbot%20Arena) |
Live API (Gemini) | Nova API de streaming multimodal que permite enviar áudio/vídeo em tempo real para os modelos Gemini e obter respostas em áudio/texto ([Google Cloud Next 2025 Wrap Up | [Google Cloud Blog](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=12,possibilities%20for%20immersive%2C%20multimodal%20applications](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=12,possibilities%20for%20immersive%2C%20multimodal%20applications). Viabiliza conversas por voz naturais e interativas dentro de apps. |
Agent Development Kit (ADK) | Framework open-source para construir sistemas multi-agentes de forma simplificada, com componentes reutilizáveis e suporte a protocolo unificado (MCP) ([Google Cloud Next 2025 Wrap Up | [Google Cloud Blog](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=14,requiring%20custom%20integrations%20for%20each](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=14,requiring%20custom%20integrations%20for%20each). Facilita controlar e orquestrar múltiplos agentes de IA cooperativos. |
Application Design Center | Ferramenta visual (canvas) para modelar arquiteturas de aplicações cloud facilmente ([Google Cloud Next 2025 Wrap Up | [Google Cloud Blog](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=35,collaborate%20with%20teammates%20on%20designs](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=35,collaborate%20with%20teammates%20on%20designs). Gera templates implantáveis, mostra infraestrutura como código em tempo real e permite colaboração na concepção do sistema. |
Gemini Code Assist | Assistente de programação com IA generativa integrado ao fluxo de desenvolvimento. Auxilia em escrita, revisão e tradução de código, geração de testes e documentação ([Google Cloud Next 2025 Wrap Up | [Google Cloud Blog](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=40,Gemini%20Code%20Assist%20Kanban%20board](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=40,Gemini%20Code%20Assist%20Kanban%20board), mantendo padrões de segurança corporativos. |
App Prototyping (Firebase) | Agente de IA no Firebase Studio que gera protótipos completos de aplicativos a partir de descrições textuais ([Google Cloud Next 2025 Wrap Up | [Google Cloud Blog](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=more](https://cloud.google.com/blog/topics/google-cloud-next/google-cloud-next-2025-wrap-up#:~:text=more). Cria UI, backend e integrações de IA automaticamente, acelerando a validação de ideias. |
Firebase Data Connect | Serviço gerenciado que fornece banco PostgreSQL escalável com APIs GraphQL instantâneas e SDKs tipados ([Google Cloud Next 2025 Wrap Up | Google Cloud Blog. Combina consistência transacional com facilidade de desenvolvimento em tempo real. |
Fontes: As informações acima foram compiladas de anúncios oficiais do Google Cloud Next ‘25 e publicações no blog do Google Cloud (Google Cloud Next 2025 Wrap Up | Google Cloud Blog) (Google Cloud Next 2025 Wrap Up | Google Cloud Blog) (Google Cloud Next 2025 Wrap Up | Google Cloud Blog), incluindo detalhes fornecidos por executivos do Google Cloud durante as keynotes e materiais técnicos disponibilizados durante o evento. As referências destacadas indicam trechos específicos dessas fontes oficiais que embasam cada ponto do resumo.