Dois dos maiores nomes na transformação da inteligência artificial aberta, Red Hat e Google Cloud, anunciam a expansão de sua colaboração estratégica. A iniciativa visa ampliar o escopo de aplicações empresariais com IA, unindo o poder das soluções de código aberto da Red Hat com a infraestrutura escalável do Google Cloud e sua linha de modelos de IA, a família Gemma.
Entre os destaques da nova fase da parceria, estão o lançamento de projetos open source, integração avançada com infraestrutura de nuvem e suporte a tecnologias de inferência de IA de última geração. Um dos marcos dessa expansão é o projeto llm-d, iniciativa open source liderada pela Red Hat com o Google como colaborador fundador. A proposta é acelerar a adoção da IA generativa em ambientes heterogêneos, promovendo escalabilidade, eficiência e redução de custos.
A colaboração também se reflete em inovações técnicas importantes, como o suporte ao servidor de inferência vLLM em TPUs e VMs com GPU do Google Cloud, o que garante maior performance para aplicações de IA. O vLLM é uma ferramenta open source que acelera o processo de inferência de modelos generativos, e a Red Hat está entre as primeiras empresas a fornecer suporte ao modelo Gemma 3 com essa tecnologia desde o primeiro dia.
Além disso, o Red Hat AI Inference Server passa a estar disponível no Google Cloud, oferecendo uma solução pronta para produção que permite às empresas executarem modelos de IA generativa de forma eficiente e econômica em ambientes de nuvem híbrida.
Outro avanço importante é a contribuição da Red Hat ao protocolo Agent2Agent (A2A), iniciativa do Google que visa facilitar a comunicação entre agentes de IA e usuários finais em diferentes plataformas. Essa integração é considerada estratégica para garantir fluxos de trabalho dinâmicos e colaborativos no ecossistema emergente da chamada "Agentic AI".
A ampliação da parceria entre Red Hat e Google Cloud reforça o compromisso das duas empresas com uma IA aberta, acessível e centrada na inovação comunitária. Juntas, elas buscam acelerar a transição da pesquisa para a prática em IA, ajudando empresas a enfrentar os desafios de um ecossistema cada vez mais distribuído e exigente.
Comentários
Postar um comentário