Google apresenta o modelo Gemma 3 com janela de contexto de 128k

Leandro Lopes
4 Min de Leitura
Google apresenta o modelo Gemma 3 com janela de contexto de 128k

Organizações têm apostado cada vez mais em modelos menores para processos de inteligência artificial que demandam menos energia e custos. Enquanto algumas empresas optam por “destilar” grandes modelos em versões mais compactas, provedores como o Google continuam lançando modelos menores como alternativas viáveis aos modelos de linguagem extensos.

Avanços do Gemma 3

O Google anunciou a nova versão de seu modelo compacto, chamado Gemma 3. Este modelo traz avanços significativos, como uma janela de contexto ampliada, maior número de parâmetros e capacidades multimodais robustas. Ele é projetado para funcionar bem em dispositivos menores, como smartphones e notebooks, e está disponível em quatro tamanhos: 1B, 4B, 12B e 27B parâmetros.

Uma das principais novidades do Gemma 3 é sua janela de contexto de 128k tokens, superando os 80k tokens da versão anterior, o Gemma 2. Isso permite ao modelo processar informações mais complexas e atender a solicitações mais elaboradas. Com suporte para 140 idiomas e a capacidade de analisar imagens, textos e vídeos curtos, o Gemma 3 se destaca como uma ferramenta versátil. Ele também inclui funcionalidades para automação de tarefas e fluxos de trabalho por meio de chamadas de função.

Para quem deseja entender melhor sobre o papel dos modelos de linguagem na automação e suas aplicações práticas, confira este artigo detalhado.

Eficiência e custo reduzido

A fim de otimizar ainda mais o custo computacional, o Google introduziu versões quantizadas do Gemma 3. Modelos quantizados são comprimidos através da redução da precisão dos valores númericos nos pesos do modelo, sem comprometer significativamente a precisão. Isso possibilita rodar o modelo em dispositivos com menos recursos, como uma GPU ou uma unidade de processamento tensorial (TPU).

Nos testes, o Gemma 3 demonstrou desempenho de ponta para seu tamanho, superando modelos populares como Llama-405B e o3-mini. O modelo também é compatível com ferramentas de desenvolvimento conhecidas como Hugging Face Transformers, Keras e PyTorch, tornando-o acessível para desenvolvedores que buscam criar aplicações personalizadas.

Segurança com ShieldGemma 2

Uma preocupação crescente no uso de inteligência artificial é a segurança. Para enfrentar esse desafio, o Google incorporou protocolos de segurança robustos no Gemma 3. Um dos destaques é o ShieldGemma 2, uma ferramenta desenvolvida para verificar imagens. Com 4B parâmetros, essa tecnologia identifica e bloqueia conteúdos inapropriados, como material explícito, violento ou perigoso.

Além disso, o ShieldGemma 2 pode ser personalizado de acordo com as necessidades de diferentes usuários, garantindo flexibilidade sem perder o foco na segurança.

O interesse por modelos menores está crescendo

Desde o lançamento do primeiro modelo Gemma em fevereiro de 2024, a procura por modelos de linguagem menores tem aumentado. Empresas de tecnologia, como Microsoft e Mistral, também têm investido em modelos mais compactos, que oferecem desempenho eficiente sem a necessidade de recursos robustos. Esses modelos são ideais para casos de uso específicos, como editores de código simples, onde grandes modelos como o o3-mini seriam um excesso.

Para entender como agentes de IA estão transformando a automação, explore mais neste artigo completo.

Conclusão

O Gemma 3 é um exemplo do avanço da tecnologia em direção a soluções mais acessíveis e eficientes. Com uma ampla janela de contexto, suporte multimodal e ferramentas de segurança avançadas, ele promete atender às necessidades de desenvolvedores que buscam poder computacional em dispositivos menores. À medida que modelos compactos continuam a evoluir, eles oferecem uma alternativa prática e funcional para diversos usos.

Tag:
Compartilhe