Google apresenta o modelo open source Gemma 3 com janela de contexto de 128k

Leandro Lopes
4 Min de Leitura
Google apresenta o modelo open source Gemma 3 com janela de contexto de 128k

Organizações têm se voltado para modelos menores para realizar processos de IA com menos custo e consumo energético, apesar da popularidade dos grandes modelos de linguagem e raciocínio.

Enquanto alguns optam por destilar grandes modelos em versões reduzidas, provedores como o Google continuam apresentando modelos menores, como o Gemma, uma alternativa eficiente aos modelos maiores, sem comprometer performance e precisão.

Gemma 3: Mais capacidade em um modelo compacto

O Google lançou o Gemma 3, que traz uma janela de contexto ampliada, mais parâmetros e maior capacidade de raciocínio multimodal. Embora o modelo tenha o mesmo poder de processamento dos modelos maiores Gemini 2.0, ele é otimizado para dispositivos como smartphones e laptops.

A nova versão possui quatro tamanhos: 1B, 4B, 12B e 27B parâmetros. Com sua janela de contexto aumentada para 128K tokens (em comparação aos 80K do Gemma 2), ele processa informações mais complexas com maior eficiência. Além disso, pode trabalhar com 140 idiomas, analisar imagens, textos e vídeos curtos, além de suportar chamadas de funções para automação de tarefas e fluxos de trabalho automatizados.

Para saber mais sobre como arquiteturas eficientes podem melhorar o desempenho de modelos menores, confira nosso artigo sobre Chain-of-experts (CoE).

Desempenho de destaque

O Google também introduziu versões quantizadas do Gemma, ou seja, modelos comprimidos que reduzem a precisão dos valores numéricos em seus pesos. Essa abordagem mantém a precisão enquanto reduz custos computacionais. Essa tecnologia permite rodar o modelo de maneira otimizada e desenvolver aplicações que podem ser executadas em uma única GPU ou TPU.

Nos testes de desempenho, o Gemma 3 27B se destacou, superando outros modelos populares, como o DeepSeek v3 e o Llama-405B, e ficando em segundo lugar no Chatbot Arena Elo Score.

Segurança e personalização com ShieldGemma 2

O Google implementou protocolos de segurança no Gemma 3, incluindo o Checker de segurança de imagens ShieldGemma 2. Baseado em 4B parâmetros, ele identifica e bloqueia respostas com conteúdo impróprio, como imagens de violência ou conteúdo sexual explícito. Os usuários podem personalizar essa ferramenta para atender às suas necessidades específicas.

Para explorar como a inteligência artificial pode ser integrada de maneira responsável e eficiente, veja nossa análise sobre Google Bard e o futuro da IA conversacional.

Crescimento dos modelos pequenos e abordagens distintas

Desde o lançamento do primeiro Gemma, em fevereiro de 2024, modelos de linguagem menores têm ganhado popularidade. Exemplos como o Phi-4 da Microsoft e o Mistral Small 3 mostram que empresas buscam soluções poderosas, mas que não exijam toda a amplitude dos grandes modelos.

Vale destacar que o Gemma não é uma destilação do Gemini 2.0, mas foi treinado com o mesmo conjunto de dados e arquitetura. Modelos menores, sejam eles versões destiladas ou SLMs, são ideais para tarefas específicas, como editores de código simples, onde um modelo grande seria um desperdício de recursos.

Explore mais sobre como os modelos de IA estão transformando o mercado em nosso artigo sobre automação com inteligência artificial.

Compartilhe