Início Tecnologia O modelo Gemma 4 do Google é totalmente de código aberto e...

O modelo Gemma 4 do Google é totalmente de código aberto e desbloqueia IA local poderosa – mesmo em telefones

31
0

Elyse Betters Picaro/ZDNET

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • Gemma 4 agora é totalmente de código aberto no Apache 2.0.
  • A IA local permite privacidade, uso offline e custos mais baixos.
  • De servidores a smartphones, a implantação ficou muito mais fácil.

O Google anunciou hoje que sua divisão de pesquisa DeepMind AI está lançando o Gemma 4, sua última geração de modelos abertos de linguagem grande. Os modelos estão sendo lançados sob a licença Apache 2.0, tornando-os verdadeiramente de código aberto em comparação com a licença permissiva, mas ainda controlada, das gerações anteriores do Gemma.

O que é Gema?

Gemma é uma LLM como Gemini. Mas aqui estamos falando sobre o mecanismo de processamento de IA, não sobre a interface do chatbot. Tanto Gemma quanto Gemini foram desenvolvidos usando a mesma pesquisa e tecnologia. A diferença é que o Gemini é um produto fechado baseado em assinatura, enquanto o Gemma é um modelo aberto que pode ser baixado e executado localmente gratuitamente.

A capacidade de executar um modelo de IA localmente sem taxa beneficia uma variedade de aplicações. Há muitas pessoas que desejam executar IA em casa, sem depender da nuvem e de graça.

Além disso: como a IA de repente se tornou muito mais útil para desenvolvedores de código aberto

A capacidade de manter tudo local é particularmente importante para empresas que possuem requisitos de soberania ou confidencialidade de dados. Por exemplo, os prestadores de cuidados de saúde podem ter restrições regulamentares que os impedem de partilhar dados de pacientes com um fornecedor de nuvem pública, mas ainda assim gostariam de beneficiar da IA. Ao executar todo o sistema localmente, nenhum dado é enviado para a nuvem, mas a capacidade de IA ainda está disponível.

Existem muitos dispositivos, desde smartphones até vários dispositivos IoT e de ponta, que podem ter apenas conectividade de rede intermitente (ou nenhuma). Ser capaz de executar operações de IA sem custos adicionais e sem a necessidade de telefonar para casa proporciona benefícios consideráveis ​​em termos de flexibilidade, segurança e controle de custos.

Além disso: usei a ferramenta de IA do Gmail para realizar horas de trabalho em 10 minutos – com 3 solicitações

Portanto, embora você possa executar o Gemini em sua interface de bate-papo, você pode instalar o Gemma em um Raspberry Pi para monitorar um processo em uma fábrica e tomar decisões em tempo real sem a latência de uma viagem de ida e volta à nuvem e vice-versa.

As grandes novidades do licenciamento

Versões anteriores do Gemma foram licenciadas sob uma declaração de Termos de Uso do Gemma, em vez de uma estrutura formal de licença de código aberto. O Google permitiu que os usuários baixassem o Gemma, usassem-no localmente e fizessem modificações, mas restringiram o uso a categorias aprovadas e limitaram a redistribuição.

Essa abordagem permitiu que a família de modelos fosse chamada de “aberta”, mas não de “código aberto”. Havia muitas liberdades associadas ao uso do Gemma, mas o Google ainda mantinha o controle.

Por outro lado, a licença Apache 2.0 concede liberdade quase total. Usuários e desenvolvedores podem usar o software para qualquer finalidade, seja pessoal, comercial ou empresarial, e sem quaisquer requisitos de royalties. Se você distribuir o software, será obrigado a incluir uma cópia da licença Apache 2.0 e fornecer a atribuição necessária para o software.

Os usuários e desenvolvedores são livres para modificar e redistribuir o código, com o direito de criar trabalhos derivados e distribuir as versões original e modificada.

Além disso: Por que a IA é uma maldição e uma bênção para o software de código aberto

Existem também algumas proteções e penalidades interessantes relacionadas a patentes. Em termos de proteções, os usuários licenciados pelo Apache 2.0 recebem uma licença para quaisquer patentes que cubram contribuições, de modo que os processos judiciais de patentes não possam ter como alvo os usuários apenas pelo uso do software. Por outro lado, se você processar alguém alegando que o software infringe sua patente, você perderá automaticamente sua licença de uso do software.

O Google não está mais usando seus próprios termos de uso para o Gemma 4. Em vez disso, eles estão licenciando o Gemma 4 sob a licença Apache 2.0, o que significa que usuários e desenvolvedores podem usar e distribuir o modelo em qualquer da maneira que quiserem, sem restrições.

O Gemmaverso

Desde o lançamento do Gemma há dois anos, em fevereiro de 2024, o modelo aberto teve uma adoção considerável.

De acordo com Clement Farabet, vice-presidente de pesquisa, e Olivier Lacombe, gerente de produto do grupo Google DeepMind, “Desde o lançamento de nossa primeira geração, os desenvolvedores baixaram o Gemma mais de 400 milhões de vezes, construindo um Gemmaverse vibrante com mais de 100.000 variantes”.

Além disso: 7 técnicas de codificação de IA que uso para enviar produtos reais e confiáveis ​​- rápido

Mas, como a ZDNET relatou na época, “a oferta mais recente de IA do Google é um ‘modelo aberto’, mas não ‘código aberto’. Essa diferença é importante.” Isso foi então, e isto é agora.

Agora, o Gemma 4 está sendo lançado como software de código aberto puro, o que significa que podemos esperar que as taxas de adoção aumentem mesmo em relação ao que vimos nos últimos 26 meses. Não só podemos esperar ver o Gemma 4 adotado em mais projetos, mas também agora é legitimamente possível agrupar a IA com produtos, serviços e dispositivos que podem se beneficiar de um poderoso modelo integrado.

Capacidades do modelo

Gemma 4 é na verdade um conjunto de quatro modelos. Dois dos modelos são projetados para servidores de última geração com GPUs poderosas, como Nvidia H100. Esses modelos, conhecidos como 26B e 31B, possuem grandes dimensões de parâmetros. A versão 26B concentra-se na redução da latência, ativando um subconjunto de seu conjunto total de parâmetros para inferência. O modelo 31B foi projetado para maximizar a potência e a qualidade brutas, trazendo todos os seus recursos para qualquer problema que seja solicitado a resolver.

Os outros dois modelos são projetados para o segmento inferior. Chamados de E2B e E4B, esses modelos são destinados a dispositivos móveis e IoT, embora também funcionem bem em seu PC doméstico. Esses modelos têm dimensões de dois e quatro bilhões de parâmetros, respectivamente, limitando o impacto do dispositivo para que possam funcionar com eficiência em dispositivos móveis e de borda.

Além disso: criei dois aplicativos apenas com minha voz e um mouse – os IDEs já estão obsoletos?

De acordo com Farabet e Lacombe do Google, “Em estreita colaboração com nossa equipe Google Pixel e líderes de hardware móvel como Qualcomm Technologies e MediaTek, esses modelos multimodais funcionam completamente offline com latência quase zero em dispositivos de ponta como telefones, Raspberry Pi e Jetson Nano.”

A empresa afirma que todos os modelos suportam os seguintes recursos:

  • Raciocínio avançado: Gemma 4 é capaz de planejamento em várias etapas e lógica profunda.
  • Fluxos de trabalho agentes: Gemma 4 pode implantar agentes autônomos que interagem com diferentes ferramentas e APIs e executam fluxos de trabalho de maneira confiável.
  • Segurança: Os modelos Gemma “submetem-se aos mesmos protocolos rigorosos de segurança de infraestrutura que nossos modelos proprietários”, de acordo com a postagem do blog de anúncio.
  • Geração de código: Gemma 4 oferece suporte à geração de código offline. Essa capacidade pode ser um grande benefício para aqueles que estão presos em voos muito longos sem conexão de rede.
  • Visão e áudio: De acordo com o Google, “todos os modelos processam vídeo e imagens nativamente, suportam resoluções variáveis ​​e se destacam em tarefas visuais como OCR e compreensão de gráficos. Além disso, os modelos E2B e E4B apresentam entrada de áudio nativa para reconhecimento e compreensão de fala”.
  • Contexto mais longo: Os modelos E2B e E4B suportam uma janela de contexto de 128K, permitindo uma memória de trabalho surpreendentemente grande para um modo pequeno e portátil. Os modelos maiores suportam uma janela de contexto de até 256K, permitindo aos usuários “passar repositórios ou documentos longos em um único prompt”.
  • Suporte multilíngue: O Google disse que o Gemma 4 foi treinado nativamente em mais de 140 idiomas.

Não há indicação de que o Klingon Conversacional esteja entre os idiomas. No entanto, dado que Gemma 4 foi treinado em uma enorme quantidade de rede pública e que existe uma comunidade dedicada, um dicionário e muito conteúdo online gerado por fãs, o Klingon quase certamente apareceu nos dados de treinamento, o que significa que o modelo deve ser capaz de realizar pelo menos alguma tradução rudimentar.

Em sua postagem no blog, Farabet e Lacombe disseram: “O Gemma 4 supera os modelos 20 vezes maiores. Para os desenvolvedores, esse novo nível de inteligência por parâmetro significa alcançar recursos de nível de fronteira com significativamente menos sobrecarga de hardware”.

Se você pudesse implantar o Gemma 4 em um dispositivo local hoje, qual seria a primeira tarefa real que você confiaria nele? Deixe-nos saber nos comentários abaixo.


Você pode acompanhar as atualizações diárias do meu projeto nas redes sociais. Certifique-se de se inscrever meu boletim informativo semanal de atualizaçãoe siga-me no Twitter/X em @DavidGewirtzno Facebook em Facebook.com/DavidGewirtzno Instagram em Instagram.com/DavidGewirtzno Bluesky em @DavidGewirtz.come no YouTube em YouTube.com/DavidGewirtzTV.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui