Há alguns dias meu parceiro Pablinux ele disse-lhes como instalar localmente o modelo moderno de Inteligência Artificial. Neste post listarei o que considero modelos melhores que o DeepSeek e como instalá-los e executá-los em nosso computador.
Deixando de lado quaisquer simpatias ou antipatias políticas, a atitude do governo chinês foi uma obra-prima de marketing diplomático digna de Sun Tzu. Em contraste com o estilo "Elefante na Louça" de Donald Trump, eles anunciaram um modelo que oferece os mesmos recursos do ChatGPT gratuitamente e consome menos recursos. Só nós que acompanhamos o assunto sabemos que Existem muitos outros modelos de código aberto (alguns de empresas norte-americanas, como a Meta) há muito tempo, e o desempenho do DeepSeek só é comparável ao do ChatGPT nos 5% de usos mais comuns.
Modelos de linguagem em larga escala
ChatGPT, DeepSeek e outros são chamados de Modelos de Linguagem em Grande Escala. Basicamente Eles permitem que um usuário interaja com um computador em uma linguagem semelhante àquela usada para se comunicar com outro ser humano. Para conseguir isso, eles são treinados com grandes quantidades de texto e regras que lhes permitem produzir novas informações a partir do que já possuem.
Sua principal utilidade é responder perguntas, resumir textos, fazer traduções e reproduzir conteúdo.
Melhores modelos que o DeepSeek e como instalá-los localmente
Assim como o Pablinux, usaremos o Ollama. Esta é uma ferramenta que nos permite instalar, desinstalar e usar diferentes modelos de código aberto a partir do terminal Linux. Em alguns casos, o navegador pode ser usado como uma interface gráfica, mas não abordaremos isso neste artigo.
Para que o Ollama forneça uma experiência de usuário adequada, é melhor ter uma GPU dedicada.Especialmente em modelos com mais parâmetros. No entanto, os menos potentes podem ser usados em um Raspberry Pi e quando testei modelos com 7 bilhões de parâmetros em um computador com 6 gigabytes e nenhuma GPU dedicada, o computador funcionou sem problemas. O mesmo não aconteceu com um dos 13 bilhões.
Parâmetros são as regras que o modelo usa para construir relacionamentos e padrões entre os dados. Quanto mais parâmetros e dados, mais poderoso será o modelo; aqueles com menos parâmetros falam espanhol como Tarzan.
Podemos instalar o Ollama com os comandos
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh
Podemos instalar o modelo com o comando:
ollama pull nombre_del modelo
E execute-o com:
ollama run nombre_del_modelo
Nós o desinstalamos usando:
ollama rm nombre_del_modelo
Podemos ver os modelos instalados digitando:
ollama list
Segue uma pequena lista dos modelos que considero mais interessantes: A lista completa dos modelos disponíveis pode ser encontrada aqui clique aqui:
llama2-sem censura
Llama é um modelo de propósito geral criado pela Meta. Nesta versão, todas as restrições introduzidas pelos desenvolvedores do projeto original por razões legais ou políticas foram removidas.. Ele tem duas versões, uma leve que gerencia 8 GB e a completa que precisa de 64. Pode ser usado para responder perguntas, escrever textos ou em tarefas de codificação.
Instala com:
ollama pull llama2-uncensored
E funciona com:
ollama run llama2-uncensored
códigogemma
CodeGemma é uma seleção de modelos leves, mas poderosos, que permitem que você execute uma variedade de tarefas de programação como completar o código ou escrevê-lo do zero. Compreende linguagem natural, consegue seguir instruções e fazer raciocínio matemático.
Ele vem em 3 variantes:
- Instruir: Ele transforma linguagem natural em código e pode seguir instruções:
- Código: Complete e gere código a partir de partes do código existente.
- 2b: Tarefa de conclusão de código mais rápida.
Tynillama
Como o próprio nome indica, é uma versão menor do modelo Meta original.. Portanto, não terá resultados tão bons, mas se você quiser ver como um modelo de Inteligência Artificial funciona em hardware modesto, vale a pena tentar. Ele tem apenas 1100 bilhão de parâmetros.
Usar modelos localmente tem as vantagens de privacidade e acesso a versões sem censura e imparciais que, em alguns casos, tendem a acabar sendo ridículas. A IA da Microsoft se recusou a criar uma imagem de um dachshund para mim porque considerou o termo "cadela" ofensivo. A maior desvantagem são os requisitos de hardware. Será uma questão de testar os modelos e encontrar um que seja bom o suficiente para o que você precisa e que funcione no equipamento que você tem.