Como instalar e usar DeepSeek-R1 localmente em seu computador, quer você use Ubuntu ou qualquer outro sistema

  • DeepSeek-R1 é um modelo de código aberto com recursos avançados de raciocínio.
  • Ollama simplifica a instalação e o gerenciamento de modelos de IA localmente.
  • ChatBoxAI oferece uma interface gráfica para interagir com modelos como DeepSeek.
  • O modelo pode ser facilmente integrado a projetos de desenvolvimento com Python.

DeepSeek-R1 no Ubuntu

A inteligência artificial continua a transformar o nosso mundo e as opções para trabalhar com modelos de linguagem avançados estão a crescer a passos largos. No entanto, nem todos precisam de se ligar a serviços na nuvem ou de depender de terceiros para explorar estas tecnologias. Uma alternativa interessante e acessível é DeepSeek-R1, um modelo de IA que permite aos usuários executá-lo localmente em computadores modestos. Neste artigo, explicarei como instalar o DeepSeek e aproveitar ao máximo seus recursos.

DeepSeek-R1 é um modelo de IA de código aberto que se destaca pela eficiência e avançada capacidade de raciocínio. Ao executá-lo localmente, você não apenas economiza custos recorrentes, mas também protege sua privacidade e ganha flexibilidade para integrá-lo a projetos personalizados. Embora alguns modelos exijam hardware poderoso, o DeepSeek-R1 oferece versões ajustadas para diferentes recursos, desde computadores básicos até estações de trabalho avançadas.

O que é DeepSeek e por que usá-lo localmente?

DeepSeek-R1 é um modelo de linguagem avançado projetado para tarefas complexas, como raciocínio lógico, resolvendo problemas matemáticos e gerando código. Sua principal vantagem é ser open source, o que significa que você pode instalá-lo e executá-lo em seu próprio computador sem depender de servidores externos.

Algumas de suas características notáveis ​​incluem:

  • flexibilidade: Você pode adaptar o modelo de acordo com suas necessidades, desde versões light até configurações avançadas.
  • Privacidade: Todo o processamento é feito localmente, evitando preocupações com a exposição de dados sensíveis. Este é talvez o ponto mais importante, já que muitos estão preocupados com o que as empresas podem fazer com os nossos dados.
  • Economia: Você não terá que desembolsar dinheiro em assinaturas ou serviços em nuvem, tornando-o uma opção acessível para desenvolvedores e empresas.

Requisitos para instalação

Antes de iniciar a instalação, certifique-se de cumprir o seguinte requisitos:

  • Um computador com sistema operacional Linux, macOS ou Windows (com suporte para WSL2 neste último caso).
  • Um mínimo de 8 GB de RAM, embora seja recomendado pelo menos 16 GB para um desempenho ideal.
  • Acesso à Internet para download dos modelos inicialmente.
  • Conhecimento básico de terminal ou linha de comando.

Além disso, você precisará instalar uma ferramenta chamada Ollama, que gerencia e executa modelos DeepSeek localmente.

Instalação Ollama

Ollama é uma solução simples que permite baixar e executar modelos de linguagem como DeepSeek-R1. Para instalá-lo, siga estas etapas:

  1. No Linux ou macOS, abra o terminal e execute o seguinte comando para instalar o Ollama — o pacote enrolar É necessário, obviamente –:
curl -fsSL https://ollama.com/install.sh | eh
  1. Em sistemas Windows, certifique-se de ter o WSL2 habilitado previamente e siga as mesmas etapas no terminal Ubuntu que você configurou no WSL.
  2. Verifique se o Ollama foi instalado corretamente executando ollama --version. Se o comando retornar um número de versão, você estará pronto para seguir em frente.

Baixar DeepSeek-R1

Com o Ollama instalado e funcionando (ollama serve no terminal se o download que explicaremos mais tarde falhar), agora você pode baixar o modelo DeepSeek que melhor se adapta às suas necessidades e hardware:

  • Parâmetros 1.5B: Ideal para computadores básicos. Este modelo ocupa aproximadamente 1.1 GB.
  • Parâmetros 7B: Recomendado para equipamentos com GPUs médio-alto. Isto ocupa cerca 4.7 GB.
  • Parâmetros 70B: Para tarefas complexas em equipamentos com grande capacidade de memória e GPU poderosa.

Para baixar o modelo 7B padrão, execute este comando no terminal:

Olama Run Deepseek-R1

O tempo de download dependerá da velocidade da sua Internet e só será necessário na primeira vez que executarmos o chatbot. Depois de concluído, o modelo estará pronto para uso a partir da linha de comando ou através de uma interface gráfica.

Usando DeepSeek com interface gráfica

Embora você possa interagir com o DeepSeek diretamente do terminal, muitos usuários preferem uma interface gráfica por conveniência. Neste caso, você pode instalar ChatBoxAI, um aplicativo gratuito que permitirá que você aproveite as vantagens do DeepSeek de forma visual.

  • Baixar e instalar ChatBoxAI através do mail sua página oficial.
  • Defina o aplicativo para usar Ollama como fornecedor modelo:

Nas configurações do ChatBoxAI, selecione “Usar minha própria API” e escolha o modelo DeepSeek que você baixou anteriormente. Se tudo estiver configurado corretamente, você poderá realizar consultas e tarefas diretamente da interface gráfica.

Integração do DeepSeek em projetos

Se você é um desenvolvedor, você pode integrar o DeepSeek em seus projetos usando seu API Compatível com OpenAI. Aqui está um exemplo simples usando Python:

importar cliente openai = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") resposta = client.chat.completions.create(model="deepseek-r1", mensagens=[{ "role": "user", "content": "Gerar código em Python para calcular Fibonacci"}])

Este script enviará uma consulta ao modelo local do DeepSeek e retornará o resultado em seu terminal ou aplicativo.

O modelo DeepSeek-R1 AI representa uma excelente opção para quem procura uma solução avançada e econômica. Com a facilidade de acesso que o Ollama oferece, a flexibilidade de seus modelos e a capacidade de integração em projetos personalizados, o DeepSeek abre novas possibilidades para desenvolvedores, estudantes e especialistas em IA. Com foco na privacidade e desempenho, é uma ferramenta que merece ser explorada a fundo.


Deixe um comentário

Seu endereço de email não será publicado. Campos obrigatórios são marcados com *

*

*

  1. Responsável pelos dados: Miguel Ángel Gatón
  2. Finalidade dos dados: Controle de SPAM, gerenciamento de comentários.
  3. Legitimação: Seu consentimento
  4. Comunicação de dados: Os dados não serão comunicados a terceiros, exceto por obrigação legal.
  5. Armazenamento de dados: banco de dados hospedado pela Occentus Networks (UE)
  6. Direitos: A qualquer momento você pode limitar, recuperar e excluir suas informações.