Como rodar o DeepSeek Localmente

4 min de leitura
Como rodar o DeepSeek Localmente

Além de ser de graça e tão bom quanto o GPT, o DeepSeek ainda é OpenSource e pode ser usado localmente. Ou seja, você pode ter uma versão rodando na sua máquina!

E é isso que vou te ensinar a fazer.

Bora lá:

Nós estamos usando ele através do Ollama, uma ferramenta que facilita a execução de LLMs sem complicações.

Então, você vai precisar instalar ele também.

1. Instalando o Ollama

Linux e macOS

Para instalar no Linux ou macOS, basta rodar o seguinte comando no terminal:

1curl -fsSL https://ollama.com/install.sh | sh

Windows

No Windows, você vai precisar baixar o instalador lá no site oficial:

Depois da instalação, verifique se o Ollama foi instalado corretamente rodando:

1ollama --version

Se o comando retornar a versão instalada, significa que tudo está funcionando.

2. Baixando o modelo DeepSeek

Com o Ollama instalado, agora podemos baixar o modelo DeepSeek. O Ollama gerencia os modelos como imagens de contêiner, então basta puxá-lo com o comando:

1ollama pull deepseek-r1

Se precisar de um modelo maior e mais potente, pode baixar a versão 7B: que usa 7 bilhões de parâmetros.

1ollama pull deepseek-r1:7b

3. Executando o DeepSeek localmente

Após baixar o modelo, podemos executá-lo diretamente no terminal para testar seu funcionamento. Para rodar a versão padrão:

1ollama run deepseek-r1

Caso tenha baixado a versão maior, utilize:

1ollama run deepseek-r1:7b

Isso abrirá uma interface onde você pode começar a interagir com o modelo.

4. Como utilizar a API do DeepSeek

O Ollama expõe uma API local que pode ser utilizada para enviar prompts e obter respostas programaticamente.

4.1. Iniciando o servidor da API

Para que a API fique disponível, basta iniciar o servidor:

1ollama serve

Isso fará com que a API seja exposta na porta 11434 (padrão do Ollama).

4.2. Fazendo uma requisição para a API

A API do Ollama aceita requisições HTTP no endpoint /api/generate. Podemos testar com cURL:

1curl http://localhost:11434/api/generate -d '{ 2 "model": "deepseek", 3 "prompt": "Explique o conceito de programação assíncrona", 4 "stream": false 5}'

Ou em Python:

1import requests 2 3url = "http://localhost:11434/api/generate" 4data = { 5 "model": "deepseek", 6 "prompt": "O que é um banco de dados relacional?", 7 "stream": False 8} 9 10response = requests.post(url, json=data) 11print(response.json()["response"])

5. Ajustando o modelo para diferentes usos

A API do Ollama permite passar parâmetros adicionais:

  • Temperatura (temperature): Define a criatividade das respostas (valores menores tornam as respostas mais previsíveis, valores maiores aumentam a aleatoriedade).
  • Número máximo de tokens (max_tokens): Controla o tamanho da resposta gerada.
  • Uso de streaming (stream): Se ativado, a resposta será transmitida conforme gerada.

Exemplo de requisição com parâmetros ajustados:

1{ 2 "model": "deepseek", 3 "prompt": "Como funciona o sistema de permissões no Linux?", 4 "temperature": 0.7, 5 "max_tokens": 150, 6 "stream": false 7}

Isso permite refinar a resposta do modelo de acordo com a necessidade da aplicação.

6. Recursos necessários para rodar o DeepSeek

Rodar modelos grandes localmente exige um hardware compatível. Aqui estão algumas recomendações:

  • DeepSeek padrão: Pode rodar bem em CPUs modernas, mas desempenho melhora com GPU.
  • DeepSeek 7B: Recomendado pelo menos 16GB de RAM e uma GPU com suporte a CUDA (NVIDIA) ou Metal (Mac).
  • Armazenamento: Modelos grandes ocupam bastante espaço em disco. Certifique-se de ter pelo menos 10GB livres.

Se seu hardware não for suficiente, pode ser interessante rodar o modelo em uma máquina virtual ou servidor na nuvem com suporte a GPUs.

Conclusão

O DeepSeek é uma alternativa robusta para rodar IA localmente sem depender de serviços pagos ou conexão com a internet. Com o Ollama, o processo de instalação e execução é bastante simplificado, permitindo interagir diretamente pelo terminal ou integrar a API em aplicações.

Se você trabalha com NLP, chatbots ou precisa de geração de texto automática, vale a pena testar o DeepSeek e explorar seu potencial.

Rafael Coelho
2024- 2025

v2.0.2 • Build: 2025-04-22