Banner do post: Como rodar o DeepSeek Localmente

Como rodar o DeepSeek Localmente

racoelho
racoelho

Além de ser de graça e tão bom quanto o GPT, o DeepSeek ainda é OpenSource e pode ser usado localmente. Ou seja, você pode ter uma versão rodando na sua máquina!

E é isso que vou te ensinar a fazer.

Bora lá:

Nós estamos usando ele através do Ollama, uma ferramenta que facilita a execução de LLMs sem complicações.

Então, você vai precisar instalar ele também.

1. Instalando o Ollama

Linux e macOS

Para instalar no Linux ou macOS, basta rodar o seguinte comando no terminal:

curl -fsSL https://ollama.com/install.sh | sh

Windows

No Windows, você vai precisar baixar o instalador lá no site oficial:

Depois da instalação, verifique se o Ollama foi instalado corretamente rodando:

ollama --version

Se o comando retornar a versão instalada, significa que tudo está funcionando.

2. Baixando o modelo DeepSeek

Com o Ollama instalado, agora podemos baixar o modelo DeepSeek. O Ollama gerencia os modelos como imagens de contêiner, então basta puxá-lo com o comando:

ollama pull deepseek-r1

Se precisar de um modelo maior e mais potente, pode baixar a versão 7B: que usa 7 bilhões de parâmetros.

ollama pull deepseek-r1:7b

3. Executando o DeepSeek localmente

Após baixar o modelo, podemos executá-lo diretamente no terminal para testar seu funcionamento. Para rodar a versão padrão:

ollama run deepseek-r1

Caso tenha baixado a versão maior, utilize:

ollama run deepseek-r1:7b

Isso abrirá uma interface onde você pode começar a interagir com o modelo.

4. Como utilizar a API do DeepSeek

O Ollama expõe uma API local que pode ser utilizada para enviar prompts e obter respostas programaticamente.

4.1. Iniciando o servidor da API

Para que a API fique disponível, basta iniciar o servidor:

ollama serve

Isso fará com que a API seja exposta na porta 11434 (padrão do Ollama).

4.2. Fazendo uma requisição para a API

A API do Ollama aceita requisições HTTP no endpoint /api/generate. Podemos testar com cURL:

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek",
  "prompt": "Explique o conceito de programação assíncrona",
  "stream": false
}'

Ou em Python:

import requests

url = "http://localhost:11434/api/generate"
data = {
    "model": "deepseek",
    "prompt": "O que é um banco de dados relacional?",
    "stream": False
}

response = requests.post(url, json=data)
print(response.json()["response"])

5. Ajustando o modelo para diferentes usos

A API do Ollama permite passar parâmetros adicionais:

  • Temperatura (temperature): Define a criatividade das respostas (valores menores tornam as respostas mais previsíveis, valores maiores aumentam a aleatoriedade).
  • Número máximo de tokens (max_tokens): Controla o tamanho da resposta gerada.
  • Uso de streaming (stream): Se ativado, a resposta será transmitida conforme gerada.

Exemplo de requisição com parâmetros ajustados:

{
  "model": "deepseek",
  "prompt": "Como funciona o sistema de permissões no Linux?",
  "temperature": 0.7,
  "max_tokens": 150,
  "stream": false
}

Isso permite refinar a resposta do modelo de acordo com a necessidade da aplicação.

6. Recursos necessários para rodar o DeepSeek

Rodar modelos grandes localmente exige um hardware compatível. Aqui estão algumas recomendações:

  • DeepSeek padrão: Pode rodar bem em CPUs modernas, mas desempenho melhora com GPU.
  • DeepSeek 7B: Recomendado pelo menos 16GB de RAM e uma GPU com suporte a CUDA (NVIDIA) ou Metal (Mac).
  • Armazenamento: Modelos grandes ocupam bastante espaço em disco. Certifique-se de ter pelo menos 10GB livres.

Se seu hardware não for suficiente, pode ser interessante rodar o modelo em uma máquina virtual ou servidor na nuvem com suporte a GPUs.

Conclusão

O DeepSeek é uma alternativa robusta para rodar IA localmente sem depender de serviços pagos ou conexão com a internet. Com o Ollama, o processo de instalação e execução é bastante simplificado, permitindo interagir diretamente pelo terminal ou integrar a API em aplicações.

Se você trabalha com NLP, chatbots ou precisa de geração de texto automática, vale a pena testar o DeepSeek e explorar seu potencial.