Tema Janna La licenza non è convalidata, vai alla pagina delle opzioni del tema per convalidare la licenza, è necessaria una singola licenza per ogni nome di dominio.

Esecuzione del modello DeepSeek R1 in locale: una guida completa per Windows, macOS, Android e iOS

Riepilogo:

    • Se hai problemi di privacy, puoi eseguire il modello DeepSeek R1 localmente sul tuo computer Windows, macOS, Android o iOS.
    • È possibile installare LM Studio per eseguire il modello DeepSeek R1 7B appositamente distillato, ma il dispositivo deve disporre di 8 GB di RAM.
    • In alternativa, puoi installare Ollama e iniziare con i modelli distillati DeepSeek R1. Offre anche un piccolo modello con 1.5 miliardi di parametri.
    • Puoi eseguire DeepSeek R1 in modo nativo su Android e iOS utilizzando l'app gratuita PocketPal AI.

Il modello DeepSeek R1 di un team cinese ha fatto scalpore nel settore dell'intelligenza artificiale. Ha superato ChatGPT e si è piazzato in cima alla classifica dell'App Store statunitense. Non solo, DeepSeek ha sconvolto il mercato tecnologico statunitense con il suo modello di punta R1, che secondo l'azienda è alla pari con ChatGPT. Sebbene sia possibile accedere gratuitamente a DeepSeek R1 tramite il suo sito Web ufficiale, molti utenti hanno dubbi sulla privacy, poiché i dati vengono archiviati in Cina. Quindi, se vuoi eseguire DeepSeek R1 localmente sul tuo PC o macOS, puoi farlo facilmente utilizzando LM Studio e Ollama. Ecco una guida passo passo per iniziare.

Requisiti operativi locali di DeepSeek R1

Per eseguire il modello DeepSeek R1 in modo nativo su un PC, macOS o Linux, il dispositivo deve disporre di almeno 8 GB di RAM. Grazie a 8 GB di memoria, è possibile eseguire in modo piuttosto efficiente il piccolo modello DeepSeek R1 da 1.5 miliardi di parametri, ottenendo output a circa 13 simboli al secondo. È anche possibile eseguire un modello da 7 miliardi di parametri, ma consumerà circa 4 GB di memoria, il che potrebbe rendere il sistema un po' meno reattivo.

Con più memoria disponibile, puoi eseguire anche modelli da 14 miliardi, 32 miliardi e 70 miliardi di parametri, ma avrai bisogno di una CPU e di una GPU più veloci. Attualmente, la maggior parte dei software non utilizza una Neural Processing Unit (NPU) per eseguire modelli di intelligenza artificiale nativi. Invece, si basa principalmente sulla CPU e, in alcuni casi (come nel caso delle GPU Nvidia di fascia alta), la GPU viene utilizzata per l'inferenza.

Per i telefoni Android e iPhone, si consiglia di avere almeno 6 GB di RAM per eseguire il modello DeepSeek R1 in modo nativo e senza problemi. Puoi eseguire DeepSeek R1 sullo Snapdragon 8 Elite o su altri chip Snapdragon serie 8 e serie 7. Inoltre, puoi vedere come i modelli DeepSeek R1 e ChatGPT o1 si confrontano qui.

Esecuzione del modello DeepSeek R1 su PC utilizzando LM Studio

LM Studio è il modo più semplice per eseguire il modello DeepSeek R1 in modo nativo su sistemi PC, Mac e Linux. È dotato di un'interfaccia utente semplice da usare e con pochi clic puoi esplorare e scaricare modelli di intelligenza artificiale compatibili. Inoltre, l'app è completamente gratuita.

  • Scarica e installa LM Studio versione 0.3.8 o successiva (Gratuito) su PC, Mac o Linux.
  • Successivamente, avvia LM Studio e vai alla finestra di ricerca nel riquadro di sinistra.
  • Qui, sotto la ricerca del modello, troverai il modello “DeepSeek R1 Distill (Qwen 7B)” (Abbracciare il viso).
  • Ora clicca su “Download”. Per utilizzare questo modello sono necessari almeno 5 GB di spazio di archiviazione e 8 GB di RAM.

Scarica il modello deepseek r1 utilizzando lm studio

  • Dopo aver scaricato il modello DeepSeek R1, vai alla finestra “Chat” e carica il modello.

Scarica il modello deepseek r1 su Windows

  • Basta selezionare il modello e cliccare sul pulsante "Carica modello". Se si verifica un errore, ridurre “GPU offload” a 0 e continuare.

Esecuzione del modello deepseek r1 utilizzando lm studio Esecuzione del modello DeepSeek R1 in locale sul computer utilizzando Ollama

  • Inizia l'installazione di Ollama (مجاني) sul tuo computer Windows, macOS o Linux.
  • Ora avvia il Terminale ed esegui il comando seguente per eseguire DeepSeek R1 in locale.
  • Questo è un modello di piccole dimensioni. 1.5 miliardi di distillati DeepSeek R1 Si basa su Qwen per i computer con specifiche basse. Consuma solo 1.1 GB di memoria.
ollama run deepseek-r1:1.5b

Installa deepseek r1 usando ollama

  • Se si dispone di una grande memoria e di un hardware potente, è possibile eseguire modelli. 7 miliardi o 14 miliardi o 32 miliardi o 70 miliardi Estratto da DeepSeek R1. Puoi trovare i comandi qui.
  • Ecco come eseguire il modello DeepSeek R1 da 7 miliardi di bit sul tuo computer. Consuma 4.7 GB di memoria.
ollama run deepseek-r1:7b

Installa il modello deepseek r1 7b usando ollama

  • Ora puoi chattare con DeepSeek R1 localmente sul tuo computer, direttamente dal Terminale.
  • Per interrompere la chat con il modello AI e uscire, utilizzare la scorciatoia "Ctrl + D".

Esecuzione del modello deepseek r1 7b utilizzando ollama

Esecuzione di DeepSeek R1 in locale tramite Open WebUI

Se vuoi utilizzare il modello DeepSeek R1 localmente con un'interfaccia utente simile a ChatGPT, puoi installare Apri l'interfaccia utente Web (GitHub) su PC o Mac. Questa app utilizza il servizio Ollama per offrire numerose funzionalità utili, come l'analizzatore di codice, la chat vocale, l'analisi dei file, le istruzioni personalizzate e molto altro ancora.

In breve, puoi eseguire DeepSeek R1 localmente sul tuo computer con tutte le funzionalità di ChatGPT.

  • Per prima cosa alzati Impostazione di Python e Pip sul tuo computer.
  • Quindi, apri il Terminale o il Prompt dei comandi ed esegui il comando seguente per installare Open WebUI. Questo passaggio richiederà alcuni minuti.
pip install open-webui

Installare webui aperto tramite riga di comando

  • Una volta installato, esegui il modello DeepSeek tramite Ollama nel Terminale.
  • Per eseguire Ollama puoi seguire le istruzioni indicate nel metodo sopra.
ollama run deepseek-r1:1.5b

Esecuzione del modello deepseek r1 tramite ollama

  • Dopo aver eseguito Ollama, eseguire il comando seguente per avviare il server Open WebUI.
open-webui serve

Avvia il server webui aperto

  • Quindi, tocca http://localhost:8080 Per aprire il server Open WebUI locale.
  • Fai clic su "Inizia" e inserisci qui il tuo nome.

apri la home page della webui

  • Ora puoi utilizzare DeepSeek R1 tramite un'interfaccia utente semplice da usare.
  • L'apertura della WebUI selezionerà automaticamente il modello DeepSeek R1 nell'elenco a discesa.

Esegui DeepSeek R1 localmente su telefoni Android e iPhone

È possibile eseguire DeepSeek R1 in locale su telefoni Android e iPhone in modo rapido. Su Android ho testato diverse app, tra cui LM Playground, Private AI, Llamao e altre, ma PocketPal si è rivelata la soluzione migliore. Per eseguire modelli di intelligenza artificiale locali su telefoni Android - Tutto gratis.

La cosa migliore è che PocketPal AI è disponibile anche per iOS ed è completamente gratuito, a differenza di Apollo AI e Private LLM. Ecco come iniziare.

  • Per prima cosa, installa l'app PocketPal AI.
  • Successivamente, avvia l'app e clicca su "Vai ai moduli".
  • Qui, clicca sul pulsante “+” in basso a destra.
  • Seleziona qui "Aggiungi da Hugging Face".

Scarica il modello deepseek r1 su Android

  • Cerca "deepseek" e scorri verso il basso per trovare "DeepSeek-R1-Distill-Qwen-1.5B" di bartowski.
  • Aprilo e scarica il modello appropriato in base alla memoria disponibile sul tuo telefono. Ho scaricato il modello quantizzato “Q5_K_M” per questo tutorial perché consuma circa 1.3 GB di RAM.
  • Dopo aver scaricato il modulo, torna indietro e clicca su Scarica.

Scarica il modello deepseek r1 su Android in locale

  • Ora puoi chattare localmente con il modello DeepSeek R1 sul tuo telefono Android o iPhone.

Esegui il modello deepseek r1 localmente su Android

Ecco i diversi modi per installare DeepSeek R1 su PC e Smartphone Chatta con il modello AI offline. Nei miei brevi test, sia il modello 1.5B che quello 7B hanno mostrato numerose allucinazioni ed errori storici.

Tuttavia, è possibile utilizzare facilmente questi modelli per la scrittura creativa e il ragionamento matematico. Se disponi di un hardware potente, ti consiglio di provare il modello DeepSeek R1 32B. È molto più bravo a programmare e a fornire risposte supportate dalla logica.

Vai al pulsante in alto