LLM da installare localmente

di il
15 risposte

LLM da installare localmente

Questo e' solo un elenco di nomi e link dove ricuperare informazioni su come installare gli LLM.

FONDAMENTALE una scheda grafica con 16GB. 
8GB sono il minimo sindacale.
24GB o 32GB sarebbero meglio.

NON serve avere una scheda top di gamma di ultimizzima generazione. 
Anche una 3090 va benissimo.

La CPU non e' un problema, tanto NESSUNA va bene!

==============================================================================

Ollama
   https://ollama.com/library
   https://github.com/ollama/ollama
   https://github.com/ollama/ollama?tab=readme-ov-file
   
   You should have at least 
        8 GB RAM to run the  7B models, 
       16 GB RAM to run the 13B models, 
       32 GB RAM to run the 33B models.


Nota: per usare ollama PRIMA e' necessario attivare il server:

   ollama serve


Alternatives
------------

   https://medium.com/ml-and-dl/exploring-powerful-ai-tools-alternatives-to-ollama-and-lm-studio-f50021741cdc
   https://slashdot.org/software/p/LM-Studio/alternatives


    HuggingFace transformers
       Best for: Comprehensive model library and research-oriented workflows
       https://huggingface.co/docs/transformers/en/index

    LM studio
       Best for: Local AI model inference with user-friendly interface
       https://lmstudio.ai/

    Gpt4all
       Best for: Open-source enthusiasts and privacy-focused developers
       https://www.nomic.ai/gpt4all

    Llamaindex
       Best for: Advanced RAG (Retrieval-Augmented Generation) and enterprise applications
       https://cloud.llamaindex.ai/login/callback?provider=google


   Msty 
       https://msty.app/

   llama.cpp
       Description: A C++ library for running LLMs (especially LLaMA-based models) efficiently on local hardware. 
       It’s the backbone of many tools like LM Studio and Ollama.
       https://github.com/ggerganov/llama.cpp
   
   KoboldCpp: 
       Description: A user-friendly wrapper around llama.cpp with a GUI and API support.

   Text Generation WebUI (oobabooga)
       Description: A comprehensive web-based interface for running LLMs locally, built on top of frameworks like 
       PyTorch and Hugging Face Transformers.

   Hugging Face Transformers (with Local Setup)

   LocalAI
       Description: An open-source, drop-in replacement for OpenAI’s API that runs LLMs locally.

   AnythingLLM
       Description: A GUI-based tool for running LLMs locally with a focus on document integration and RAG (Retrieval-Augmented Generation).

   GPT4All
       Description: A desktop app for running optimized LLMs locally, with a focus on ease of use.

   Jan.ai
   Open WebUI
   LibreChat
   Mistral AI
   VLLM
   LangDB
   NVIDIA Triton Inference Server

15 Risposte

  • Re: LLM da installare localmente

    Io uso un portatile con 64 GB di RAM e processore I9 14900 HX e scheda grafica 4070 (laptop ovviamente) con 8 GB.

    Ho Ollama (che uso prevalentemente rispetto alle LLM online) con i seguenti modelli (traparentesi le proprietà caratteristiche):

      A. gemma3:12b     (Completion / Vision)
      B. deepseek-r1      (Completion / Thinking)
      C. llama3.2             (Completion / Tools)
      D. llama3.1             (Completion / Tools)
      E. qwen2.5-coder:14b    (Completion / Tools / Insert)
      F. qwen3:30b-a3b           (Completion / Tools / Thinking)
      G. devstral:24b                (Completion / Tools)
      H. dolphin-mixtral           (Completion)

    Ci sarebbe tanto da dire sulle loro caratteristiche, soprattutto sull'aiuto che possono fornirci (come programmatori). RIcordatevi comunque che sono solo di ausilio, non  possono risolvere tutto (e soprattutto fornirvi una applicazioe completa e funzionante perfettamente).

    Caratteristiche di uso memoria, poi la risposta alla domanda "Ciao, che LLM sei" :

    A) Occupa circa 6 GB di memoria per la grafica (6 Base) + 4 GB di RAM CPU
    Ciao! Sono Gemma, un modello linguistico di grandi dimensioni (LLM) sviluppato da Google DeepMind. Sono un modello
    open-weights, il che significa che i miei pesi sono disponibili pubblicamente.

    B) Occupa circa 6 GB di memoria per la grafica (6 Base) + 1 GB di RAM CPU
    Ciao! ?? Sono **DeepSeek R1**, un modello di intelligenza artificiale sviluppato da DeepSeek, una azienda
    tecnologica cinese specializzata in grandi modelli linguistici. Sì, parlo italiano tra le altre lingue!
    Sono un assistente basato sulla linguistica e sull'intelligenza artificiale avanzata, progettato per aiutarti con
    varie attività come:
    - Ricerca informazioni
    - Scrittura creativa (racconti, poesia, idee per testi)
    - Redazione di email o documenti professionali
    - Risoluzione di problemi tecnici e programmazione
    - Consigli su viaggi, cucina, cultura...
    - E molto altro!
    Posso anche aiutarti a risolvere dubbi sulla tua routine quotidiana, sul tuo stile di vita, oppure fornirti
    contenuti per i tuoi studi o hobby. ??

    C) e D) Occupa circa 4 GB di memoria per la grafica (4 Base) + meno di 1 GB di RAM CPU
    Ciao! Sono un Modello di Linguaggio Generale (LLM), un tipo di intelligenza artificiale progettato per comprendere
    e generare linguaggio in modo naturale. Sono stato addestrato su una vasta quantità di testi e posso utilizzare
    questo conoscenza per rispondere alle tue domande, generare testo e più.
    Sono un sistema software basato sul machine learning che cerca di imitare la capacità del linguaggio naturale
    dell'uomo. Sono in grado di:
    - Comprendere il contesto delle domande e fornire risposte pertinenti
    - Generare testo su un tema specifico o generico
    - Tradurre testi da una lingua all'altra (se disponibile)
    - Rispondere alle domande e intrattenimento.
    Sono qui per aiutarti, quindi non esitare a farmi delle domande o a chiedermi di generare qualcosa per te!

    E) Occupa circa 10 GB di memoria per la grafica (7 Base + 3 condivisa) + 2 GB di RAM CPU
    Ciao! Sono un modello di linguaggio grande creato da Alibaba Cloud. Come posso aiutarti oggi?

    F) Occupa circa 20 GB di memoria per la grafica (7 Base + 13 condivisa) + 4 GB di RAM CPU
    Ciao! Sono Qwen, un modello linguistico di grandi dimensioni sviluppato da Tongyi Lab. Posso rispondere a domande,
    creare testi, programmare, e molto altro. Parlo diversi linguaggi, tra cui l'italiano. Se hai domande o hai
    bisogno di aiuto, non esitare a chiedere! ??

    G) Occupa circa 16 GB di memoria per la grafica (7 Base + 9 condivisa) + 2 GB di RAM CPU
    Ciao! Sono Devstral, un modello di intelligenza artificiale addestrato da Mistral AI per aiutarti con una vasta
    gamma di compiti tecnici. Posso eseguire comandi, modificare il codice e risolvere problemi tecnici in modo
    efficace. Come posso aiutarti oggi?

    H) Occupa circa 25 GB di memoria per la grafica (5 Base + 20 condivisa) + 2 GB di RAM CPU
    Ciao! Sono un Language Learning Model (LLM), cioè un modello di apprendimento linguistico basato
    sull'intelligenza artificiale. Il mio scopo è comprendere e generare testi in diverse lingue, risolvere problemi e
    rispondere a domande fornendo informazioni utili.

  • Re: LLM da installare localmente

    Il tuo i9 scalda?

    Io ho un i9 11950H che scalda che ci posso cucinare l'uovo. Quando non fa niente e' a 60/70 gradi.

    Se appena appena faccio qualcosa di un po' piu' complicato raggiunge i 100 gradi fissi (e poi parte il throtteling). Ora sono riuscito a tovare una soluzione ragionevole: con una base di raffreddamento, sono sui 85/90 gradi fissi ma a frequenza costante (2.6 GHz).

    Non so se prendere lo stesso modello di notebook ma con Xeon 11955, oppure un laptop di ultima generazione

  • Re: LLM da installare localmente

    Il mio non scalda, e non scaldava neanche il modeloo precedente (I7 12700H). La generazione 11 l'ho salatata come generazione dopo che ho avuto problemi simili ai tuoi su un desktop (per lavoro). Sembra che la gen 11 abbia (avuto ??) dei problemi con la gestione delle temperature.

    Comunque il mio (un Acer) ha un tasto fisico che puoi usare come "Turbo" e passare alla modalità ad alte prestazioni / consumi e diciamo la temperatura base passa intorno ai 65 gradi fissi poi in uso intensivo và intorno ai 90 / 100 gradi.

    La gestione temperatura è praticamente perfetta, throttling praticamente nullo.

    Per fare girare le LLM non è nenache necessario atttivare il turbo, i tempi di reazione sono comunque buoni.

  • Re: LLM da installare localmente

    26/07/2025 - migliorabile ha scritto:

    Non so se prendere lo stesso modello di notebook ma con Xeon 11955, oppure un laptop di ultima generazione

    Io non uso gli XEON perchè hanno la gestione tra thread / core / processi / partizioni memoria / etc ... che non è quella standard che conosciamo normalmente con i processori consumer.

    Le applicazioni Delphi (e Delphi stesso ??) non sono pienamente compatibili in caso di multithreading su sistemi multiprocessori

  • Re: LLM da installare localmente

    @Delphinium,
    Non ho mica capito! Perche' gli Xeon (per portatili) dovrebbero funzionare in modo diverso da un normale Intel Core?

    Hanno qualche funzionalita' in piu', ad esempio il support alla memoria con correzione di errore, ed altre funzionalita' che non ho mai capito.

    Ma un Xeon W-11955M e' usato sui portatili al posto dei Core (Dell Precision 7560 con processore Xeon, lo trovi su eBay ed io ho lo stesso modello ma con processore i9)

    Non sto parlando degli Xeon di ultima generazione.

  • Re: LLM da installare localmente

    @migliorabile

    No, non è l'ECC o alcune funzionalità avanzate per migliorare o stabilizzare le prestazioni tipiche degli Xeon e non presenti nei processori di tipo  "consumer" è la tecnologia NUMA dove molto spesso (ma è necessario fare il check nella infinita documentazione Intel) alcuni di questi processori adottano tale tecnologia e di fatto vengono visti come 2 o più processori fisici con "partizione della memoria" (chiamiamola memoria remota e memoria locale rispetto ai core / thread).

    Se usi il multithreading in questi processori il compilatore Delphi attuale e il suo gestore di memoria non sono ottimizzati (è un eufemismo) per tali configurazioni.

    In realtà ciò l'ho provato qualche anno fà e con mio grande rammarico ho dovuto effettuare un refactoring dell'intera applicazione (per una workstation con un XEON dual processor) su singolo Thread.

    Da allora ci ho messo una croce sopra riservandomi in un futuro di approfondire l'argomento ....

    In realtà sviluppando componenti tipicamente industriali (non sempre ma comunque la base rimane quella) è stata l'unica volta che mi è capitato ciò.

    Il processore che hai indicato è comunque compatibile con la serie "consumer" di Intel (cioè I3, I5, I7 e I9 e similari) quindi se dovessi usarlo io non ci sarebbero problemi.

  • Re: LLM da installare localmente

    Aggiornamento sui modelli installati localmente:

      I. GPT-oss:20b           (Completion / Tool / Thinking)

    I) Occupa circa 5 GB di memoria per la grafica (5 Base) + 12 GB di RAM CPU
    Ciao! Sono ChatGPT, un modello linguistico basato sull’architettura GPT-4 di OpenAI. Posso comprendere e generare
    testo in diverse lingue, incluso l’italiano, e aiutarti con informazioni, scrittura, traduzioni, spiegazioni e
    tanto altro. Se hai domande più specifiche sul mio funzionamento o sulle mie capacità, chiedi pure! 

  • Re: LLM da installare localmente

    Al momento, uno dei pochi computer (a prezzo consumer) in grado di far girare il modello da 120b (65GB) e' il GMKtec EVO-X2

    https://www.gmktec.com/products/amd-ryzen%E2%84%A2-ai-max-395-evo-x2-ai-mini-pc 

    basato su  AMD Ryzen AI Max+ 395

    e 128GB di ram

    ;-)

  • Re: LLM da installare localmente

    07/08/2025 - migliorabile ha scritto:

    Al momento, uno dei pochi computer (a prezzo consumer) in grado di far girare il modello da 120b (65GB) e' il GMKtec EVO-X2

    https://www.gmktec.com/products/amd-ryzen%E2%84%A2-ai-max-395-evo-x2-ai-mini-pc 

    basato su  AMD Ryzen AI Max+ 395

    e 128GB di ram

    ;-)

    Peccato che sia in preordine ... meglio attendere che diventi una realtà ...

    Però dalle caratteristiche effettivamente costa relativamente poco. Dovrei fare una analisi più dettagliaita, ma assemblando PC per il mio lavoro direi che se dovessi farne uno così a naso costerebbe di più..

  • Re: LLM da installare localmente

    Esiste, ordinabile anche su Amazon.

    Ci sto facendo un pensierino :-)

    L'unica cosa che non so e' se e' possibile aggiungere una scheda grafica aggiuntiva. Ovviamente NON all'interno, ma mediante un box esterno, su connessione veloce USB o Thunderbolt da 40Gbit/s

    Comunque fino a che ci penso, risparmio :-)

  • Re: LLM da installare localmente

    07/08/2025 - migliorabile ha scritto:

    GMKtec EVO-X2

    08/08/2025 - migliorabile ha scritto:

    Esiste, ordinabile anche su Amazon

    Si, ma non al primo prezzo indicato in preordine. Secondo me il primo prezzo (in sconto e in preordine) è una offerta da non perdere.

    Il prezzo di Amazon è già più in linea.

  • Re: LLM da installare localmente

    Ma del computer Nvidia, il Digit, presentato con mega-enfasi solamente qualche mese fa, voi che sarete aggiornati, sapete che fine ha fatto?

    E' acquistabile?

  • Re: LLM da installare localmente

    11/08/2025 - amorosik ha scritto:

    Ma del computer Nvidia, il Digit, presentato con mega-enfasi solamente qualche mese fa, voi che sarete aggiornati, sapete che fine ha fatto?

    E' acquistabile?

    Certo, fidati di questi .... (ehmm ... poi ci racconti ...) :

  • Re: LLM da installare localmente

    Azzarola, il prezzo di lancio erano 3000 dolori!

Devi accedere o registrarti per scrivere nel forum
15 risposte