Ollama su Hard Disk Esterno: porta la tua AI offline ovunque
Avere un’AI portatile su hard disk esterno è oggi possibile grazie a Ollama su hard disk esterno: un framework open source gratuito che permette di eseguire modelli linguistici avanzati direttamente su Windows, senza cloud, senza abbonamenti e senza che un byte dei tuoi dati lasci il dispositivo. Basta una chiavetta USB 3.0 o un disco esterno da 500 GB, un PC con buone prestazioni, e un file .BAT di avvio da lanciare alla connessione.
Nel tutorial completo che ho pubblicato su YouTube analizzo ogni passaggio in tempo reale: dal download di Ollama alla creazione dello script di avvio, fino al primo prompt eseguito interamente offline. In questo articolo ti spiego il perché vale la pena farlo — e cosa troverai nel video.
- Ollama su hard disk esterno ti permette di portare un assistente AI su qualsiasi PC Windows senza installarlo sul sistema operativo.
- Serve un disco esterno o USB da almeno 500 GB, formattato NTFS, con porta USB 3.0.
- Un file
.BATdi avvio gestisce tutto automaticamente: puntamento dei modelli e lancio del server locale. - I modelli funzionano completamente offline: zero dati inviati a server esterni.
- Nel video su YouTube trovi lo script
.BATcompleto pronto da scaricare e il walkthrough passo per passo.
- Cos'è Ollama e perché usarlo offline
- Hardware necessario: disco esterno o chiavetta USB?
- Come funziona il setup: la logica in quattro passaggi
- Quali modelli AI scegliere per uso portatile
- Privacy totale: i tuoi dati non lasciano il PC
- Domande Frequenti
Cos'è Ollama e perché usarlo offline
Ollama è un framework open source gratuito che consente di scaricare, gestire ed eseguire modelli linguistici di grandi dimensioni (LLM) direttamente sull'hardware locale, senza richiedere connessione internet né account su piattaforme cloud. Disponibile per Windows, macOS e Linux, si controlla tramite riga di comando o API locale esposta su http://localhost:11434.
La differenza rispetto a ChatGPT o Claude non è solo economica. Con un servizio cloud:
- Ogni prompt viene inviato a server di terze parti.
- I limiti di token impongono troncamenti sulle sessioni lunghe.
- L'accesso dipende dalla connettività e dalla disponibilità del servizio.
Con Ollama in locale nessuna di queste limitazioni esiste. Il modello gira sulla RAM e sulla GPU del tuo PC — o anche solo sulla CPU, con tempi di risposta più lenti ma risultati comunque utilizzabili. La documentazione ufficiale e il catalogo modelli sono disponibili su ollama.com.
L'idea di spostare tutto su un disco esterno aggiunge un ulteriore livello: portabilità. Porti il tuo assistente AI su qualsiasi PC Windows senza installare nulla sul sistema operativo host — ad eccezione del runtime Ollama stesso, che pesa meno di 150 MB.
Hardware necessario: disco esterno o chiavetta USB?
Non serve hardware professionale. Ecco i requisiti minimi verificati nel tutorial:
| Componente | Requisito minimo | Note |
|---|---|---|
| Interfaccia | USB 3.0 | USB 2.0 troppo lento per i modelli |
| Capacità | 500 GB+ | Un modello da 7B occupa ~4–5 GB |
| File system | NTFS | Richiesto su Windows; FAT32 limita a 4 GB per file |
| PC | 8 GB RAM, CPU moderna | GPU opzionale ma migliora la velocità |
| OS | Windows 10 / 11 | Il tutorial è specifico per questa piattaforma |
Disco esterno vs chiavetta USB: un hard disk esterno o un SSD portatile garantisce velocità di lettura superiori (150–400 MB/s su USB 3.0), il che riduce il tempo di caricamento del modello in RAM. Una chiavetta USB di buona qualità funziona ugualmente — purché sia USB 3.0 e con velocità di scrittura dichiarate elevate.
Se stai cercando un approccio simile ma su Linux, puoi approfondire come creare un sistema Linux persistente su chiavetta USB per avere un intero OS avviabile da disco esterno.
Come funziona il setup: la logica in quattro passaggi
Il flusso completo — con ogni click documentato — è nel video YouTube in fondo a questo articolo. Il principio di funzionamento è questo:
- Prima installazione su PC e copia dei file. Ollama viene prima installato normalmente sul PC per generare i file binari necessari. Questi file vengono poi copiati sul disco esterno nella cartella
IA locale. - Disinstallazione dal PC host. Una volta copiati i binari, Ollama viene disinstallato dal sistema: il PC torna pulito, tutto vive sul disco esterno.
- Script
.BATdi avvio. Un file.batposizionato nella root del disco esterno punta la variabile d'ambienteOLLAMA_MODELSalla cartellamodelssul disco stesso e lancia il server locale. Basta fare doppio clic per avviare l'assistente AI. Lo script completo è disponibile per il download nella descrizione del video. - Download dei modelli direttamente sulla chiavetta. Con il server attivo è possibile installare nuovi modelli via la PowerShell interna, usando il comando
ollama run [nome-modello]. I pesi vengono scaricati direttamente nella cartellamodelsdel disco — non sul PC.
Quali modelli AI scegliere per uso portatile
Nel tutorial vengono testati tre modelli, tutti disponibili gratuitamente nel catalogo Ollama:
| Modello | Parametri | Uso consigliato | Spazio approssimativo |
|---|---|---|---|
| Gemma 4 (Google) | 4B | Uso generale, multilingua | ~3 GB |
| Qwen 3 (Alibaba) | variabile | Ragionamento, coding | ~4–5 GB |
Cerbero 7B (galatolo/cerbero-7b) |
7B | Italiano ottimizzato | ~4,5 GB |
Cerbero 7B merita una menzione speciale per il pubblico italiano: è un modello fine-tuned specificamente per la lingua italiana, installabile con ollama run galatolo/cerbero-7b. I risultati in italiano sono notevolmente superiori rispetto ai modelli base non localizzati.
Per sfruttare al meglio qualsiasi modello locale, la qualità dei prompt fa una differenza significativa. Ho scritto una guida su come strutturare prompt AI per risposte precise — applicabile anche con Ollama in locale.
Privacy totale: i tuoi dati non lasciano il PC
Quando esegui un modello tramite Ollama in locale, l'intera inferenza avviene sulla CPU (e GPU, se disponibile) del PC host. Nessuna richiesta di rete viene effettuata durante le sessioni di chat. Puoi verificarlo disabilitando completamente la connessione internet: l'assistente continua a rispondere senza interruzioni.
Questo lo distingue in modo netto da soluzioni come Gemini Nano integrato nel browser, che pur operando parzialmente on-device mantiene canali di telemetria attivi. Ho approfondito le implicazioni dell'AI on-device nei browser e come controllarla in un articolo dedicato.
Per scenari professionali — analisi di documenti riservati, codice proprietario, dati aziendali sensibili — Ollama su disco esterno rappresenta una delle poche soluzioni AI che soddisfa requisiti di data residency senza ricorrere a infrastrutture self-hosted complesse.
🎬 Vuoi il tutorial completo passo per passo?
Ho documentato tutto nel video su YouTube @tuttelevitediunmaker: installazione, copia dei binari, creazione dello script .BAT, primo avvio e installazione di modelli aggiuntivi via PowerShell. Nella descrizione trovi anche lo script .BAT pronto da scaricare.
#tuttelevitediunmaker
Domande Frequenti
Cos'è Ollama e come funziona senza internet?
Ollama è un framework open source che esegue modelli LLM direttamente sul PC locale, senza richiedere connessione a server remoti. Una volta scaricato il modello, tutta l'inferenza avviene localmente: il PC elabora i prompt usando CPU e GPU, senza trasmettere dati alla rete. È sufficiente disattivare il Wi-Fi per verificarlo — il modello risponde normalmente.
Quale hard disk o chiavetta USB serve per Ollama portatile?
Il requisito minimo è un'interfaccia USB 3.0 con almeno 500 GB di spazio, formattato NTFS. Una chiavetta USB 3.0 di buona qualità funziona, ma un SSD esterno garantisce velocità di lettura superiori (150–400 MB/s) che riducono il tempo di caricamento del modello in RAM. Le chiavette USB 2.0 sono troppo lente per un utilizzo fluido.
Quali modelli AI si possono usare offline con Ollama?
Il catalogo su ollama.com include centinaia di modelli open source: Gemma (Google), Qwen (Alibaba), Llama (Meta), Mistral e modelli italiani come Cerbero 7B di Galatolo. I modelli da 4–8 miliardi di parametri occupano tra 3 e 5 GB sul disco e funzionano su PC con 8–16 GB di RAM anche senza GPU dedicata.
I dati rimangono privati usando Ollama su USB?
Sì. Tutto il processing avviene localmente sul PC host. Nessun prompt, nessuna risposta e nessun metadato di sessione viene inviato a server esterni. Ollama non include telemetria attiva sulle sessioni di chat. Puoi confermarlo monitorando il traffico di rete con qualsiasi tool di analisi mentre interagisci con il modello.
Quanto spazio occupa un modello AI locale su disco esterno?
Dipende dalla dimensione del modello. Un modello da 7 miliardi di parametri in formato quantizzato Q4 (il default di Ollama) occupa circa 4–5 GB. Un modello da 4B occupa circa 2,5–3 GB. Con un disco da 500 GB si possono ospitare comodamente 50–80 modelli di media dimensione, più che sufficienti per qualsiasi caso d'uso.
Conclusione
Ollama su hard disk esterno trasforma una semplice chiavetta USB in un assistente AI completo, offline e completamente privato. La configurazione richiede meno di 30 minuti, non ha costi ricorrenti e funziona su qualsiasi PC Windows 10/11. Con modelli come Cerbero 7B ottimizzato per l'italiano, la barriera d'ingresso all'AI locale non è mai stata così bassa.
Hai già un disco esterno in un cassetto? Potrebbe diventare il tuo prossimo strumento di lavoro — senza che nessuno sappia cosa ci stai dentro. Hai mai usato AI offline in un contesto professionale? Scrivimelo nei commenti.
#tuttelevitediunmaker
tuttelevitediunmaker — Professionista IT | Specialista AI & Cybersecurity | Creator YouTube
Professionista con esperienza nel settore utility/energia, specializzato in intelligenza artificiale applicata, cybersecurity ed elettronica. Autore del canale YouTube @tuttelevitediunmaker e della community Patreon dedicata a chi vuole capire — davvero — come funziona la tecnologia.
🎬 YouTube @tuttelevitediunmaker | Patreon
