OpenAI ha appena fatto qualcosa che fino a poco tempo fa sembrava impensabile: ha rilasciato due modelli linguistici open-source che non solo sono gratuiti, ma si possono usare direttamente sul proprio computer, anche senza connessione a internet. Una mossa che potrebbe cambiare il modo in cui interagiamo con l’intelligenza artificiale nella vita quotidiana.

Questi nuovi modelli si chiamano gpt-oss-120b e gpt-oss-20b (i nomi fanno come sempre schifo!) e promettono di portare capacità avanzate di ragionamento e assistenza anche sui PC di casa, senza bisogno di server esterni o abbonamenti. Ma cosa possono fare davvero, e soprattutto: noi utenti comuni, cosa possiamo farci oggi, concretamente?

Con l’annuncio di gpt-oss-120b e gpt-oss-20b, OpenAI torna a pubblicare modelli open-weight per la prima volta dopo GPT-2, rilasciato nel lontano 2019 (e chi se lo ricorda!?). E lo fa in grande stile, mettendo a disposizione due modelli di altissimo livello, pronti da scaricare, modificare e utilizzare in autonomia.

Il contesto non è casuale. Dopo l’ascesa di concorrenti come DeepSeek e altri progetti open-source sempre più performanti, si è fatta sentire una pressione crescente perché anche OpenAI offrisse qualcosa di davvero aperto, non solo via API a pagamento. Ecco quindi gpt-oss.

I due modelli si differenziano principalmente per dimensioni e requisiti hardware:

gpt-oss-20b è il più piccolo e il più “popolare”: basta avere 16 GB di memoria (VRAM o unificata) per usarlo, ed è pensato per girare anche su PC consumer, laptop potenti e Mac con Apple Silicon. È quello che può interessare a chi vuole sperimentare localmente senza complicazioni. I risultati sono simili a quelli di o3-mini.
gpt-oss-120b, invece, è riservato a una nicchia: richiede almeno 80 GB di memoria, e per ottenere buone prestazioni serve una workstation di fascia altissima con GPU NVIDIA RTX PRO. Non è per tutti, ma offre risultati quasi alla pari con i modelli proprietari quali o4-mini.

Entrambi sono rilasciati sotto licenza Apache 2.0, quindi completamente liberi da vincoli anche per usi commerciali. Non solo: sono già stati adottati da partner come Microsoft, Hugging Face, Snowflake e tanti altri per essere integrati in piattaforme di sviluppo e ambienti locali.

Questa apertura non è solo simbolica: è un invito concreto a creare, personalizzare, sperimentare, anche senza doversi affidare ai server OpenAI. E soprattutto, è un messaggio forte: l’intelligenza artificiale avanzata può anche essere uno strumento personale e gratuito, non solo un servizio remoto e a pagamento.

L’aspetto più interessante di questo rilascio, come abbiamo già sottolineato, è che gpt-oss-20b può effettivamente girare su un comune computer, anche senza connessione a internet. E senza dover essere sviluppatori esperti.

Il principale vincono è che servono almeno 16 GB di memoria video (VRAM o unificata), una soglia che molti PC da gaming, workstation leggere e Mac con chip M1 Pro, M2 Pro o superiori possono tranquillamente raggiungere. È compatibile con Windows, macOS e Linux, ed è già stato integrato in strumenti come Ollama, un’app gratuita che consente di interagire con il modello tramite un’interfaccia semplice, llama.cpp, per chi vuole maggiore controllo e prestazioni elevate, anche su sistemi non recentissimi, o Microsoft AI Foundry Local, un’alternativa più professionale, utile per chi sviluppa applicazioni con modelli locali.

Tutte queste soluzioni funzionano in locale, cioè senza bisogno di inviare dati a server esterni. È perfetto se vogliamo sperimentare con l’IA senza abbonamenti, senza limiti di utilizzo e con un maggiore controllo sulla privacy.

Come provarlo subito su Windows o macOS

E se volessimo sperimentare gpt-oss-20b oggi stesso sul nostro computer? Ecco cosa fare:

Su Mac con Apple Silicon installiamo Ollama. Dopo l’installazione, scegliamo “gpt-oss:20b” dal menu e iniziamo a scrivere. Semplice e veloce!
Su PC Windows con GPU NVIDIA (almeno 16 GB di VRAM): anche qui Ollama è la strada più diretta. In alternativa, possiamo provare i già citati Microsoft AI Foundry Local oppure llama.cpp per maggiore personalizzazione.
Per utenti esperti: possiamo scaricare direttamente i modelli grezzi da Hugging Face:

gpt-oss-20b
gpt-oss-120b

La scappatoia: per chi volesse solo vedere i modelli in azione, senza installare nulla, c’è la versione da browser, utile per saggiarne le capacità, ma chiaramente non così privata.

Grazie a queste opzioni, non servono più né cloud né abbonamenti per usare “ChatGPT” sul proprio computer.

L’articolo OpenAI lancia l’intelligenza artificiale che puoi usare sul tuo PC, gratis e senza internet sembra essere il primo su Smartworld.