In un’epoca in cui l’intelligenza artificiale open-source sta rapidamente trasformando il panorama tecnologico globale, OpenAI cala un asso nella manica: il rilascio ufficiale di GPT-OSS-120B e GPT-OSS-20B (scheda di sistema qui), due modelli linguistici open-weight che promettono di riscrivere le regole del gioco. Il nome? Un richiamo diretto alla filosofia di apertura (open-source) combinata con la potenza delle architetture GPT più avanzate. Ma attenzione: non si tratta solo di una trovata di marketing. Questi modelli rappresentano una svolta tecnica concreta, tanto da spingersi pericolosamente vicino — e in alcuni casi persino superare — le capacità dei modelli proprietari più noti.
GPT-OSS-120B si avvicina alle prestazioni di OpenAI o4-mini, scalando i benchmark più complessi con una facilità sorprendente, pur girando su una singola GPU da 80 GB. Il fratello minore, GPT-OSS-20B, riesce nell’impresa di eguagliare o3-mini pur essendo ottimizzato per device con appena 16 GB di memoria: l’ideale per inferenza locale, edge computing e iterazioni ultra-rapide. La qualità del ragionamento, la capacità di usare strumenti esterni come browser e interpreti Python, la gestione della catena di pensiero (CoT) e la compatibilità con chiamate funzione ne fanno veri e propri agenti di nuova generazione.
A differenza dei modelli open precedenti, questi non sono un esperimento. Sono progettati per essere deployabili, affidabili e soprattutto sicuri. Non a caso, OpenAI ha applicato il suo Framework di preparazione a una versione antagonistica dei modelli, dimostrando che anche in mani potenzialmente malevole l’impatto può essere contenuto. Si tratta di un passaggio fondamentale: questi modelli open non sono solo utili, sono anche progettati per evitare danni concreti, grazie a filtri e tecniche di allineamento avanzate, supervisioni sul comportamento agentico e test stressati contro scenari critici.
Dal punto di vista architetturale, GPT-OSS adotta la formula vincente dei modelli mixture-of-experts (MoE): attiva solo una parte selezionata degli esperti per ogni token, riducendo drasticamente i costi computazionali senza compromettere la qualità. Il 120B, ad esempio, impiega solo 5,1 miliardi di parametri attivi per token su un totale di 117 miliardi, eppure brilla in codifica, matematica competitiva, sanità e domande PhD-level. Tutto è orchestrato con attenzione millimetrica: dalle rotazioni posizionali (RoPE) alle attenzioni miste sparse e dense, passando per una lunghezza di contesto da capogiro — ben 128.000 token.
Ma la vera sorpresa sta nella flessibilità d’uso. I modelli possono essere eseguiti ovunque: on-premise, su dispositivi locali, via API, o all’interno di flussi di lavoro agentici. Sono compatibili con tutti i grandi nomi dell’inferenza moderna (Hugging Face, Ollama, vLLM, llama.cpp e molti altri), già integrati in ambienti come VS Code o Apple Metal. Con Microsoft che rilascia build ottimizzate per Windows, persino il deployment locale è a portata di clic.
Questo rilascio segna anche un ritorno strategico per OpenAI nel mondo dei modelli open dopo anni di silenzio: dai tempi di GPT-2 non erano stati pubblicati modelli linguistici open-weight completi. Il messaggio è chiaro: l’open-source è tornato centrale anche per i giganti dell’IA. Ma con una differenza: oggi non basta più “rilasciare un modello”, bisogna anche garantirne la sicurezza, la scalabilità e l’affidabilità nel mondo reale.
E qui GPT-OSS non delude. I dati pubblici parlano chiaro: in benchmark come Tau-Bench, AIME, MMLU, HealthBench, questi modelli non solo tengono il passo con i migliori, ma in alcuni casi li superano. E lo fanno senza bisogno di infrastrutture esoteriche.
In una mossa dal sapore quasi provocatorio, OpenAI lancia anche una Red Teaming Challenge con un montepremi da 500.000 dollari, invitando chiunque nel mondo a trovare vulnerabilità nei modelli GPT-OSS. È un invito alla collaborazione radicale, una scommessa sulla robustezza dell’architettura e sulla trasparenza del processo.
Se stai cercando un modello potente, open, altamente customizzabile e pronto all’uso sul tuo hardware — che tu sia un ricercatore, uno sviluppatore indie o una grande azienda — GPT-OSS è oggi il riferimento assoluto nel panorama dei modelli open-weight.
E chissà: forse è anche l’inizio di una nuova era dell’IA, in cui potenza e apertura non sono più in conflitto.



