OpenAI ha annunciato il rilascio di GPT-5.4, l’ultima versione del suo modello di intelligenza artificiale. Secondo quanto riportato da The Verge, il modello combina progressi nelle aree del ragionamento, della programmazione e del lavoro professionale che coinvolge fogli di calcolo, documenti e presentazioni. GPT-5.4 rappresenta il primo modello OpenAI con capacità native di utilizzo del computer, il che significa che può operare un computer per conto dell’utente e completare task attraverso diverse applicazioni. Il modello è disponibile da subito tramite API, nell’ambiente di sviluppo Codex e in ChatGPT. Una variante specifica per il ragionamento, denominata GPT-5.4 Thinking, viene distribuita all’interno di ChatGPT per gli utenti dei piani Plus, Team e Pro. OpenAI afferma che GPT-5.4 è il suo modello più accurato dal punto di vista fattuale, con affermazioni individuali che hanno una probabilità inferiore del 33% di essere false rispetto al predecessore GPT-5.2. L’azienda ha anche introdotto un modello GPT-5.4 Pro, destinato alle API e agli utenti Enterprise ed Edu, per massimizzare le prestazioni su compiti complessi.
Le implicazioni pratiche di questo aggiornamento sono significative per diversi ruoli professionali. La capacità di scrivere codice per operare il computer e di emettere comandi da tastiera e mouse in risposta a screenshot apre la strada a una nuova categoria di agenti autonomi. Sviluppatori e professionisti IT potrebbero delegare task ripetitivi di configurazione o testing a questi agenti. La funzionalità migliorata di navigazione web e di chiamata a tool e API promette di aumentare l’efficienza nella ricerca di informazioni e nell’integrazione di servizi. Per gli analisti e i knowledge worker, la capacità dichiarata di cercare in modo persistente tra più fonti e sintetizzare risposte ben ragionate può trasformare il processo di ricerca e analisi di documenti complessi. All’interno di ChatGPT, la funzionalità GPT-5.4 Thinking, che fornisce una traccia del proprio lavoro e consente modifiche in corso d’opera, è pensata per migliorare la collaborazione uomo-macchina su progetti articolati, riducendo il numero di iterazioni necessarie per ottenere il risultato desiderato.
La fonte originale non approfondisce in modo dettagliato i limiti o i rischi associati a GPT-5.4. Tuttavia, l’introduzione di capacità di controllo del computer solleva questioni di sicurezza e affidabilità intrinseche. Un agente che opera autonomamente su un sistema deve gestire correttamente permessi, autenticazioni e potenziali errori per evitare danni ai dati o interruzioni del servizio. La precisione fattuale migliorata, sebbene significativa, non elimina il rischio di allucinazioni o di risposte inaccurate, specialmente in contesti ad alta posta in gioco. L’uso di screenshot e comandi di input potrebbe introdurre nuove vulnerabilità se il modello interpreta male elementi visivi o contestuali sullo schermo. La dipendenza da tali sistemi per task critici richiederà robusti meccanismi di supervisione e verifica umana. La disponibilità differenziata delle funzionalità tra diversi piani di abbonamento e tipi di utenti potrebbe inoltre creare disparità nell’accesso agli strumenti più avanzati.
Il rilascio di GPT-5.4 si inserisce in un trend chiaro del settore verso agenti di intelligenza artificiale sempre più autonomi e capaci di interagire con ambienti digitali complessi. La capacità nativa di controllo del computer rappresenta un passo oltre l’interazione testuale o vocale, avvicinandosi al concetto di agente software generale. Questo sviluppo sposta la competizione dalle pure capacità linguistiche all’integrazione pratica negli stack tecnologici esistenti. I prossimi passi plausibili includeranno il rafforzamento di queste capacità in ambienti multi-applicazione stabili, una maggiore personalizzazione per flussi di lavoro specifici del settore e miglioramenti nella trasparenza e auditabilità delle azioni compiute dall’agente. Resta aperta la questione di come bilanciare l’autonomia operativa con il controllo umano necessario per garantire sicurezza e allineamento con gli obiettivi dell’utente. Per professionisti e aziende, la domanda diventa come integrare tali agenti nei processi esistenti senza introdurre nuovi punti di fragilità sistemica.
Alessio Baronti
Consulente Strategico AI & Sviluppatore Web


