Si è svolta nei giorni scorsi l’edizione 2025 di Nvidia GTC (GPU Technology Conference), conferenza globale sulle tematiche legate all’intelligenza artificiale (AI) pensata per gli sviluppatori, che riunisce dunque sviluppatori, ingegneri, ricercatori, progettisti e professionisti IT da tutto il mondo.
Oltre 25.000 le presenze registrate per questa edizione, nel corso della quale sono stati affrontati i temi più urgenti e strategici dell’AI moderna: l’evoluzione dei modelli generativi, la crescente domanda di potenza computazionale, le sfide dell’infrastruttura di rete e le prospettive del quantum computing.

Durante il keynote di apertura di Nvidia GTC, il CEO di Nvidia Jensen Huang ha delineato una visione netta e ambiziosa del futuro dell’intelligenza artificiale, sottolineando come la diffusione di modelli ad alto livello di reasoning e di agentic AI stia moltiplicando – fino a 100 volte – il fabbisogno di capacità computazionale rispetto a solo un anno fa. Un’accelerazione che impone una rivoluzione nelle architetture hardware e software, nell’efficienza energetica dei data center e nei modelli di sviluppo e deployment dell’AI.
Huang ha dunque posto una forte enfasi sul ruolo che Nvidia vuole giocare in questo contesto: un abilitatore tecnologico chiave per tutto il mercato.
E a rafforzare questo concetto, nel corso della conferenza sono state presentate nuove piattaforme e soluzioni pensate per sostenere la scalabilità dell’intelligenza artificiale nei settori più avanzati, dal calcolo scientifico alla robotica, fino all’industria manifatturiera. 
Per altro, grande attenzione è stata dedicata anche alla tematica del quantum computing, cui è stata riservata una giornata tematica, con un panel moderato dallo stesso CEO, a conferma del crescente interesse verso la convergenza tra AI e tecnologie quantistiche.

Un centro per la ricerca sul Quantum

Come accennato, anche il computing quantistico rientra tra le aree di sviluppo strategico per Nvidia, con investimenti sempre più concreti nonostante le previsioni che collocano nel lungo termine l’utilizzo diffuso di computer quantistici nel mondo reale. A testimonianza di questo impegno, a Boston verrà realizzato il Nvidia Accelerated Quantum Research Center (NVAQC), un centro di ricerca avanzato che ospiterà hardware specializzato, ambienti per la simulazione di algoritmi quantistici su larga scala e iniziative di integrazione tra processori quantistici e modelli di intelligenza artificiale. Il centro sarà anche un hub per attività di formazione e sviluppo, dedicato a esplorare le potenzialità dell’AI applicata al quantum computing.

Nvidia GTC: tanti annunci, con focus su reasoning, agentic AI e quantum

Cerchiamo però di capire quali sono stati gli annunci più significativi di questa edizione. 

Blackwell Ultra: la nuova generazione di GPU per l’AI reasoning

Non v’è dubbio che al centro del Nvidia GTC vi sia stata la presentazione della GPU Blackwell Ultra, progettata per potenziare i carichi di lavoro legati ai modelli AI di reasoning, come DeepSeek R1. Rispetto alla precedente generazione Blackwell, la nuova GPU offre 288 GB di memoria HBM3e (50% in più) e una performance FP4 per l’inferenza migliorata anch’essa del 50%.In particolare, sono state annunciate due nuove piattaforme per data center:

  • GB300 NVL72, una soluzione a liquido con 72 GPU Blackwell Ultra e 36 CPU Grace, capace di 1,1 exaflops FP4 e 20 TB di memoria HBM;
  • B300 NVL16, versione air-cooled, con 16 GPU Blackwell Ultra, pensata per offrire inferenza 11 volte più veloce e memoria 4 volte più ampia rispetto alle piattaforme basate su Hopper.

Entrambe saranno parte dei nuovi DGX SuperPod, disponibili nella seconda metà del 2025 e adottati da OEM come Dell, Cisco, Lenovo e cloud provider come AWS, Azure, GCP e Oracle.
Ricordiamo che i DGX SuperPod sono infrastrutture ad alte prestazioni sviluppate da Nvidia per supportare le esigenze computazionali estreme legate all’intelligenza artificiale e al machine learning su larga scala. Un DGX SuperPod è un cluster modulare composto da decine (o centinaia) di server Nvidia DGX, collegati tramite una rete ad altissima velocità e progettati per lavorare insieme come un unico supercomputer AI. Ogni server DGX integra GPU potenti ed è ottimizzato per training e inferenza di modelli AI avanzati.

Rubin e Vera: il futuro della computazione AI fino al 2028

Sempre nel corso dell’edizione 2025 di GTC, Nvidia ha tracciato la roadmap evolutiva oltre Blackwell, con il lancio nel 2026 della piattaforma Vera Rubin NVL144, basata su GPU Rubin (con memoria HBM4) e CPU Vera (88 core ARM personalizzati). Questa piattaforma liquida raggiungerà 3,6 exaflops FP4 e 1,2 exaflops FP8, con un NVLink 6 da 260 TBps.

Nel 2027 arriverà Rubin Ultra NVL576, con 576 GPU Rubin Ultra (quattro chip per package), per una capacità di 15 exaflops FP4 e 5 exaflops FP8. Le specifiche parlano di 4.6 PBps di banda di memoria HBM4e e 1.5 PBps di NVLink 7.
Un ulteriore salto arriverà nel 2028 con Feynman, una nuova architettura GPU che userà memoria ad altissima banda e interconnessioni NVLink e NVSwitch di nuova generazione.

Switch ottici: efficienza energetica e scalabilità con Spectrum-X e Quantum-X

Novità arrivano anche sul fronte degli switch ottici.
Nvidia ha annunciato infatti nuovi switch basati su silicon photonics: Quantum-X InfiniBand Photonics e Spectrum-X Ethernet Photonics.
Questi switch integrano la fotonica direttamente nel silicio, riducendo il numero di laser, il consumo energetico (fino a 3,5 volte in meno) e migliorando l’integrità del segnale di 63 volte. Consentono di costruire cluster GPU più densi, riducendo il time-to-build dei data center del 30%.

Nvidia Dynamo: il nuovo standard per i modelli AI di reasoning

Sempre per restare in tema di reasoning, Nvidia ha presentato Dynamo, il nuovo framework open source per l’inferenza AI, successore di Triton. Ottimizzato per modelli di reasoning, Dynamo sfrutta la separazione e la parallelizzazione delle fasi di inferenza per aumentare le prestazioni di 30 volte per GPU su cluster GB200.
È compatibile con le principali librerie (PyTorch, TensorRT-LLM, vLLM) e sarà incluso nei microservizi Nvidia NIM e nella piattaforma AI Enterprise.

Novità hardware per sviluppatori 

Novità interessanti sono state lanciate proprio per la community di sviluppatori che costituisce il target d’elezione GTC. Nvidia ha presentato infatti DGX Spark, un mini PC per sviluppatori AI, dotato del chip GB10 e 128 GB di memoria unificata, in grado di supportare modelli fino a 200 miliardi di parametri. Connettendo due Spark, è possibile arrivare a 405 miliardi. Versioni personalizzate sono attese da Dell, HP, Lenovo e Asus.
Nuova è anche la nuova DGX Station con GB300, pensata per ambienti workstation che offre 20 petaflops di potenza AI con 784 GB di memoria e connessioni da 800 Gbps. Sarà disponibile entro l’anno.

RTX Pro Blackwell: la potenza AI anche su PC e laptop

È atteso a breve, nel mese di aprile, anche il rilascio delle nuove GPU RTX Pro Blackwell per desktop, laptop e server, che offrono un throughput superiore del 50% grazie ai nuovi streaming multiprocessor, integrano RT Core di quarta generazione capaci di raddoppiare le performance nel ray tracing e Tensor Core di quinta generazione che raggiungono fino a 4.000 TOPS con supporto per la precisione FP4. La memoria GDDR7 arriva fino a 96 GB. Le versioni destinate ai data center, appartenenti alla serie 6000, saranno disponibili attraverso partner come AWS, Azure, Dell e Cisco.

LEGGI ANCHE: NVIDIA Blackwell cos’è, perché tutti lo cercano

AI Data Platform e AI-Q Blueprint: lo storage pensato per gli agenti AI

Nell’era dell’agentic AI, Nvidia ha presentato la sua AI Data Platform, un reference design per lo storage AI-ready, pensato per accelerare le query agentiche. Al centro c’è AI-Q Blueprint, che con microservizi NeMo Retriever consente l’estrazione di dati da PDF, immagini, video e testi con prestazioni 15 volte superiori su GPU Nvidia.

Nvidia ha annunciato anche che partner come IBM, NetApp, Dell, HPE, Pure Storage e Vast Data porteranno sul mercato soluzioni compatibili con la sua AI Data Platform già da questo mese.

Llama Nemotron: open model ottimizzati per il reasoning

Chiudono gli annunci i nuovi modelli Llama Nemotron, ottimizzati da Nvidia su base Llama di Meta, con miglioramenti fino al 20% in accuratezza e 5x in velocità di inferenza. Pensati per l’AI agentica, saranno disponibili in formato NIM (Nano, Super, Ultra) per sviluppo gratuito e produzione tramite AI Enterprise.
Accompagna le novità l’annuncio che player come Microsoft, Deloitte, ServiceNow e Accenture adotteranno questi modelli per potenziare i propri agenti AI.

LEGGI ANCHE: Nvidia lancia Cosmos: Jensen Huang “La nuova era dell’intelligenza artificiale generativa

Nvidia GTC all’insegna di reasoning, agenti AI e quantum ultima modifica: 2025-03-25T10:17:58+01:00 da Miti Della Mura

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui