L’evento corporate HPE Discover 2024, svoltosi nell’avveniristica “Sfera” di Las Vegas, è stata l’occasione per lanciare un portfolio completo di soluzioni basate sulla AI generativa, sviluppate e co-brandizzate con Nvidia, tra cui figura AI Private Cloud, un approccio rivoluzionario, che promette di portare l’infrastruttura per la AI e il cloud privato verso mete di efficienza e praticità  finora mai riscontrate.

Sul palco di Las Vegas, Antonio Neri, CEO di Hewlett Packard Enterprise, ha dichiarato che il nuovo AI Private Cloud AI che HPE sta portando sul mercato con Nvidia è un cloud privato “completamente integrato” che può essere implementato in soli tre clic, in soli 24 secondi: “A seconda del caso d’uso, è possibile acquistare direttamente risorse small, medium, large e extra-large. Non è come nel caso della AI di Dell, che è un insieme di widget che devi riunire”. In merito all’infrastruttura privata, Neri ha specificato: “La costruiamo subito nella nostra fabbrica e la spediamo esattamente come decidi tu. L’unica cosa che dobbiamo fare è collegare l’alimentazione e la rete, e il gioco è fatto“.

La nuova AI di HPE è stata co-brandizzata con Nvidia, indiscusso leader nell’ambito delle tecnologie computazionali per l’intelligenza artificiale, generativa e non. Durante l’HPE Discover 2024, ello Sphere di Las Vegas, era infatti presente anche Jensen Huang, vulcanico CEO di Nvidia, riconoscibilissimo con la sua proverbiale giacca in pelle nera. Di fronte a 15.000 tra clienti e partner HPE, Huang ha dichiarato: “Con un gigantesco go to market, ora possiamo portare la AI nelle aziende di tutto il mondo, per la prima volta […] Si tratta di una partnership molto solida per portare sul mercato una soluzione per la AI finalmente davvero completa“.

Nel corso del keynote, Huang, al di là di ribadire le caratteristiche del nuovo cloud privato pensato appositamente per la AI, ha ribadito come la rete di partner HPE a livello globale sia un valore fondamentale per poter raggiungere le aziende di tutto il mondo. Secondo il CEO di Nvidia, se i componenti tecnologici sono fondamentali, lo è altrettanto l’esperienza di dominio da parte dei partner: “È qui che entra in gioco questa rete di partner che collegano tutta questa tecnologia con un gigantesco go to market“.

Queste affermazioni, senza entrare troppo in profondità, spiegano le ragioni del rinnovo di una partnership che si preannuncia tra le più importanti della storia dell’IT.

LEGGI ANCHE: HPE GreenLake e il servizio vincente che piace alle imprese

Nvidia AI Computing by HPE e HPE Private Cloud AI

Il grande punto di svolta nella partnership decennale che intercorre tra HPE e Nvidia è la soluzione AI HPE Private Cloud, progettata per essere operativa con soli tre clic, oltre a ricordarsi di attaccare la presa alla corrente, come ha scherzosamente rilevato Antonio Neri.

Come citato in sede di premessa, per rimarcare la differenza e focalizzare meglio il concetto, Neri ha definito Dell AI Factory, anch’essa sviluppata in collaborazione con Nvidia, un framework di intelligenza artificiale, mentre la proposta di HPE sarebbe un cloud privato “completamente integrato“. Se l’approccio di Dell, pur basato sulle stesse tecnologie offerte da Nvidia: “Offre alcune delle soluzioni, ma devi mettere tutto insieme“, HPE intende soprattutto semplificare le cose: “Tu, come cliente, devi decidere cosa vuoi, quali ingredienti vuoi, e poi cucire tutto insieme e distribuirlo da solo“.

Il mezzo con cui arrivare ai clienti sarà ancora una volta HPE GreenLake, l’ecosistema di cloud privato sempre più ricco di partner e soluzioni tecnologiche e commerciali: “Questo è il motivo – analizza Neri – per cui abbiamo dovuto lavorare a stretto contatto con Nvidia, per creare una profonda integrazione del loro stack con il nostro, altrimenti, è sarebbe soltanto un’altra architettura di riferimento“.

Gli fa eco Jensen Huang: “Bastano davvero tre clic. La cosa davvero sorprendente è vedere che funziona fin da subito: all’interno di quella scatola ci sono CPU, CPU Nvidia Grace, GPU Nvidia, networking, NVSwitches, switch Infiniband o Ethernet, e tutta quella tecnologia e tutto quel software, tutto integrato“. Huang ha inoltre precisato come “L’abbiamo fatto in modo che tu possa avere un cloud piccolo, medio, grande ed extra grande. E si sa, più si acquista, più si risparmia. Non devi per forza partire dalla versione extra-large, puoi iniziare ovunque. Abbiamo finalmente risolto davvero un grosso problema. Abbiamo integrato tutto in una soluzione di intelligenza artificiale per il cloud privato davvero facile da usare. Tutta la complessità che c’è dietro a tutta la tecnologia rimane nascosta a te e ti aiuta a farla funzionare nel tempo“.

Manuvir Das, Vice President of Enterprise Computing di Nvidia, ha dichiarato che l’AI di HPE Private Cloud, viene messa a punto e ottimizzata “ogni notte” presso la fabbrica interna di AI NIM di Nvidia. Ciò garantisce, ha affermato Das, che i clienti aziendali ottengano le “ultime ottimizzazioni” con il portafoglio Nvidia AI Computing By HPE, in maniera assolutamente trasparente, senza dover intervenire manualmente con alcun processo di update.

La soluzione chiavi in mano HPE Private Cloud for AI sarà disponibile per i partner per formulare i preventivi commerciali a partire dall’8 luglio e sarà fisicamente disponibile per i clienti a settembre, ha dichiarato Simon Ewington, Vice President of Worldwide Channel and Partner Ecosystem di HPE.

Per i partner di canale, la AI HPE Private Cloud offre notevoli opportunità per ampliare il proprio business. Secondo Antonio Neri, i partner possono vendere computing, storage, networking e software in maniera integrata, oltre ad offrire i propri servizi a valore aggiunto: “Pertanto, ottengono più margine, ma lo fanno in un ciclo di vendita molto più breve rispetto al passato“.

HPE Discover 2024, AI Private Cloud di HPE Greenlake: i dettagli

La AI generativa ha un immenso potenziale per la trasformazione aziendale, ma le complessità della tecnologia frammentata contengono troppi rischi e barriere che ostacolano l’adozione su larga scala da parte delle aziende“, ha dichiarato Antonio Neri: “HPE e Nvidia hanno sviluppato congiuntamente un cloud privato chiavi in mano per la AI che consentirà alle aziende di concentrare le proprie risorse“.

La soluzione Nvidia AI Compute by HPE consiste in tre server capaci di soddisfare tutte le più comuni esigenze in fatto di AI. Il modello base è un HPE ProLiant Compute DL384 Gen12, dotato di Nvidia GH200 NVL2, mentre il top di gamma è il HPE Cray XD670, dotato di ben otto unità GPU Nvidia H200 Tensor Core. La soluzione intermedia prevede invece otto GPU Nvidia H200 NVL GPUs.

I nuovi server dispongono di una innovativa soluzione di raffreddamento a liquido, esaltata dallo stesso Jensen Huang: “Qui abbiamo il futuro del raffreddamento a liquido che consentirà tutto, da migliori prestazioni a infrastrutture più compatte, dai costi operativi inferiori”.

Durante HPE Discover 2024, il colosso ha inoltre annunciato che la piattaforma cloud GreenLake ha ottenuto la certificazione ufficiale Nvidia DGX BasePOD ed è validata per l’impiego di OVX storage, oltre ad utilizzare la soluzione di osservabilità OpsRamp, proprietaria di HPE e concepita appositamente per le funzioni AI.

Tutte le taglie di AI HPE Private Cloud: Small, Medium, Large and Extra-Large

Le configurazioni di HPE Private Cloud AI includono uno o più rack hardware, configurabili “in tre clic” secondo quattro differenti livelli: una misura small per le funzioni di inferenza AI, un livello intermedio pensato appositamente per la RAG (retrieval-augmented generation), e due misure, large ed extra-large, concepite nello specifico per le funzioni più gravose richieste dalle tecniche di machine learning, come il fine tuning dei modelli.

Indipendentemente dal livello prescelto, che varia in relazione al tipo e al numero di GPU Nvidia integrate, l’hardware di HPE Private Cloud viene controllato dal sistema di gestione di GreenLake, che comprende anche l’intera suite azienda AI di Nvidia e i celebri microservizi di inferenza NIM.

Il cliente può scegliere se gestire i rack o farli gestire da HPE, per funzionare come una soluzione AI di cloud privato “on-premise”, totalmente autonomo, o come un modello ibrido, gestito pubblicamente in cloud.

A seconda di come i clienti desiderano configurarli, i rack possono essere completamente autogestiti o gestiti da HPE. Ogni livello è in grado di funzionare come soluzione di intelligenza artificiale on-premise autonoma o come modello ibrido.

In merito alle possibili alternative sul mercato, HPE si è dichiarata certa che al momento non esista alcuna offerta per il cloud in grado di garantire questo livello di servizio. Lo sostiene in particolare Fidelma Russo, Chief Technology Officer di HPE: “Abbiamo progettato questa offerta per il cloud con una logica a chiavi in manoNon crediamo che ci siano offerte simili sul mercato“.

Alla base dello sviluppo vi è la presa d’atto che le aziende prediligono lo sviluppo di un’infrastruttura AI, se non proprietaria, almeno disponibile presso la propria struttura. Secondo Fidelma Russo, entrano in gioco vari fattori, su tutti la scalabilità delle risorse: “Le aziende di tutto il mondo stanno passando da un approccio basato sul cloud pubblico a uno ibrido. Si sono resi conto che man mano che i loro dati crescono e si distribuiscono non è né scalabile né economico fare affidamento esclusivamente sul cloud pubblico“.

HPE Discover 2024, da HPE una nuova piattaforma di virtualizzazione, “complementare” a VMware

Oltre alle straordinarie novità sul tema dell’intelligenza artificiale, HPE Discover 2024 è stata l’occasione per il lancio di una nuova piattaforma di virtualizzazione che, a dirla con HPE, renderà “le funzionalità di cloud ibrido a prova di futuro”. Molti hanno visto in questa scelta la volontà di fondare un’alternativa rispetto alle soluzioni di hypervisor di VMware, dopo il recente terremoto legato all’acquisizione da parte di Broadcom, che ha causato la ridefinizione degli storici accordi OEM.

La virtualizzazione HPE consiste in un hypervisor di macchine virtuali (KVM) basato su kernel open source con la gestione dei cluster da remoto. HPE infatti gestirà i cluster di virtualizzazione attraverso un piano di controllo basato su cloud, anche se l’azienda ha affermato come il sistema sia progettato per garantire un elevato livello di disponibilità anche se disconnesso dal cloud.

HPE ha tuttavia smentito questa intenzione e nei giorni scorsi è arrivata anche la notizia del rinnovo dell’accordo OEM con Broadcom per la distribuzione delle soluzioni VMware sui propri sistemi. In ogni caso, la virtualizzazione HPE include le stesse caratteristiche di VMware: un hypervisor, storage, protezione dei dati e un’ampia gamma di funzionalità basate sul cloud.

Riteniamo che la nostra offerta sia molto complementare rispetto a VMware“, ha dichiarato Hang Tan, COO di HPE hybrid cloud. “Quello che stiamo cercando di fare è offrire la possibilità di scegliere, attraverso un’esperienza operativa radicalmente semplificata. Quando i clienti guardano alla virtualizzazione non hanno intenzione di spendere un grande investimento per migrare i carichi di lavoro, solo per poter atterrare su un’altra piattaforma di virtualizzazione. Vogliono essere anche anche e soprattutto cloud-native“.

Analizzando il percorso storico, appare evidente come HPE sia stata una forte sostenitrice di VMware, sin dai primi giorni della virtualizzazione dei server.

Fidelma Russo, CTO ed EVP del cloud ibrido di HPE, insiste sul fatto che da questo punto di vista, il solido rapporto tra i due big tech non ammette incrinazioni, rilevando l’influenza strategica a livello commerciale: “VMware ha annunciato la scorsa settimana di aver firmato un accordo per co-progettare un sistema VCF [VMware Cloud Foundation]. Abbiamo molti clienti su VMware che sono ottimi clienti. Siamo pienamente coinvolti e sono molto, molto importanti per noi “.

LEGGI ANCHE: HPE GreenLake: cloud analytics e data protection nel paradigma Cloud Everywhere

HPE Discover 2024: la generative AI di NVIDIA, AI Private Cloud, HPE Greenlake e il fondamentale ruolo dei partner di canale ultima modifica: 2024-06-26T10:35:15+02:00 da Francesco La Trofa

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui