275 rack oggi, 1 solo domani: il piano di AMD per l'intelligenza artificiale

AMD ha superato l'obiettivo 30x25, migliorando di 38 volte l'efficienza energetica dei nodi AI e HPC rispetto al 2020. L'azienda alza la posta: aumentare di 20 volte l'efficienza energetica a livello di rack entro il 2030, puntando a una drastica riduzione dei consumi nei datacenter AI.
di Manolo De Agostini pubblicata il 16 Giugno 2025, alle 08:01 nel canale Server e WorkstationInstinctEPYCAMD
Nel corso dell'evento Advancing AI, AMD ha annunciato il superamento dell'ambizioso obiettivo 30x25. Come intuibile dal nome, con 30x25 la società guidata da Lisa Su si era prefissa di aumentare di 30 volte l'efficienza energetica dei nodi di calcolo per intelligenza artificiale e high-performance computing (HPC) entro il 2025 rispetto al 2020. La casa di Santa Clara ha invece raggiunto un miglioramento pari a 38 volte rispetto al livello base del 2020, grazie a un lavoro ingegneristico che ha interessato sia le architetture CPU che GPU.
Questo risultato si traduce in una riduzione del 97% dell'energia necessaria per ottenere le stesse prestazioni, se confrontate con sistemi di cinque anni fa. Il test è stato effettuato su una configurazione che include quattro GPU AMD Instinct MI355X e una CPU AMD EPYC di quinta generazione.
Clicca per ingrandire
Nonostante l'ottimo risultato, AMD ha deciso di non cullarsi sugli allori, rilanciando con un nuovo obiettivo: un incremento di 20 volte dell'efficienza energetica a livello di rack entro il 2030, prendendo come anno di riferimento il 2024. Questa nuova sfida riflette una consapevolezza crescente: mentre i miglioramenti a livello di nodo diventano meno incisivi su scala, le ottimizzazioni di sistema - che includono CPU, GPU, memoria, rete, storage e co-design hardware-software - diventano essenziali per una crescita sostenibile dell'AI.
Secondo AMD, l'impatto pratico di questo nuovo traguardo potrebbe essere significativo: un modello AI che oggi richiede oltre 275 rack per l'addestramento, nel 2030 potrà essere gestito in meno di un rack, con una riduzione del 95% dell'elettricità operativa e delle emissioni di CO₂ da circa 3.000 a 100 tonnellate. Le stime si basano su proiezioni interne validate dal noto esperto in efficienza energetica, il Dr. Jonathan Koomey, che ha elogiato AMD per l'utilizzo di metriche trasparenti e concrete.
Oltre all'hardware, AMD riconosce che l'evoluzione dei software e degli algoritmi giocherà un ruolo chiave: il miglioramento complessivo dell'efficienza energetica nella formazione dei modelli AI potrebbe arrivare a 100 volte entro il 2030, includendo approcci più intelligenti e l'uso di calcoli a precisione ridotta. Anche se AMD non rivendica direttamente questo risultato complessivo, l'azienda si propone come base tecnologica per abilitare tali traguardi, grazie a un ecosistema aperto e a strumenti come la piattaforma software ROCm.
L'attenzione, quindi, si sposta ora verso un'efficienza sistemica che guarda al futuro dei datacenter in un mondo in cui l'intelligenza artificiale richiede sempre più risorse, ma dove la sostenibilità energetica non può essere trascurata.
2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoTutta fuffa,non essendo verdi ma rossi,tutto questo è una cavolata,una fake news!
Comunque hanno fatto un bel lavoro.....
Tutta fuffa,non essendo verdi ma rossi,tutto questo è una cavolata,una fake news!
Comunque hanno fatto un bel lavoro.....
Sarcasmo 2:
in fondo hai ragione. Se non è verde è sicuramente fake news.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".