Apple Silicon progettati dall'intelligenza artificiale: a Cupertino ci stanno pensando

Apple Silicon progettati dall'intelligenza artificiale: a Cupertino ci stanno pensando

Apple sta esplorando l'uso dell'IA generativa per accelerare la progettazione dei propri chip Apple Silicon. Johny Srouji, responsabile hardware, ha sottolineato l'importanza di strumenti sempre più evoluti, ma anche l'importanza di prendere decisioni nette, come l'addio a Intel.

di pubblicata il , alle 16:01 nel canale Apple
Apple
 

Apple sta esplorando l'uso dell'Intelligenza Artificiale generativa per accelerare la progettazione dei chip custom alla base dei propri dispositivi. A rivelarlo è stato Johny Srouji, vicepresidente senior delle tecnologie hardware dell'azienda, in un intervento pubblico tenuto lo scorso mese in Belgio, durante una cerimonia organizzata da Imec, centro di ricerca indipendente nel campo dei semiconduttori.

Nel suo discorso, di cui Reuters ha visionato una registrazione, Srouji ha ripercorso l'evoluzione dell'approccio di Apple allo sviluppo di chip proprietari, dall'introduzione dell'A4 nell'iPhone del 2010 fino ai più recenti chip "M-Series" impiegati nei Mac e nel visore Vision Pro.

Uno dei punti centrali dell'intervento è stato il potenziale dell'IA generativa nel contesto della progettazione elettronica. Secondo Srouji, questa tecnologia potrebbe offrire un significativo incremento della produttività, riducendo i tempi necessari per completare le fasi progettuali più complesse. "Le tecniche di IA generativa hanno un grande potenziale per ottenere più risultati in meno tempo, ed essere un enorme impulso alla produttività", ha affermato.

Apple si affida a strumenti avanzati di progettazione forniti dalle principali aziende del settore EDA (Electronic Design Automation), come Cadence e Synopsys, entrambe attivamente impegnate nell'integrazione dell'intelligenza artificiale nei propri software. Questi strumenti risultano essenziali per affrontare la crescente complessità dei progetti hardware di Apple.

Srouji ha inoltre sottolineato l'importanza di adottare decisioni strategiche ambiziose, senza piani alternativi. A tal proposito ha citato la transizione del 2020, che ha visto Apple sostituire i processori Intel con i propri chip su tutta la linea Mac, una mossa che ha richiesto un notevole sforzo anche sul fronte software. "Non avevamo un piano B, nessuna linea di prodotti parallela. Abbiamo puntato tutto su Apple Silicon", ha spiegato.

Il passaggio si è poi rivelato un successo, con miglioramenti significativi in termini di prestazioni per watt, efficienza termica, durata della batteria e compatibilità software. Quanto all'uso dell'IA nella progettazione dei chip, è una tendenza che pervade l'intera industria: da NVIDIA ad AMD, per passare a Intel e Google, tutti stanno valutando se non già applicazioni varie soluzioni per migliorare i progetti e accorciare i tempi di sviluppo.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto19 Giugno 2025, 19:11 #1
Nvidia lo sta già facendo e forse hanno cominciato a farlo anche AMD e Intel,non vorrei che un Keller o un Gerard Williams diventino obsoleti....
pachainti20 Giugno 2025, 06:32 #2
Originariamente inviato da: supertigrotto
Nvidia lo sta già facendo e forse hanno cominciato a farlo anche AMD e Intel,non vorrei che un Keller o un Gerard Williams diventino obsoleti....




Chissà quanti bug ci metteranno, visto come funzionano...

Hallucination is Inevitable: An Innate Limitation of Large Language Models

[I]Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in LLMs. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable LLM and a computable ground truth function. By employing results from learning theory, we show that LLMs cannot learn all the computable functions and will therefore inevitably hallucinate if used as general problem solvers. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world LLMs. Furthermore, for real world LLMs constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of LLMs.[/I]

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^