Silicon Volley I designer si affidano all’IA generativa per un assistente a microchip

Silicon Valley I designer puntano all'IA generativa per un assistente a microchip

Un articolo di ricerca pubblicato oggi descrive i modi in cui l’IA generativa può aiutare uno dei più complessi sforzi di ingegneria: la progettazione di semiconduttori.

Il lavoro dimostra come le aziende in settori altamente specializzati possano addestrare modelli di linguaggio estesi (LLM) sui loro dati interni per creare assistenti che aumentano la produttività.

Pochi obiettivi sono così impegnativi come la progettazione di semiconduttori. Sotto un microscopio, un chip all’avanguardia come il NVIDIA H100 Tensor Core GPU (sopra) sembra una metropoli ben pianificata, costruita con decine di miliardi di transistor, collegati attraverso strade 10.000 volte più sottili di un capello umano.

Diverse squadre di ingegneria collaborano per un periodo di due anni per costruire una di queste megacittà digitali.

Alcuni gruppi definiscono l’architettura complessiva del chip, altri creano e posizionano una varietà di circuiti ultrapieni, mentre altri testano il loro lavoro. Ogni mansione richiede metodi specializzati, programmi software e linguaggi informatici specifici.

Una visione ampia per gli LLM

“Credo che nel tempo i modelli di linguaggio estesi aiuteranno tutti i processi, a livello generale”, ha detto Mark Ren, direttore di ricerca presso NVIDIA e primo autore dell’articolo.

Bill Dally, scienziato capo di NVIDIA, ha presentato l’articolo in una conferenza all’International Conference on Computer-Aided Design, un’importante riunione annuale di centinaia di ingegneri che lavorano nel campo della progettazione elettronica, o EDA per l’appunto.

“Questo sforzo rappresenta un importante primo passo nell’applicazione degli LLM al complesso campo della progettazione di semiconduttori”, ha detto Dally all’evento a San Francisco. “Mostra come anche campi altamente specializzati possano utilizzare i loro dati interni per addestrare modelli utili di IA generativa.”

ChipNeMo emerge

L’articolo descrive come gli ingegneri di NVIDIA abbiano creato per uso interno un LLM personalizzato, chiamato ChipNeMo, addestrato sui dati interni dell’azienda per generare e ottimizzare software e assistere i progettisti umani.

A lungo termine, gli ingegneri sperano di applicare l’IA generativa ad ogni fase della progettazione dei chip, ottenendo potenziali guadagni significativi in termini di produttività complessiva, ha detto Ren, la cui carriera nell’EDA si estende per oltre 20 anni.

Dopo aver sondato gli ingegneri di NVIDIA per possibili casi di utilizzo, il team di ricerca ne ha scelti tre per cominciare: un assistente virtuale, un generatore di codice e uno strumento di analisi.

Primi casi d’uso

Quest’ultimo – uno strumento che automatizza le laboriose attività di aggiornamento delle descrizioni di bug noti – è stato quello più apprezzato finora.

Un assistente virtuale prototipo che risponde alle domande sull’architettura del GPU e sulla progettazione ha aiutato molti ingegneri a trovare rapidamente documenti tecnici in test iniziali.

Animazione di un generatore di codice basato su IA generativa utilizzando un LLM
Un generatore di codice aiuterà i progettisti a scrivere software per progettazione di un chip.

Un generatore di codice in fase di sviluppo (mostrato sopra) crea già frammenti di circa 10-20 righe di software in due linguaggi specializzati utilizzati dai progettisti di chip. Sarà integrato con gli strumenti esistenti, in modo tale che gli ingegneri abbiano un assistente pratico per le progettazioni in corso.

Personalizzare i modelli di IA con NVIDIA NeMo

L’articolo si concentra principalmente sul lavoro svolto dal team per raccogliere i dati di progettazione e utilizzarli per creare un modello di IA generativa personalizzato, un processo portatile per qualsiasi settore.

Come punto di partenza, il team ha scelto un modello di base e lo ha personalizzato con NVIDIA NeMo, un framework per la creazione, personalizzazione e implementazione di modelli di IA generativa incluso nell’ambiente software NVIDIA AI Enterprise. Il modello NeMo scelto dispone di 43 miliardi di parametri, una misura della sua capacità di comprendere i modelli. È stato addestrato utilizzando più di un trilione di token, le parole e i simboli nei testi e nei software.

Diagramma del flusso di lavoro di ChipNeMo per l'addestramento di un modello personalizzato
ChipNeMo fornisce un esempio di come un team tecnico approfondito abbia perfezionato un modello preaddestrato con i propri dati.

Il team ha quindi perfezionato il modello in due fasi di addestramento, la prima utilizzando circa 24 miliardi di token del proprio data design interno e la seconda su una miscela di circa 130.000 conversazioni ed esempi di design.

Lavori come questi sono solo alcuni esempi di ricerca e prove di concetto di AI generativa nell’industria dei semiconduttori, appena iniziati ad emergere dal laboratorio.

Condivisione delle lezioni apprese

Una delle lezioni più importanti apprese dal team di Ren è il valore della personalizzazione di un LLM.

Nelle attività di progettazione di chip, i modelli personalizzati ChipNeMo con solo 13 miliardi di parametri possono raggiungere o superare le prestazioni anche di LLM general-purpose molto più grandi come LLaMA2 con 70 miliardi di parametri. In alcuni casi d’uso, i modelli ChipNeMo erano nettamente migliori.

Per strada, gli utenti devono fare attenzione ai dati che raccolgono e a come li puliscono per l’uso nell’addestramento, ha aggiunto.

Infine, Ren consiglia agli utenti di rimanere aggiornati sugli ultimi strumenti che possono velocizzare e semplificare il lavoro.

NVIDIA Research ha centinaia di scienziati e ingegneri in tutto il mondo focalizzati su temi come l’AI, la grafica computerizzata, la visione artificiale, le auto a guida autonoma e la robotica. Altri progetti recenti nel settore dei semiconduttori includono l’utilizzo dell’AI per progettare circuiti più piccoli e veloci e per ottimizzare il posizionamento di grandi blocchi.

Le aziende che desiderano creare i propri LLM personalizzati possono iniziare oggi utilizzando il framework NeMo disponibile su GitHub e il catalogo NVIDIA NGC.