Cos’è Phi-2? Si tratta di una nuova intelligenza artificiale lanciata da Microsoft. Piccola ma molto più potente se paragonata alla concorrenza proposta da Meta.

Phi-2 è infatti un algoritmo con una capacità all’incirca 25 volte superiore a Llama 2 sviluppato dall’azienda di Mark Zuckerberg.

La differenza si manifesta pertanto in una maggior velocità di programmazione e di calcolo matematico. Phi-2 è così nettamente più capacitivo di altri modelli già in commercio.

La straordinaria potenza informatica è solo uno dei vantaggi della nuova intelligenza artificiale. Microsoft infatti promette che Phi-2, nonostante la sua enorme potenza, sfrutta nuovi parametri che le consentono di avere un minore impatto ambientale.

Cos’è Phi-2: come funziona

Il nuovo algoritmo Phi-2 rientra nella categoria “piccolo modello linguistico” anche nota con l’acronimo inglese SLM. Si tratta di una nuova tecnica di sviluppo informatico che consente di ridurre enormemente lo spazio digitale necessario per il suo funzionamento.

Le SLM si differenziano dalle più grandi LLM per un minor livello di potenza ma anche per una migliore capacità di utilizzo energetico.

Sono infatti modelli definiti da reti neurali leggere e ciò implica un minor numero di parametri informatici.

L’algoritmo necessita poi di dati di addestramento semplificato con un enorme vantaggio in fase di sviluppo. Con queste dimensioni compatte, le SLM sono molto adatte per ogni tipo di dispositivo.

Pur rientrando in questa famiglia, Phi-2 ha una potenza di calcolo superiore ai modelli già in commercio. Possiede, è vero, un minor numero di parametri rispetto alle LLM, ma confrontandola con dispositivi simili non ha paragoni. L’intelligenza artificiale di Microsoft ha infatti 2,7 miliardi di parametri mentre la controparte di Meta opera con 70mila valori.

La maggiore potenza di calcolo non si traduce però in maggiori consumi energetici. Phi-2 infatti è all’avanguardia anche nel settore di impatto ambientale.

Microsoft è convinta che Phi-2 possa essere un nuovo punto di riferimento per questa tecnologia e che possa diventare un modello per le altre aziende.

Una nuova tecnica di addestramento

Le notevoli prestazioni di Phi-2 sono la naturale conseguenza di un addestramento più strategico. Gli ingegneri informatici hanno infatti previsto un insieme di dati sintetici di programmazione neurolinguistica, di elementi educativi acquisiti dal web e di particolari stringhe di codice estratti da Stack Overflow.

L’allenamento si è completato con la selezione di alcuni libri di testo e il test per due settimane su 96 schede grafiche Nvidia A100.

Proprio la combinazione di informazioni scelte da Microsoft è il punto di forza di questa attività di addestramento.

Gli sviluppatori hanno poi sacrificato l’affinamento in funzione dei feedback umani, ma ciò non ha impedito a Phi-2 di raggiungere un livello di risposta e di problem solving superiore a Llama 2

L’utilizzo di questo tipo di intelligenza artificiale è indirizzato alla ricerca, all’analisi di interpretabilità meccanicistica, al miglioramento della sicurezza e alla sperimentazione di tuning su un vasto ventaglio di applicazioni.

Phi-2 è infatti disponibile in tipologia open source esclusivamente per i progetti di ricerca no profit dalla suite Azure AI Studio.

Sviluppata secondo principi di ecosostenibilità

Phi-2 è il terzo prodotto facente parte della classe “Phi” rilasciata da Microsoft. L’ampia iniziativa mira a riprodurre le prestazioni di algoritmi di intelligenza artificiale di grandi dimensioni su dispositivi più piccoli e compatti.

Il progetto punta poi a ottenere la massima efficienza energetica sia nella fase di inferenza sia in quella di addestramento. Phi-2 è stato creato con l’obiettivo di fornire gli stessi risultati di modelli più sofisticati seguendo principi di ecosostenibilità.

Sviluppare un algoritmo di intelligenza artificiale infatti necessita di un elevata mole di energia con un conseguente impatto economico e ambientale.

Le più recenti stime fornite dall’Organizzazione per la cooperazione e lo sviluppo economico indicano come le aziende destinino circa il 10% dell’intera spesa per infrastrutture informatiche, equamente distribuito tra fase di addestramento automatico e messa in pratica delle informazioni.

Una ricerca condotta dall’Università del Massachusetts Amherst ha poi mostrato che un modello di intelligenza artificiale produca emissioni pari a quelle generate da cinque automobili in tutto il loro periodo di utilizzo.