Skip to content

gemma google

Google con Gemma sfiderà Llama di Meta (e pure ChatGpt)

Google si lancia anche nell'intelligenza artificiale open source con due modelli gratuiti e disponibili per ricercatori e sviluppatori. Ma quali sono i pro e i contro di modelli aperti e chiusi? Tutti i dettagli

 

Uno tra i più noti a offrire un modello di intelligenza artificiale generativa (IAg) open source, ovvero che può essere utilizzato gratuitamente da sviluppatori e ricercatori, è stato Mark Zuckerberg con il suo Llama lanciato un anno fa. Adesso scende in campo pure Google lanciando Gemma 2B e Gemma 7B, due modelli aperti, che entrano in competizione anche con ChatGpt di OpenAI che, a differenza loro, è chiuso, cioè può essere modificato solo dall’azienda che lo possiede.

I MODELLI IA OPEN SOURCE DI GOOGLE

A distanza di una decina di giorni dall’annuncio di mettere sotto il nome di Gemini tutti i suoi prodotti di IA, Google ha presentato due nuovi modelli open source di intelligenza artificiale generativa, Gemma 2B e Gemma 7B, che mette a disposizione di qualsiasi sviluppatore, che può modificarli e ottimizzarli in base alle necessità.

Entrambi i modelli sono disponibili con licenza commerciale indipendentemente dalle dimensioni dell’azienda, del numero di utenti e del tipo di progetto. Inoltre, Google ha promesso il rilascio di nuove varianti nelle prossime settimane.

“Realizzata con gli stessi componenti tecnici, infrastrutturali e di ricerca utilizzati per creare i modelli Gemini di Google, Gemma offre prestazioni al top della categoria rispetto a modelli aperti di dimensioni analoghe”, sottolinea la società. Nonostante le ridotte dimensioni, infatti, secondo Punto Informatico, “offrono prestazioni paragonabili o superiori a quelle dei modelli più grandi”.

Il lancio segue inoltre la presentazione della scorsa settimana di Gemini 1.5 Pro, disponibile per le aziende tramite la piattaforma Vertex AI, dove il numero totale di modelli di prima e terza parte disponibili nel Vertex AI Model Garden arriva a oltre 130, “uno dei più grandi del settore”.

GEMMA VS GLI ALTRI MODELLI OPEN SOURCE (SECONDO GOOGLE)

“In base ai benchmark pubblicati dall’azienda di Mountain View – scrive Punto Informatico -, il modello Gemma 7B offre prestazioni simili o superiori ai modelli Llama 2 […] di Meta e Mistral […] di Mistral AI in quattro attività: risposta alle domande, ragionamento, calcolo matematico e scrittura di codice”.

Google, inoltre, ha aggiunto dei filtri per evitare l’uso dei modelli per attività pericolose, come per esempio lo sviluppo di armi.

APERTI O CHIUSI? QUESTO È IL DILEMMA DEI MODELLI IA

Sia Google che Meta – ma anche la francese Mistral AI – si avvicinano al mondo ‘open’ in modo da intaccare OpenAI e il suo modello chiuso. I modelli open source permettono a chi li usa di creare dei software, o chatbot, basati sull’intelligenza artificiale e in grado di simulare una conversazione umana rispondendo ai quesiti degli utenti. “In questo modo Google – e in precedenza Meta – spera di convincere gli sviluppatori a usare e testare le proprie tecnologie e ad appoggiarsi ai suoi servizi di cloud, cioè di gestione dei dati online”, scrive Il Post.

Nonostante nella disputa tra open e closed source il cuore del dibattito sia la democratizzazione della tecnologia, la sicurezza e il profitto hanno la precedenza. Se da un lato un software aperto incoraggia la creatività, l’innovazione e la democratizzazione, dall’altro, secondo i sostenitori dei modelli chiusi, minaccia la nostra sicurezza.

La stessa OpenAI, ricorda Euronews, è stata originariamente fondata per produrre sistemi di intelligenza artificiale open-source, ma nel 2019 l’azienda ha dichiarato che era troppo pericoloso continuare a rilasciare al pubblico il suo modello linguistico Gpt, in quanto troppo simile al parlato umano e, se messo nelle mani sbagliate, avrebbe potuto generare fake news di alta qualità o dare indicazioni pericolose. È quanto accaduto con una versione modificata di Llama a cui era stato chiesto come si fabbrica una bomba nucleare.

La tesi infatti è che i modelli closed source sono più sicuri perché hanno delle politiche di utilizzo che proteggono da un uso pericoloso delle IA. Sebbene anche in questi casi è possibile effettuare il jailbreak delle politiche, ossia violarle per aggirare le protezioni, spesso tali vulnerabilità vengono risolte rapidamente.

Torna su