Scroll Top

GPT-3 e seguenti: il futuro della ai?

Il complesso di supercomputer in Iowa esegue un programma creato da OpenAI, un’organizzazione fondata alla fine del 2015 da una manciata di luminari della Silicon Valley, tra cui Elon Musk; Greg Brockman, che fino a poco tempo fa era stato chief technology officer del colosso dei pagamenti elettronici Stripe; e Sam Altman, all’epoca presidente dell’incubatore di start-up Y Combinator.

Nei suoi primi anni, quando ha creato fiducia nella programmazione, i risultati tecnici di OpenAI sono stati per lo più oscurati dal potere stellare dei suoi fondatori.

Ma le cose sono cambiate nell’estate 2020, quando OpenAI ha iniziato a offrire un accesso limitato a un nuovo programma chiamato Generative Pre-Trained Transformer 3, colloquialmente denominato GPT-3. Sebbene la piattaforma fosse inizialmente disponibile solo per una piccola manciata di sviluppatori, esempi della straordinaria abilità di GPT-3 con il linguaggio – e almeno l’illusione della cognizione – hanno iniziato a circolare sul web e attraverso i social media.

Siri e Alexa avevano reso popolare l’esperienza di conversare con le macchine, ma con GPT-3 siamo al livello successivo, avvicinandoci a una fluidità che somiglia a creazioni di fantascienza come HAL 9000 di “2001 odissea nello spazio”: un programma per computer in grado di rispondere a domande complesse e aperte in modo perfetto con frasi composte.Come campo, A.I. è attualmente frammentato tra una serie di approcci diversi, mirati a diversi tipi di problemi.

Alcuni sistemi sono ottimizzati per problemi che coinvolgono lo spostamento nello spazio fisico, come nelle auto a guida autonoma o nella robotica; altri classificano le foto per te, identificando volti familiari o animali domestici o attività in vacanza. Alcune forme di A.I. — come AlphaFold, un progetto della controllata di Alphabet (ex Google) DeepMind — stanno iniziando ad affrontare problemi scientifici complessi, come la previsione della struttura delle proteine, che è fondamentale per la progettazione e la scoperta di farmaci. Molti di questi esperimenti condividono un approccio di base noto come “deep learning”, in cui una rete neurale modellata vagamente sulla struttura del cervello umano impara a identificare schemi o risolvere problemi attraverso cicli ripetuti all’infinito di tentativi ed errori, rafforzando le connessioni neurali e indebolire le altre attraverso un processo noto come addestramento.

La “profondità” del deep learning si riferisce a più strati di neuroni artificiali nella rete neurale, strati che corrispondono a livelli di astrazione sempre più elevati: in un modello basato sulla visione, ad esempio, uno strato di neuroni potrebbe rilevare linee verticali , che alimenterebbe quindi uno strato che rileva i bordi delle strutture fisiche, che quindi riporterebbe a uno strato che identifica le case rispetto ai condomini.GPT-3 appartiene a una categoria di deep learning nota come modello linguistico di grandi dimensioni, una complessa rete neurale che è stata addestrata su un titanico set di dati di testo: nel caso di GPT-3, circa 700 gigabyte di dati estratti dal web, inclusa Wikipedia, integrata con un’ampia raccolta di testi da libri digitalizzati (Fonte: New York Times)

GPT-3 è il più celebre dei grandi modelli linguistici e il più accessibile pubblicamente, ma Google, Meta e DeepMind hanno tutti sviluppato i propri LLM negli ultimi anni. I progressi nella potenza di calcolo – e le nuove tecniche matematiche – hanno consentito ai LLM vintage di GPT-3 di ingerire set di dati molto più grandi rispetto ai loro predecessori e di impiegare strati molto più profondi di neuroni artificiali per il loro allenamento.

Non da ultimo, come confermato dall’amico e dev Mauro Pili, GPT-3 puo’ serenamente tradurre in pochi istanti un linguaggio informatico (ad es. da Java a Python) riducendo notevolmente i costi di sviluppo informatico.In breve avremmo programmatori, avvocati, commercialisti, medici del tutto artificiali.Forse anche legislatori e predicatori artificiali.Ma quanto possiamo fidarci di pensieri senza empatia come dice il bravissimo Federico Faggin?

Lascia un commento