Il complesso di supercomputer in Iowa esegue un programma creato da OpenAI, un’organizzazione fondata alla fine del 2015 da una manciata di luminari della Silicon Valley, tra cui Elon Musk; Greg Brockman, che fino a poco tempo fa era stato chief technology officer del colosso dei pagamenti elettronici Stripe; e Sam Altman, all’epoca presidente dell’incubatore di start-up Y Combinator.
Nei suoi primi anni, quando ha creato fiducia nella programmazione, i risultati tecnici di OpenAI sono stati per lo più oscurati dal potere stellare dei suoi fondatori.
Ma le cose sono cambiate nell’estate 2020, quando OpenAI ha iniziato a offrire un accesso limitato a un nuovo programma chiamato Generative Pre-Trained Transformer 3, colloquialmente denominato GPT-3. Sebbene la piattaforma fosse inizialmente disponibile solo per una piccola manciata di sviluppatori, esempi della straordinaria abilità di GPT-3 con il linguaggio – e almeno l’illusione della cognizione – hanno iniziato a circolare sul web e attraverso i social media.
Siri e Alexa avevano reso popolare l’esperienza di conversare con le macchine, ma con GPT-3 siamo al livello successivo, avvicinandoci a una fluidità che somiglia a creazioni di fantascienza come HAL 9000 di “2001 odissea nello spazio”: un programma per computer in grado di rispondere a domande complesse e aperte in modo perfetto con frasi composte.Come campo, A.I. è attualmente frammentato tra una serie di approcci diversi, mirati a diversi tipi di problemi.
Alcuni sistemi sono ottimizzati per problemi che coinvolgono lo spostamento nello spazio fisico, come nelle auto a guida autonoma o nella robotica; altri classificano le foto per te, identificando volti familiari o animali domestici o attività in vacanza. Alcune forme di A.I. — come AlphaFold, un progetto della controllata di Alphabet (ex Google) DeepMind — stanno iniziando ad affrontare problemi scientifici complessi, come la previsione della struttura delle proteine, che è fondamentale per la progettazione e la scoperta di farmaci. Molti di questi esperimenti condividono un approccio di base noto come “deep learning”, in cui una rete neurale modellata vagamente sulla struttura del cervello umano impara a identificare schemi o risolvere problemi attraverso cicli ripetuti all’infinito di tentativi ed errori, rafforzando le connessioni neurali e indebolire le altre attraverso un processo noto come addestramento.
La “profondità” del deep learning si riferisce a più strati di neuroni artificiali nella rete neurale, strati che corrispondono a livelli di astrazione sempre più elevati: in un modello basato sulla visione, ad esempio, uno strato di neuroni potrebbe rilevare linee verticali , che alimenterebbe quindi uno strato che rileva i bordi delle strutture fisiche, che quindi riporterebbe a uno strato che identifica le case rispetto ai condomini.GPT-3 appartiene a una categoria di deep learning nota come modello linguistico di grandi dimensioni, una complessa rete neurale che è stata addestrata su un titanico set di dati di testo: nel caso di GPT-3, circa 700 gigabyte di dati estratti dal web, inclusa Wikipedia, integrata con un’ampia raccolta di testi da libri digitalizzati (Fonte: New York Times)
GPT-3 è il più celebre dei grandi modelli linguistici e il più accessibile pubblicamente, ma Google, Meta e DeepMind hanno tutti sviluppato i propri LLM negli ultimi anni. I progressi nella potenza di calcolo – e le nuove tecniche matematiche – hanno consentito ai LLM vintage di GPT-3 di ingerire set di dati molto più grandi rispetto ai loro predecessori e di impiegare strati molto più profondi di neuroni artificiali per il loro allenamento.
Non da ultimo, come confermato dall’amico e dev Mauro Pili, GPT-3 puo’ serenamente tradurre in pochi istanti un linguaggio informatico (ad es. da Java a Python) riducendo notevolmente i costi di sviluppo informatico.In breve avremmo programmatori, avvocati, commercialisti, medici del tutto artificiali.Forse anche legislatori e predicatori artificiali.Ma quanto possiamo fidarci di pensieri senza empatia come dice il bravissimo Federico Faggin?