Intelligenza artificiale: il futuro del settore tra Pathways e questioni etiche
Il team di Google Research è al lavoro su una nuova architettura AI che sarà alla base dei sistemi di prossima generazione: Pathways.
Il team di Google Research è al lavoro su una nuova architettura AI che sarà alla base dei sistemi di prossima generazione: Pathways.
Pathways, cos’è e come funziona?
Pathways può essere descritto come un’Intelligenza Artificiale di nuova generazione che consentirà di addestrare un singolo modello per fare migliaia o milioni di operazioni.
In questo modo si potrà andare oltre i limiti attuali, consentendo alle AI di rispondere ai diversi quesiti in più sensi.
L’idea è quella di addestrare un nuovo tipo di “modello multimodale” in grado di gestire diverse attività separate e di attingere e combinare le sue competenze esistenti per apprendere in modo più rapido ed efficace.
Le parole d’ordine sono: dinamicità e autonomia, ossia il fatto che Pathways sia in grado di apprendere tutto ciò di cui ha bisogno studiando i modelli pre-esistenti ritenuti più funzionali. Dopodiché il sistema utilizzerà queste nuove competenze in maniera autonoma e migliore in termini di risorse ed efficienza.
Pathways punta a migliorare la capacità decisionale dell’apprendimento automatico diventando, di fatto, la prima intelligenza artificiale in grado di ragionare per risolvere un determinato problema.
Facciamo però ora un passo indietro, e analizziamo il funzionamento delle attuali forme di intelligenza artificiale.
Cosa sai sull’Intelligenza Artificiale?
L’intelligenza Artificiale è un qualcosa che fa già parte delle nostre vite e viene utilizzata comunemente su larga scala, dagli smartphone fino ad arrivare alle automobili a guida autonoma.
Stiamo parlando di un sistema di algoritmi intelligenti in grado di interfacciarsi con ciò che li circonda e auto-apprendere strategie e soluzioni per risolvere problemi in totale autonomia.
Gli attuali sistemi di AI sono in grado di venire a capo di operazioni piuttosto semplici, come rispondere alle domande in un sistema di ChatBot, ad esempio, o smistare documenti secondo criteri precisi.
Al momento sono tre le principali caratteristiche che identificano queste intelligenze sintetiche:
- I modelli vengono “addestrati” per rispondere a un solo interrogativo per volta. A una domanda, insomma, corrisponde una sola risposta e una sola azione.
- Le AI hanno bisogno di un addestramento specifico per ogni nuova incognita. Quindi ogni intelligenza sintetica deve necessariamente “imparare” tutto da capo ogni volta che cerca di apprendere come svolgere una nuova attività.
- Sistemi del genere, naturalmente, hanno bisogno di un tempo maggiore per l’apprendimento e di una quantità gigantesca di dati per ogni singola funzione.
Oggi esistono migliaia e migliaia di modelli pensati per assolvere solamente una funzione specifica: al momento questo è quanto l’intelligenza artificiale offre all’uomo. Chiaramente non è sufficiente e l’obiettivo primario è arrivare ad addestrare singoli modelli a svolgere milioni di azioni anche totalmente diverse tra loro.
Lo scopo dei ricercatori, quindi, è quello di estendere ulteriormente le capacità delle attuali forme di AI in modo da poter apprendere nuovi compiti, senza dover necessariamente partire da zero.
Pathways, un “simulatore” di percorso di intelligenza umana
L’idea alla base di Pathways è “simulare” i comportamenti umani nell’assimilazione di nuove capacità; cosa che permetterà di imparare senza dover necessariamente ripartire da zero ogni volta o dimenticare quanto già conosciuto.
Lo scopo è quello di creare un sistema cognitivo intelligente e in grado di imparare/lavorare in totale autonomia; scegliere automaticamente cosa fare e attingere al proprio bagaglio di conoscenze per rendere queste operazioni il più naturali possibile. Tutto questo per garantire all’uomo e ai processi su cui necessita “assistenza” uno svolgimento rapido ed efficiente.
Pensiamo all’uomo e all’intelligenza umana. Possiamo parlare di un pensiero che si muove in più direzioni.
L’esempio concreto è quello che riguarda i cinque sensi e il modo in cui vengono utilizzati per avere una percezione più chiara del mondo. Vediamo, sentiamo, tocchiamo, annusiamo e, delle volte, assaggiamo ciò che ci circonda; questo per avere una visione più definita delle cose.
L’intelligenza artificiale, al momento, non può affidarsi a tutti questi sensi, deve quindi scegliere un modo solo di veicolare e comprendere le informazioni che riceve.
Può analizzare un testo ad esempio; può studiare il parlato o i suoni; può esaminare un’immagine. Può fare tutte queste cose separatamente e non contemporaneamente, un limite non da poco nella reale comprensione del sistema.
Questo è un esempio disegnato sul modello dell’uomo. Le possibilità di un’intelligenza artificiale potrebbero essere molto più vaste, seguendo percorsi logici e deduttivi più complessi volti ad elaborare modelli più intuitivi e molto meno propensi a commettere errori di qualsiasi natura.
Intelligenza artificiale e uomo: l’utilizzo differente della materia grigia
Un altro dettaglio da tenere in considerazione è il funzionamento del cervello in termini “energetici”. Per svolgere le operazioni più semplici utilizziamo una certa percentuale della nostra materia grigia: per risolvere una semplice addizione a due cifre, ad esempio, non impieghiamo lo stesso potenziale che mettiamo nel risolvere un’equazione di quarto grado.
Per le attuali intelligenze artificiali non funziona così, ed esse sono “costrette” ad attivare l’intera rete neurale a prescindere dalla difficoltà dell’operazione da svolgere. Questo, è evidente, comporta un notevole spreco di risorse che si traduce in un sistema poco efficiente.
Ciò a cui Pathways e i ricercatori di Google vogliono arrivare è proprio questo: un sistema funzionale che sia in grado di autoregolarsi e apprendere una grande varietà di attività in maniera rapida e senza il bisogno di focalizzarsi sulle singole attività individuali.
Perché Pathways? Per svolgere milioni di compiti diversi
Alla base di tutto, il bisogno di costruire un modello di intelligenza artificiale che possa svolgere più operazioni diverse tra loro; comprendere dati di qualsiasi natura in maniera rapida e, se servisse, adattarsi di sua spontanea volontà alle varie situazioni.
L’adattamento è forse la caratteristica più difficile che contraddistingue il cervello umano. Ogni giorno ci troviamo davanti a situazioni e variabili potenzialmente infinite; a volte si tratta di banalità, altre volte di sfide globali. Ciò che conta, però, è il modo in cui ci adattiamo ad esse e il modo con cui ci approcciamo a trovare una risposta a queste domande.
La sfida dei ricercatori è proprio questa: immaginare e realizzare un sistema di AI di prossima generazione che sia non solo più efficiente, ma anche autonomo e adattivo. Questo potrebbe portare in tempi ragionevolmente brevi alla soluzione di quelle incognite di cui sopra e, perché no, a situazioni che ancora non abbiamo previsto, ma che potrebbero presentarsi da qui a poco. Tipo prevedere i modelli di sviluppo dei virus nel passaggio dagli animali all’uomo, fino a diventare una pandemia globale.
Intelligenza artificiali dubbi e problemi etici
Sono evidenti le grandi possibilità che si aprirebbero con un maggiore sviluppo dei modelli di intelligenza artificiale. Tuttavia è opportuno parlare anche del rovescio della medaglia e cioè di tutti quei dubbi che riguardano l’etica e i pregiudizi che, pur essendo discorsi tipicamente umani, potrebbero riguardare anche i cervelli sintetici.
Abbiamo detto che l’intelligenza artificiale per sviluppare una propria cognizione di causa ha bisogno di una grande quantità di dati; questi vengono letti, elaborati e immagazzinati per essere utilizzati nelle situazioni future.
Ma cosa succederebbe se questi dati, pur non volendo, discriminassero persone per etnia, per sesso, per religione?
Immaginiamo l’uso di un sistema AI all’interno di una banca, nel settore dei mutui e dei prestiti.
Cosa succederebbe, ad esempio, se i dati indicassero le persone di una certa etnia come “cattivi pagatori”? Questo porterebbe il software ad analizzare il caso specifico o si limiterebbe a generalizzare in base alle statistiche e quindi a negare il mutuo?
A questo punto il dubbio che un sistema del genere possa sviluppare un pregiudizio è più che legittimo, ma cosa stanno facendo gli esperti al riguardo?
L’idea più gettonata è quella di sviluppare una sorta di “codice deontologico” che possa impostare la condotta delle AI in modo da essere quanto più obiettiva possibile nel prendere decisioni. Chiaramente è un discorso più facile a dirsi che a farsi, ma è probabilmente una delle incognite più importanti da risolvere da qui al completo sviluppo del settore, secondo i modelli di crescita auspicati.
Intelligenza artificiale e Pathways: questione di etica?
Un altro dei dubbi sull’AI è quello che riguarda l’etica e se queste trasformazioni in corso possano avere un impatto positivo sulle persone e sulla società. Questo è un discorso che coinvolge più discipline con aziende e istituzioni che cercano di dare alle persone una risposta concreta in materia.
Se parliamo dell’AI in termini di “supporto all’intelligenza umana”, possiamo dire che si tratta di uno strumento fondamentale per la nostra evoluzione; un modo per potenziare le nostre possibilità e non, come ci insegna tutto un certo filone cinematografico, per “rimpiazzarci”.
Certo è che per concretizzare queste idee c’è bisogno di un sistema affidabile e trasparente; che sia in grado di muoversi in autonomia, ma in maniera più giusta, più etica e senza discriminazioni. Servirebbe un modello di intelligenza artificiale che non si basi esclusivamente sul machine learning e sull’accumulo di informazioni, ma dovrebbe anche essere in grado di “motivare” certe decisioni.
Insomma servirebbe un modello quanto più simile all’uomo, che possa prendere decisioni non solo in base ai dati raccolti, ma anche in base alle singole situazioni.
Questo al momento non è ancora realizzabile, perciò molti governi e istituzioni stanno cercando di portare lo studio dell’AI a un livello superiore, interfacciandosi direttamente con Università e Accademie. Lo scopo è, anzitutto, spingere i più giovani verso questa disciplina, nella speranza che siano loro a trovare la soluzione al problema.
In secondo luogo si cerca di creare un sistema interconnesso dove condividere le varie scoperte sul campo affinché diventino un patrimonio comune e non solo di pochi.
Quello che possiamo fare per adesso è lavorare su “comitati per l’etica” che possano analizzare le decisioni dell’AI ed eventualmente contestarle. Certo, questo ci allontana ancora dalla tanto sospirata autonomia dei processi delle intelligenze sintetiche, ma in alcuni casi è meglio fare un passo indietro piuttosto che affrettare i tempi e pagare le conseguenze di decisioni sconsiderate del primo HAL 9000 di turno.
Intelligenza artificiale: il futuro del settore tra Pathways e questioni etiche