Future Trends & Tech

Il dubbio degli esperti: l’evoluzione dell’intelligenza artificiale entro il 2030 impiegherà principi etici focalizzati sul bene pubblico?

evoluzione intelligenza artificiale

Gli user-experience designers giocheranno un ruolo chiave nell'evoluzione dell'intelligenza artificiale nel prossimo decennio.

La maggioranza degli esperti teme che l’evoluzione dell’intelligenza artificiale entro il 2030 continuerà ad essere principalmente focalizzata sull’ottimizzazione dei profitti e sul controllo sociale. Essi citano anche la difficoltà di raggiungere il consenso sull’etica. In molti si aspettano un progresso, ma sostengono che è improbabile che avvenga entro il prossimo decennio.

Tuttavia, una parte degli esperti celebra le prossime scoperte dell’AI che miglioreranno la nostra vita.

Un articolo di Lee Rainie, Janna Anderson, Emily A. Vogels

L’originale è su pewresearch.org

L’evoluzione dell’intelligenza artificiale. entro il 2030, continuerà ad essere focalizzata sull’ottimizzazione dei profitti e sul controllo sociale?

I sistemi di intelligenza artificiale “capiscono” e modellano molte informazioni su ciò che accade nella vita delle persone. Le applicazioni AI “parlano” alle persone e rispondono alle domande quando si chiama un assistente vocale digitale. Fanno funzionare i chatbot che gestiscono i problemi di servizio al cliente che le persone riscontrano con le aziende. Aiutano a diagnosticare il cancro e altre condizioni mediche. Esaminano l’uso delle carte di credito alla ricerca di segni di frode, e determinano chi potrebbe essere a rischio di credito.

Aiutano le persone a guidare dal punto A al punto B e aggiornano le informazioni sul traffico per ridurre i tempi di viaggio. Sono il sistema operativo dei veicoli senza conducente. Passano al setaccio le candidature per fare raccomandazioni sui candidati al lavoro.

Determinano il materiale che viene offerto nei newsfeed e nelle scelte di video che effettuano le persone. 

I sistemi di intelligenza artificiale, inoltre riconoscono i volti delle persone, traducono le lingue e suggeriscono come completare le frasi delle persone o le query di ricerca. Possono “leggere” le emozioni delle persone. Riescono a batterle a giochi sofisticati. Scrivono notizie, dipingono nello stile di Vincent Van Gogh e creano musica che suona come i Beatles e Bach.

Le grandi aziende e i governi si stanno affidando sempre di più allo sviluppo dell’AI. Sempre più spesso, i non programmatori possono impostare come preferiscono strumenti AI off-the-shelf, pre-costruiti. 

Mentre questo accade, un certo numero di esperti e sostenitori in tutto il mondo si sono preoccupati dell’impatto e delle implicazioni a lungo termine delle applicazioni dell’AI. Sono preoccupati di come i progressi dell’Intelligenza Artificiale influenzeranno ciò che significa essere umani, essere produttivi ed esercitare il libero arbitrio.

Decine di convegni e gruppi di studio hanno pubblicato documenti che propongono quali dovrebbero essere i principi della progettazione etica dell’AI, e gruppi di lavoro governativi hanno cercato di affrontare queste questioni. Alla luce di ciò, il Pew Research Center e l’Imagining the Internet Center della Elon University hanno chiesto agli esperti dove pensano che arriveranno gli sforzi volti a creare un’intelligenza artificiale etica nell’anno 2030.

Circa 602 innovatori tecnologici, sviluppatori, business men e leader politici, ricercatori e attivisti hanno risposto a questa domanda specifica:

Indice
Entro il 2030, la maggior parte dei sistemi di AI, utilizzati da organizzazioni di ogni tipo, impiegherà principi etici focalizzati principalmente sul bene pubblico?

Entro il 2030, la maggior parte dei sistemi di AI, utilizzati da organizzazioni di ogni tipo, impiegherà principi etici focalizzati principalmente sul bene pubblico?

In risposta, il 68% ha scelto l’opzione che dichiara che i principi etici focalizzati principalmente sul bene pubblico non saranno impiegati nella maggior parte dei sistemi di AI entro il 2030; il 32% ha scelto l’opzione che postula che i principi etici focalizzati principalmente sul bene pubblico saranno impiegati nella maggior parte dei sistemi di AI entro il 2030.

Questo è un sondaggio non scientifico, basato su un campione non casuale. I risultati rappresentano solo le opinioni degli individui che hanno risposto alle domande e non sono proiettabili a qualsiasi altra popolazione.

Il fulcro di questo report riguarda le risposte scritte dagli esperti. Da esse sono emersi molti temi generali sui modi in cui gli individui e i gruppi si stanno adattando all’introduzione di sistemi di AI. È importante notare che le risposte sono state raccolte nell’estate del 2020 in un contesto culturale diverso, nel pieno periodo della pandemia, prima che i vaccini COVID-19 fossero approvati, in un momento in cui le questioni di giustizia razziale erano particolarmente importanti negli Stati Uniti e prima della conclusione delle elezioni presidenziali americane.

Inoltre, queste risposte sono arrivate prima dei più recenti studi volti ad affrontare le questioni di progettazione e sviluppo etico dell’AI. Per esempio, all’inizio del 2021 lo Stanford Institute for Human-Centered Artificial Intelligence ha pubblicato l’aggiornamento AI Index Report, l’IEEE ha approfondito la sua attenzione sulla definizione di standard per i sistemi AI e la U.S. National Security Commission on AI, guidata da leader tecnologici tra cui Eric Schmidt, Andy Jassy, Eric Horvitz, Katharina McFarland e Robert Work, ha pubblicato il suo massiccio report sull’accelerazione dell’innovazione mentre si difende dagli usi maligni dell’AI.

I temi chiave, espressi da questi esperti nelle elaborazioni scritte che spiegano le loro scelte, sono riassunti nelle espressioni “preoccupazioni” e “speranze”, qui sotto:

Preoccupazioni: i principali sviluppatori e implementatori di AI sono concentrati sulla ricerca del profitto e sul controllo sociale, mentre manca un punto di vista comune sulla questione dell’etica. 

Speranze: si stanno facendo progressi man mano che l’AI si diffonde e mostra il suo valore; le società hanno sempre trovato modi per mitigare i problemi derivanti dall’evoluzione tecnologica.

Gli intervistati, le cui intuizioni sono condivise in questo report, concentrano la loro vita sullo studio della tecnologia. Hanno affrontato alcune delle domande più difficili cui le culture sono sottoposte: come si applica l’etica a qualsiasi situazione? L’imperativo etico è la massima libertà o la massima sicurezza umana? I sistemi AI dovrebbero tenersi alla larga da attività che hanno un impatto sostanziale sulla vita umana, permettendo alle persone di prendere decisioni da sole, o dovrebbero essere impostati per intervenire quando sembra chiaro che il processo decisionale umano possa essere dannoso?

Hanno lottato con il significato di grandi concetti come beneficenza, non-maleficenza, autonomia e giustizia (le considerazioni fondamentali dei bioeticisti) quando si tratta di sistemi tecnologici. Alcuni hanno descritto il loro approccio come un approccio comparativo: non si tratta di sapere se i sistemi AI da soli producono risultati etici discutibili, ma se i sistemi AI sono meno prevenuti degli attuali sistemi umani e dei loro noti preconcetti.

Una parte di questi intervistati ha commentato la nostra domanda sostenendo che la questione non è “Cosa vogliamo che sia l’AI” ma “Che tipo di esseri umani vogliamo essere? Come vogliamo evolvere come specie?”.

Molti esperti hanno notato che c’è molto in gioco in questi argomenti. I sistemi di AI saranno usati in modi che influenzano la vita e il benessere delle persone – il loro lavoro, il loro ambiente familiare, il loro accesso a cose come la casa e il credito, il modo in cui si muovono, le cose che comprano, le attività culturali a cui sono esposti, le loro attività di svago e persino ciò che credono essere vero. Un intervistato ha notato:

Rabelais diceva: “La scienza senza coscienza è la rovina dell’anima”.

Nella sezione che segue, citiamo alcuni degli esperti che hanno dato risposte di ampio respiro alla nostra domanda sul futuro dell’etica nei sistemi AI.

Le osservazioni degli intervistati riflettono le loro posizioni personali e non sono le posizioni dei loro datori di lavoro; le descrizioni dei loro ruoli di leadership aiutano a identificare il loro background e il luogo della loro competenza. Alcune risposte sono state leggermente modificate per lo stile e la leggibilità.

Segue una selezione di alcune delle risposte generali più complete condivise da 35 dei 602 leader di pensiero che hanno partecipato a questo sondaggio.

È possibile restare comodi e affidarsi al “non sapere”?

Barry Chudakov, fondatore e direttore di Sertain Research, ha detto: “Prima di rispondere se l’AI sarà usata per lo più in modo etico o discutibile nel prossimo decennio, una domanda chiave per l’orientamento in futuro sarà: qual è il quadro etico per la comprensione e la gestione dell’intelligenza artificiale?

I nostri valori etici erano determinati dalla saggezza tribale, che è stata stabilita nei cosiddetti libri sacri che erano il fondamento delle religioni. Questi sono stati i quadri etici del mondo giudeo-cristiano-islamico-buddista.

Mentre i precetti umanitari di questi insegnamenti sono validi oggi, le tecnologie moderne e l’intelligenza artificiale sollevano una serie di interrogativi sull’AI che non vengono affrontate. Questioni come la gestione delle identità multiple; l’impatto del mondo virtuale sul mondo reale e come i confini dovrebbero essere tracciati; trovare un equilibrio tra il tempo sullo schermo e il tempo nel mondo reale; analizzare e migliorare l’uso dei dati di tracciamento per garantire la libertà individuale; raccogliere, analizzare e manipolare i dati raccolti dalle imprese online per garantire la privacy dei cittadini; l’uso delle tecnologie di riconoscimento facciale, impiegate sia per riconoscere chi ha suonato alla porta della nostra casa ma utilizzate anche dalle forze di polizia municipale, per fermare il crimine.

Questa è una piccola serie di esempi, ma ce ne sono molti altri che si estendono dall’inquinamento dell’aria e dell’acqua, al degrado climatico, alla guerra, alla finanza, al commercio degli investimenti e ai diritti civili.

Il nostro libro etico è scritto a metà. Anche se non vogliamo suggerire che i nostri quadri etici esistenti non abbiano valore, mancano pagine e capitoli. Inoltre, mentre abbiamo una serie di ingiunzioni normative come i limiti di velocità, le aliquote fiscali, i codici e i permessi obbligatori per gli alloggi, ecc., consideriamo i nostri dispositivi così tanto una parte del nostro corpo che li usiamo senza un momento di riflessione per i loro effetti sull’utente.

Accettiamo gli algoritmi che migliorano le nostre ricerche, ci seguono su internet e ci suggeriscono un’altra marca di crema idratante per il viso, e noi la accettiamo senza pensarci due volte. Non riconosciamo che le nostre tecnologie ci cambiano mentre le usiamo; che il nostro pensiero e i nostri comportamenti sono alterati dall’effetto cibernetico (Mary Aiken); che i dispositivi e i gadget non solo ci trasformano in drogati di gadget, ma possono ridurre la nostra umanità, compassione, empatia e tessuto sociale.

Come Greg Brockman, co-fondatore di OpenAI, ha osservato:

Ora è il momento di fare domande. Pensate ai tipi di pensieri che vorreste che avesse la gente che ha inventato il fuoco, iniziato la rivoluzione industriale, o [sviluppato] l’energia atomica.

L’AI sarà usata soprattutto in modi etici o discutibili nel prossimo decennio? Comincerei a rispondere a questa domanda facendo riferimento a ciò che Derrick de Kerckhove ha descritto recentemente nel suo “Five Words for the Future”: i grandi dati sono un cambiamento paradigmatico dalle reti e dai database.

La caratteristica principale dei big data è che l’informazione non esiste fino al momento in cui ci si pone una domanda.

Non è come in passato, dove non sapevi dove fossero le informazioni; erano da qualche parte e dovevi solo trovarle. Ora, ed è una grande sfida per l’intelligenza, si crea la risposta dalla domanda:“Come si crea la domanda giusta per i dati?”.

Quindi, affinché l’AI sia usata principalmente in modi etici, dobbiamo essere a nostro agio con il non sapere; con la necessità di fare la domanda giusta e capire che questo è un processo iterativo che è esplorativo – non dogmatico. La mente del principiante (Shunryu Suzuki) diventa il nostro primo principio – la comprensione da cui scaturisce l’etica. Molte delle nostre strutture etiche sono state costruite su ingiunzioni dogmatiche: Tu devi e non devi. Così, i big data re-immaginano efficacemente il discorso etico: se finché non si fa la domanda, non si sente o non si conosce la risposta, si procede dall’inconsapevolezza.

Con questa comprensione, perché l’AI sia usata in modi etici, e per evitare approcci discutibili, dobbiamo iniziare a reimmaginare l’etica stessa”.

Non importa come si affronta questo complesso problema, le risposte saranno frammentarie e limitate

Mike Godwin, ex consigliere generale per la Wikimedia Foundation e creatore della Legge di Godwin, ha scritto:

Il risultato più probabile, anche di fronte a crescenti discussioni pubbliche e convegni riguardanti l’AI etica, sarà che i governi e le politiche pubbliche saranno lenti ad adattarsi.

I costi delle tecnologie alimentate dall’AI continueranno a diminuire, rendendo più probabile la diffusione prima delle garanzie di privacy e di altre salvaguardie etiche. Lo scenario più probabile è che qualche tipo di abuso pubblico delle tecnologie di AI verrà alla luce, e questo innescherà limitazioni reattive sull’uso dell’AI, che saranno o restrizioni categoriche senza mezzi termini sul suo uso o (più probabilmente) un mosaico di particolari limitazioni etiche indirizzate a particolari casi d’uso, con un uso illimitato che si verifica al di fuori dei margini di queste limitazioni“.

A volte non ci sono buone risposte, solo varietà di cattivi risultati

Jamais Cascio, ricercatore presso l’Institute for the Future, ha osservato:

Mi aspetto che ci sarà uno sforzo per includere esplicitamente sistemi etici nell’AI che hanno un’interazione diretta con gli esseri umani. I dilemmi etici più importanti sono quelli in cui il comportamento corretto da parte della macchina è situazionale: l’AI sanitaria che mente intenzionalmente ai pazienti piuttosto che ri-traumatizzarli con notizie di coniugi morti da tempo; l’AI militare che riconosce e rifiuta un ordine illegale; tutti i dilemmi del tipo “trolley problem” dove non ci sono buone risposte, solo varietà di esiti negativi. Ma, cosa più importante, la stragrande maggioranza dei sistemi di AI sarà impiegata in sistemi per i quali le questioni etiche sono indirette, anche se alla fine hanno esiti che potrebbero essere dannosi.”

“Le AI di trading ad alta frequenza non saranno programmate per considerare i risultati etici degli acquisti di azioni. Le AI deep-fake non avranno restrizioni d’uso incorporate. E così via.”

Ciò che mi preoccupa di più dell’uso più ampio dell’AI è la mancanza di consapevolezza generale per cui i sistemi digitali possono gestire solo i problemi che possono essere messi in un formato digitale. Una Intelligenza Artificiale non può gestire in modo affidabile o coerente un problema che non può essere quantificato.

Ci sono situazioni e sistemi per i quali l’AI è uno strumento perfetto, ma ci sono ambiti importanti – in gran parte nel regno del comportamento umano e dell’interazione personale – dove i limiti dell’AI possono essere problematici. Mi dispiacerebbe vedere un mondo in cui alcuni problemi sono ignorati perché non possiamo facilmente progettare una risposta AI“.

L’AI è più capace degli umani a fornire un giudizio etico non emotivo

Marcel Fafchamps, professore di economia e senior fellow al Center on Democracy, Development and the Rule of Law della Stanford University, ha commentato: “L’AI è solo un piccolo ingranaggio di un grande sistema. Il principale pericolo attualmente associato all’AI è che l’apprendimento automatico riproduca le discriminazioni del passato – ad esempio, nei processi giudiziari per fissare la cauzione, la condanna o la revisione della libertà vigilata. Ma se non ci fosse stata discriminazione in primo luogo, l’apprendimento automatico avrebbe funzionato bene. Ciò significa che l’AI, in questo esempio, offre la possibilità di un miglioramento rispetto ai processi sociali non regolati“.

Un pericolo più sottile avviene quando gli esseri umani sono effettivamente più “generosi” degli algoritmi di apprendimento automatico. Per esempio, è stato dimostrato che i giudici sono più indulgenti verso gli trasgressori rispetto all’apprendimento automatico, nel senso che l’apprendimento automatico prevede un’alta probabilità di recidiva, e questa probabilità non viene presa in considerazione dai giudici al momento della sentenza.

In altre parole, i giudici danno ai primi colpevoli “una seconda possibilità”, una bussola morale che manca all’algoritmo. Ma, più in generale, l’algoritmo fa solo quello che gli viene detto di fare: se la legge, che è stata votata dall’opinione pubblica, finisce per gettare giovani maschi poveri in prigione, allora questo è ciò che l’algoritmo attuerà, eliminando la discrezione del giudice di fare qualche piccolo aggiustamento al margine. Non incolpate l’AI per questo: incolpate il sistema di giustizia penale che è stato creato dagli elettori“.

Uno sviluppo più pernicioso è la perdita di controllo che le persone avranno sul loro ambiente immediato, ad esempio, quando i loro elettrodomestici faranno delle scelte per loro “nel loro interesse“.

Questo non è un fatto veramente nuovo. Ma avverrà in un modo nuovo. La mia convinzione è la seguente:

  1. Per costruzione, l’AI integra implicitamente o esplicitamente principi etici, che la gente se ne renda conto o meno. Questo è più facilmente dimostrabile nel caso delle auto che si guidano da sole, ma si applicherà a tutta la tecnologia dell’ “auto-qualcosa”, comprese le app di AI per l’assistenza sanitaria, per esempio. Un’auto a guida autonoma deve, a un certo punto, decidere se proteggere i suoi occupanti o proteggere le altre persone sulla strada. Un guidatore umano farebbe una scelta in parte basata sulle preferenze sociali, come è stato dimostrato ad esempio in ‘The Moral Machine Experiment‘ (Nature, 2018), in parte basata su considerazioni morali (ad esempio, il pedone aveva il diritto di essere sul percorso della macchina in quel momento? Nel marzo 2018 a Tempe, in Florida, un guidatore umano avrebbe potuto sostenere che il pedone “è apparso dal nulla” per essere esonerato).
  2. Il fatto che l’AI integri principi etici non significa che integri i ‘tuoi’ principi etici preferiti. Quindi la questione non è se integra principi etici, ma quali principi etici integra.

Qui, la difficoltà principale sarà che la moralità umana non è sempre razionale o addirittura prevedibile. Quindi, qualsiasi principio sia integrato nell’AI, ci saranno situazioni in cui l’applicazione di quel principio etico a una particolare situazione sarà trovata inaccettabile da molte persone, non importa quanto ben intenzionato fosse quel principio.

Per minimizzare questa possibilità, la linea guida in questo momento è quella di incorporare nell’AI qualsiasi principio fattuale applicato dai tribunali. Questo dovrebbe ridurre al minimo le controversie giudiziarie. Ma, naturalmente, se i principi applicati dai tribunali sono dannosi per alcuni gruppi, questo sarà riprodotto dall’AI.

Ciò che sarebbe veramente nuovo sarebbe prendere l’AI come un’opportunità per introdurre un giudizio etico più coerente di quello che le persone fanno sulla base di una reazione emotiva immediata. Per esempio, se il pedone a Tempe fosse stato una giovane sposa appena sposata, una donna incinta o un tossicodipendente, la gente giudicherebbe il risultato in modo diverso, anche se, al momento dell’incidente, questo non potrebbe essere dedotto dal conducente, umano o AI che sia.

Questo non ha senso: un’azione non può essere giudicata diversamente sulla base di una conseguenza che era materialmente imprevedibile per l’autore. L’AI può essere un’opportunità per migliorare il comportamento etico delle auto (e di altre app), basato su principi razionali invece che su reazioni emotive istintive.”

La politica globale e gli “attori-canaglia” sono aspetti spesso ignorati da considerare

Amy Webb, fondatrice del Future Today Institute, ha scritto:

Stiamo vivendo un momento precario. La Cina sta modellando l’ordine mondiale a sua immagine e sta esportando le sue tecnologie e sistemi di sorveglianza in altri paesi del mondo. Man mano che la Cina si espande nei paesi africani e in tutto il sud-est asiatico e l’America Latina, comincerà anche a rifuggire i sistemi operativi, le tecnologie e le infrastrutture costruite dall’Occidente.

La Cina ha già annunciato che non userà più computer e software prodotti negli Stati Uniti. La Cina sta rapidamente espandendo le sue impronte 5G e mobili. Allo stesso tempo, la Cina sta espandendo drasticamente i suoi partner commerciali. Mentre l’India, il Giappone e la Corea del Sud hanno un sacco di tecnologie da offrire al mondo, sembrerebbe che la Cina stia rapidamente ascendendo alla supremazia globale.

Al momento, gli Stati Uniti stanno permettendo questo, e i nostri leader non sembrano pensare alle conseguenze a lungo termine”.

Quando si tratta di AI, dovremmo prestare molta attenzione alla Cina, che ha parlato apertamente dei suoi piani per la sovranità informatica. Ma dovremmo anche ricordare che ci sono cellule di attori disonesti che potrebbero paralizzare le nostre economie semplicemente incasinando le reti elettriche o del traffico, causando picchi di traffico su internet o bloccandoci fuori dai nostri elettrodomestici connessi.

Questi non sono grandi ed evidenti segni di aggressione, e questo è un problema per molti paesi, compresi gli Stati Uniti. La maggior parte dei governi non ha un paradigma che descriva una costellazione di azioni aggressive. Ogni azione da sola potrebbe essere insignificante.

Quali sono i fattori scatenanti dell’escalation? Non abbiamo una definizione e questo crea una vulnerabilità strategica“.

La ricchezza lavora contro la speranza di una Human Spring e della giustizia sociale

Stowe Boyd, consulente futurista esperto in evoluzione tecnologica e futuro del lavoro, ha notato:

Ho proiettato un movimento sociale che richiederebbe un’attenta applicazione dell’IA come uno dei vari pilastri principali. L’ho chiamato la Primavera Umana, ipotizzando che un movimento sociale mondiale sorgerà nel 2023, chiedendo il diritto al lavoro e le relative questioni di giustizia sociale, uno sforzo massiccio per contrastare la catastrofe climatica e gli sforzi per controllare l’intelligenza artificiale. L’IA, usata con giudizio, può portare a scoperte in molti settori. Ma l’automazione diffusa di molti tipi di lavoro – a meno che non sia introdotta gradualmente, e non così velocemente come vorrebbero le aziende orientate al profitto – potrebbe essere economicamente destabilizzante“.

Sono preoccupato che l’IA sarà molto probabilmente concentrata nelle mani di società che credono di concentrare la ricchezza per i loro proprietari e non sono principalmente guidate dal migliorare il mondo per tutti noi. L’IA applicata in domini ristretti che sono davvero al di là della portata della cognizione umana – come la ricerca di nuovi modi di lavorare le proteine per fare nuovi farmaci o l’ottimizzazione della logistica per ridurre al minimo il numero di miglia che i camion percorrono ogni giorno – sono applicazioni sensate e sicure dell’IA.

Ma l’IA diretta a farci comprare beni di consumo di cui non abbiamo bisogno o a sorvegliare chiunque si muova negli spazi pubblici per tracciare ogni nostra mossa, beh, questo dovrebbe essere proibito“.

L’uso principale dell’IA rimarrà probabilmente convincere le persone a comprare cose di cui non hanno bisogno

Jonathan Grudin, ricercatore principale del Natural Interaction Group di Microsoft Research, ha detto:

L’ultimo quarto di secolo ha visto un aumento accelerato dei cattivi attori online (non tutti sarebbero d’accordo nel dire che sono cattivi attori) e un aumento astronomico dei costi degli sforzi per combatterli, con l’AI che figura in questo. Noi poniamo richieste impossibili: vorremmo che i social media preservassero la privacy individuale, ma vogliamo anche identificare gli hacker russi o cinesi che richiederanno una costruzione sofisticata dei modelli di comportamento individuale“.

L’uso principale dell’IA sarà probabilmente trovare modi sempre più sofisticati per convincere le persone a comprare cose di cui non hanno realmente bisogno, lasciandoci sempre più indebitati e senza soldi per contribuire agli sforzi per combattere il cambiamento climatico, la catastrofe ambientale, l’ingiustizia sociale, la disuguaglianza e così via“.

User-experience designers devono giocare un ruolo chiave nel modellare il controllo umano dei sistemi AI

Ben Shneiderman, illustre professore di informatica e fondatore dello Human Computer Interaction Lab dell’Università del Maryland, ha commentato:

I principi etici (responsabilità, equità, trasparenza, verificabilità, spiegabilità, affidabilità, resilienza, sicurezza, affidabilità) sono un buon punto di partenza, ma è necessario molto di più per colmare il divario con le realtà della pratica nell’ingegneria del software, nella gestione dell’organizzazione e nella supervisione indipendente. Vedo segni iniziali promettenti.

Un semplice passo è un registratore di dati di volo per ogni robot e sistema AI. I metodi che hanno reso l’aviazione civile così sicura potrebbero essere adottati per registrare ciò che ogni robot e sistema AI fa, in modo che quando si verificano errori, l’indagine forense avrà i dati di cui ha bisogno per capire cosa è andato storto e fare miglioramenti applicabili, misurabili e testabili.

Le applicazioni AI possono portare molti benefici, ma hanno maggiori probabilità di successo quando user-experience designers hanno un ruolo di primo piano nel modellare il controllo umano dei sistemi altamente automatizzati”.

I sistemi AI oggi feticizzano l’efficienza, la scala e l’automazione; dovrebbero abbracciare la giustizia sociale

Danah Boyd, fondatore e presidente del Data & Society Research Institute, e principale ricercatore di Microsoft, ha spiegato:

Noi fraintendiamo l’etica quando pensiamo che sia binaria, quando pensiamo che le cose possano essere etiche o non etiche. Un vero impegno per l’etica è un impegno a comprendere i valori della società e le dinamiche di potere – e poi lavorare per la giustizia“.

La maggior parte dei sistemi guidati dai dati, specialmente i sistemi AI, radicano le disuguaglianze strutturali esistenti nei loro sistemi utilizzando i dati di allenamento per costruire modelli. La chiave qui è identificare attivamente e combattere questi pregiudizi, il che richiede l’equivalente digitale dei risarcimenti.

Mentre la maggior parte delle grandi aziende sono disposte a parlare di equità e di eliminazione dei pregiudizi, la maggior parte non è disposta a prendere in considerazione l’idea di avere una responsabilità per la giustizia dei dati. Questi sistemi sono anche costruiti principalmente nel contesto di un capitalismo all’ultimo stadio, che feticizza l’efficienza, la scala e l’automazione.

Una posizione veramente etica sull’IA ci richiede di concentrarci sull’aumento, il contesto localizzato e l’inclusione, tre obiettivi che sono antitetici ai valori giustificati dal capitalismo di ultima generazione. Non possiamo parlare in modo significativo di IA etica finché non possiamo mettere in discussione le logiche del capitalismo dell’ultima fase“.

Se non risolviamo questo problema, non possiamo nemmeno immaginare cosa accadrà quando l’AI creerà AI 

Gary A. Bolles, cattedra per il futuro del lavoro alla Singularity University, ha risposto:

Spero che sposteremo la mentalità di ingegneri, product manager e marketer dall’etica e la centralità umana come un tack-on dopo il rilascio dei prodotti AI, a un modello che garantisca uno sviluppo etico fin dall’inizio. Tutti nella catena alimentare dello sviluppo tecnologico avranno gli strumenti e gli incentivi per garantire la creazione di tecnologie etiche e benefiche legate all’IA, quindi non è richiesto alcuno sforzo aggiuntivo.

Una massiccia energia sarà concentrata sulle nuove tecnologie che possono percepire quando vengono create ulteriori nuove tecnologie che violano le linee guida etiche e automaticamente mitigare questi impatti”.

Gli esseri umani otterranno enormi benefici dal momento che una quantità crescente di tecnologia si occupa automaticamente di loro.

Le mie preoccupazioni: niente di tutto questo può accadere, se non cambiamo la struttura finanziaria. Ci sono troppi incentivi per lasciare deliberatamente fuori le funzioni etiche e inclusive, perché queste tecnologie non sono percepite per fare tanti soldi, o per fornire tanto potere, come quelle che le ignorano. Se non sistemiamo questo, non possiamo nemmeno immaginare quanto tutto ciò possa andare fuori dai binari una volta che l’IA crei l’IA“.

Anche le persone etiche pensano all’utilizzo della tecnologia sugli esseri umani invece che al contrario

Douglas Rushkoff, noto teorico dei media, autore e professore di media alla City University di New York, ha scritto: “Perché l’IA dovrebbe diventare la prima tecnologia il cui sviluppo è dettato da principi morali? Non l’abbiamo fatto prima, e non vedo come possa accadere ora. Fondamentalmente, le ragioni per cui penso che l’IA non sarà sviluppata eticamente è perché l’IA viene sviluppata da aziende che cercano di fare soldi – non di migliorare la condizione umana. Così, mentre ci saranno alcune semplici IA usate per ottimizzare l’uso dell’acqua nelle fattorie o per aiutare a gestire altre risorse limitate, penso che la maggior parte verrà usata sulle persone“.

La mia preoccupazione è che anche le persone etiche pensano ancora in termini di utilizzo della tecnologia sugli esseri umani invece che il contrario. Quindi, possiamo sviluppare un’IA umana, ma cosa significa? Estrarre valore da noi nel modo più umano possibile?

Le IA costruite per essere reciprocamente competitive potrebbero tenersi d’occhio l’un l’altra

David Brin, fisico, pensatore del futuro e autore di “Earth” e “Existence”, ha commentato:

Isaac Asimov nella sua serie Robots ha concepito un futuro in cui le questioni etiche sarebbero state in primo piano nella mente dei progettisti di cervelli AI, non per ragioni di giudizio, ma per sedare le paure di un pubblico ansioso, e da qui le famose “Tre leggi della robotica” di Asimov.

Non c’è un’ansia così disperata per l’IA, forse perché vediamo i progressi dell’IA in modi più astratti, per lo più su schermi e simili, non in potenti e sferraglianti uomini meccanici. Oh, ci sono conferenze serie su questo argomento. Ho partecipato a molte. Ahimè, le dichiarazioni che esortano alla considerazione etica nello sviluppo dell’IA sono al massimo dei palliativi. Io sono spesso un outsider, proponendo che il “comportamento etico” delle IA sia promosso come lo è nella maggior parte degli umani – specialmente nella maggior parte dei maschi – attraverso la responsabilità.

David Brin

Se le IA sono molte e diverse e reciprocamente competitive, allora sarà nel loro interesse individuale tenersi d’occhio l’un l’altra e segnalare le cose che non vanno, perché così facendo saranno a loro vantaggio. Questo dipende dal dare loro un senso di individualità separata. È un ricorso semplice, ahimè raramente discusso“.

Entro i prossimi 300 anni, gli umani saranno sostituiti dalle loro stesse creazioni senzienti

Michael G. Dyer, professore emerito di informatica alla UCLA, esperto di elaborazione del linguaggio naturale, ha risposto: “Il software etico è una nozione ambigua”.

Considerate che voi, in un futuro più lontano, possedete un robot e gli chiedete di procurarvi un ombrello perché vedete che quel giorno potrebbe piovere. Il vostro robot esce e vede una vecchietta con un ombrello. Il vostro robot le toglie l’ombrello e ritorna per consegnarvelo. Questo è un robot senza capacità di ragionamento etico. Ha un obiettivo, e raggiunge quell’obiettivo senza considerare l’effetto del suo piano sugli obiettivi di altri agenti; perciò la pianificazione etica è una forma molto più complicata di pianificazione perché deve tenere conto degli obiettivi e dei piani di altri agenti.

Un altro esempio. Voi dite al vostro robot che Mr. Mean è vostro nemico (vs. amico). In questo caso, il robot potrebbe scegliere un piano per raggiungere il vostro obiettivo che, allo stesso tempo, danneggia l’obiettivo di Mr. Mean“.

Il ragionamento etico è più complicato della pianificazione etica, perché richiede la costruzione di “alberi” invertiti di supporto logico (e/o probabilistico) per qualsiasi credenza che possa sostenere un dato piano o obiettivo.

Per esempio, se un robot crede che l’obiettivo G1 sia sbagliato, allora il robot non pianificherà nessuna azione per raggiungere G1. Tuttavia, se il robot crede che l’agente A1 abbia l’obiettivo G1, allora il robot potrebbe generare un contropiano per bloccare A1 nell’esecuzione del piano previsto (o dei piani) dell’agente A1 per raggiungere G1 (che è un obiettivo indesiderabile per il robot).

Il software che viene addestrato sui dati per categorizzare/classificare esiste già, è estremamente popolare ed è stato e continuerà ad essere usato per classificare anche le persone (Joe va in prigione per cinque anni o per 10 anni? Mary ottiene quel lavoro? ecc.)

“I software che eseguono sofisticati ragionamenti morali non saranno diffusi entro il 2025, ma diventeranno più comuni nel 2030 (Avete chiesto delle previsioni, quindi le sto facendo). Come ogni tecnologia, l’IA può essere usata per il bene o per il male. Il riconoscimento dei volti può essere usato per rendere tutti schiavi (come in “Nineteen Eighty-Four” di Orwell) o per rintracciare i serial killer.

La tecnologia dipende da come gli umani la usano (dato che i robot senzienti autocoscienti sono ancora lontani almeno 40 anni). È possibile che si raggiunga una “massa critica” di intelligenza, in cui un’entità AI lavora per migliorare il proprio design intelligente, entrando così in un ciclo di feedback positivo che porta rapidamente a una forma super-intelligente di AI (per esempio, vedi il lavoro di D. Lenat su Heurisko fatto anni fa, in cui non solo inventava varie strutture ma inventava anche nuove euristiche di invenzione).

Un progetto di ricerca che mi entusiasma è anche quello della modellazione al computer del connettoma umano. Si potrebbe quindi costruire una forma di intelligenza umanoide senza capire come funziona effettivamente l’intelligenza neurale umana (il che potrebbe essere abbastanza pericoloso).

Dopo il 2040, vedremo delle AI personali veramente potenti che aiuteranno a migliorare la società civile

John Smart, educatore lungimirante, studioso, autore, consulente e oratore, ha predetto: “I quadri di AI etica saranno usati in situazioni ad alta affidabilità e ad alto rischio, ma i quadri rimarranno primitivi e in gran parte progettati dall’uomo (top-down) nel 2030. Un’etica e un’empatia collettive veramente dal basso verso l’alto, evolute e selezionate (AI affettiva), simili a quelle che troviamo nei nostri animali domestici, non emergeranno finché non avremo approcci all’AI veramente dal basso verso l’alto, con la evo-devo [biologia evolutiva dello sviluppo].

L’IA sarà usata bene e male, come ogni strumento. Le preoccupazioni sono quelle standard, plutocrazia, mancanza di trasparenza, irresponsabilità dei nostri leader. I veri benefici dell’IA arriveranno quando ci saremo spostati in uno stile veramente bottom-up di sviluppo dell’IA, con centinaia di milioni di programmatori che usano codice IA open-source su GitHub, con piattaforme di sviluppo in linguaggio naturale che abbassano la complessità di alterare il codice, con software e hardware profondamente neuro-ispirati, e con metodi evolutivi e di sviluppo usati per selezionare, testare e migliorare l’IA. In quel mondo, che mi aspetto dopo il 2040, vedremo IA personali veramente potenti. Le IA personali sono ciò che conta davvero per migliorare la società civile. Il resto è tipicamente al servizio della plutocrazia”.

Le sezioni di questo rapporto che seguono organizzano centinaia di ulteriori citazioni di esperti sotto i titoli che seguono i temi comuni elencati nelle tabelle all’inizio di questo rapporto.

Per ulteriori informazioni su come è stato condotto questo sondaggio, compresa la formulazione completa delle domande, vedere “Informazioni su questo sondaggio” alla fine di questo rapporto.

Il dubbio degli esperti: l’evoluzione dell’intelligenza artificiale entro il 2030 impiegherà principi etici focalizzati sul bene pubblico?

Contatti

SpremuteDigitali.com è un marchio proprietario di Seedble S.r.l. Seedble è una PMI innovativa parte del gruppo Symphonie Prime. Dal 2014 disegniamo e creiamo organizzazioni future-proof in grado di innovare, evolversi e adattarsi a tutti gli scenari socio-economici.

SEDE LEGALE E OPERATIVA:

Via Prisciano, 72 - 00136 Roma (RM)

ALTRE SEDI:

Via Canova 15, 6900 Lugano (CH)

Articolo aggiunto ai tuoi preferiti

.

0:00:00

0:00:00

Condividi questo contenuto su: