L’intelligenza artificiale può avere una propria etica?
Si può parlare di etica e di intelligenza artificiale nello stesso contesto? Gli interrogativi degli scienziati sulla tecnologia
Una domanda a bruciapelo; l’intelligenza artificiale ha una propria etica? Questa dovrebbe trattare tutte le persone in modo equo. Ma è realmente così?
Un utilizzo virtuoso che dovrebbe portare a responsabilizzare la gente, agire in modo affidabile e sicuro, essere comprensibile e rispettare la privacy. Insomma, quello che si chiede a un’AI è di seguire i valori umani, per quanto possibile.
Buona parte di queste caratteristiche sono già al vaglio dei grandi colossi dell’informatica che stanno lavorando per seguire il più possibile questi principi etici per lo sviluppo dell’intelligenza artificiale. Per quanto, però, si cerchi di lavorare a un sistema più “giusto” e più “positivo”, bisogna anche capire che l’etica e i codici del computer sono due universi (quasi) agli antipodi. Questo perché, per l’etica umana, non c’è solo valore ad indicare cosa è giusto e cosa non lo è. Per l’uomo bisogna considerare tutte quelle “sfumature di colore” che stanno nel mezzo e che rendono il mondo ben lontano dall’essere solo bianco e nero.
Ovviamente, cercare di rapportare questi principi all’universo delle macchine può essere una cosa molto complessa. Soprattutto perché bisognerebbe individuare delle priorità da “insegnare alle macchine”; queste, però, potrebbero essere totalmente incompatibili con quelle degli altri. Quindi occorrerebbe insegnare alle macchina tutta una serie di cose dalla tolleranza all’adattamento, che davvero potrebbero essere troppo per l’intelligenza artificiale. Chiaramente è possibile indicare un principio universale. Però non ci sarà mai la certezza che questa direzione possa essere condivisa da tutti e che la macchina possa comprendere il fatto che le sue azioni potrebbero destare malcontento in alcune persone.
Etica e intelligenza artificiale, è proprio questo il problema?
A questo punto molti scienziati si sono chiesti: “cosa vogliamo esattamente da questi sistemi?”. Se la risposta alla domanda fosse un tipo di intelligenza etica, si tornerebbe a parlare dei problemi di cui sopra. In questa prospettiva si dovranno, perciò, calcolare dei discorsi e dei dibattiti che andrebbero valutati e sostenuti, oltre che difesi, cosa che probabilmente le macchina non sono (ancora) in grado di fare.
Al giorno d’oggi uno dei più evidenti “fallimenti” dell’etica riguardano una sorta di “beatificazione” nei confronti della tecnologia; un meccanismo che pone in questi termini anche i creatori di tali tecnologie ad essere al di sopra di ogni cosa; come una categoria a parte, per cui non è ammesso il dissenso.
A questo proposito è opportuno chiamare in causa anche i colossi del web che con i loro tentativi di migliorare la vita delle persone, puntano anche a far crescere i propri profitti. È ovvio che l’interesse economico venga al primo posto. Ma allora è possibile parlare di una “tecnologia etica” se il suo sviluppo è legato principalmente al denaro?
A fronte di questo, appare chiaro che la sfida non è (solamente) tecnologica ma anche sociale e politica, perché non riguarda solo le macchine e la loro etica.
È su questo che si interrogano molti studiosi; non sul fatto se le macchine possano pensare o meno in maniera etica, ma sul fatto che tutta la loro esistenza potrebbe non essere affatto etica.
A fronte di questo appare evidente che non è possibile risolvere questi dilemmi tramite un codice. Non è possibile scrivere cosa è giusto e cosa non lo è.
Quello che possiamo fare, invece, è interrogarci dello scopo primario con cui sono nate alcune tecnologie. Domandarci quale beneficio entra nelle tasche di chi le sviluppa e, magari, capire se c’è qualcosa di etico o meno. Non si chiede alle persone di distruggere le macchine, come successe a suo tempo. Semplicemente si chiede di riflettere e, se possibile, cercare di applicare un metro di giudizio adatto ai vari contesti.
L’intelligenza artificiale può avere una propria etica?