Con lo sviluppo di competenze sempre più sofisticate da parte dei sofware presenti negli smartphone, computer e robot si pongono per l’umanità domande di senso: fin dove permettere alla “intelligenza artificiale” di rendersi via via autonoma? Che limiti porre alle tecniche di rilevamento dei nostri “dati”? Quali valori etici si possono installare negli algoritmi che regolano gli scambi sulla rete? Di questi argomenti si è parlato recentemente in Vaticano in due occasioni: la prima è stata una udienza concessa dal Papa al presidente della società tecnologica Microsoft e la seconda un convegno internazionale sui temi della roboetica e salute.
di Luigi Crimella
Siamo pronti a entrare nella società digitale in cui interagiremo con robot e umanoidi che parlano la nostra lingua, che lavorano nelle fabbriche e negli uffici accanto ad operai e impiegati se non addirittura prendono il nostro posto, che scrivono articoli di giornale oppure che guidano automobili e bus senza più bisogno di giornalisti e di autisti?
Se diamo uno sguardo a ciò che sta già avvenendo attorno a noi, ad esempio con l’arrivo nelle case degli assistenti vocali (“Cortana” di Microsoft, “Alexa” di Amazon, “Siri” di Apple e “Google Home”) ci accorgeremo che il mondo dei robot domestici e degli umanoidi per uffici (in Italia è famoso Pepper), sta effettivamente occupando ambiti sempre più vasti della vita privata e del mondo lavorativo.
Al di là di come sono “carrozzati” all’esterno, pupazzi di latta con fattezze umane o semplici cilindri parlanti, si tratta in realtà di cervelli elettronici sempre più potenti, in grado di processare miliardi di dati al minuto, di ascoltare quello che diciamo, di elaborare risposte alle nostre domande collegandosi in rete, di memorizzare i nostri gusti e le nostre scelte di canali televisivi, siti internet e musica. Re incontrastato di questi controllori digitali è il nostro smartphone, ormai posseduto da oltre l’80 per cento di quanti usano un cellulare. Con lo smartphone facciamo di tutto: chattiamo, telefoniamo, rispondiamo alle mail, compriamo beni e servizi, investiamo e sottoscriviamo azioni e assicurazioni, misuriamo il nostro benessere e grado di salute. Negli uffici e nelle fabbriche invece sempre più spesso incontriamo pc intelligenti, che ubbidiscono a comandi vocali compiendo operazioni complesse, e anche “co-bot” (robot collaborativi) che interagiscono con operai e tecnici e sono in grado di modificare le proprie attività sulla base degli input vocali che ricevono dai “colleghi” umani.
Gli algoritmi ci “controllano”
Nel commercio online, a cui un numero crescente di persone fa ricorso, le grandi piattaforme di vendita (Amazon, Alibaba, Ebay, ecc.) si basano su algoritmi di calcolo che registrano ogni nostra azione, dalla semplice ricerca di un oggetto o di un servizio, fino alla procedura di acquisto e spedizione. I “dati” che noi forniamo a queste piattaforme sono così numerosi e dettagliati (indirizzo, codice fiscale, conto corrente bancario o carta di credito, orari di lavoro e tempo libero, gusti culturali, politici, religiosi, relazionali ecc.) che se volessero potrebbero creare un nostro “alias”, cioè una persona in tutto e per tutto uguale a noi, in grado di agire, comprare, decidere, prenotare, persino votare al nostro posto. E tutto questo in maniera credibile e insospettabile per la precisione e apparente affidabilità del comportamento attivato.
Un discorso analogo vale per i social media (Facebook, Twitter, Instagram e altri) nei quali condividiamo molte idee, sentimenti, valutazioni e preferenze, le quali vanno ad aumentare esponenzialmente i dati del nostro profilo personale che depositiamo nella rete.
Quando si parla di “Big data” bisogna imparare a pensare in termini matematicamente enormi: oltre metà degli uomini sono connessi e navigano in rete ogni giorno, lasciando centinaia se non migliaia di tracce personali che vengono raccolte e analizzate. Nulla di ciò che avviene online è “privato” e tutto può essere conosciuto, analizzato, intercettato, clonato e anche utilizzato per finalità truffaldine.
Il “grosso affare” del cloud
La gestione di questi “Big data” sta diventando un vero e proprio affare, soprattutto da quando si sono sviluppati gli algoritmi della cosiddetta “intelligenza artificiale”. Le grandi società tecnologiche hanno dato vita ad archivi elettronici di enorme capienza, detti “cloud” (nuvole). Il cloud non solo funge da magazzino dei dati, ma consente sistemi di analisi e strutturazione degli stessi per finalità di conoscenza dei flussi e degli orientamenti dei clienti. Ne sono prove evidenti i messaggi che riceviamo da Google o da Amazon appena manifestiamo un interesse per qualcosa (viaggi, politica, acquisti ecc.).
Nel febbraio scorso, papa Francesco ha ricevuto in udienza il presidente della Microsoft, Brad Smith, e con lui ha avuto modo di discutere di nuove tecnologie, Big data e intelligenza artificiale e dell’uso dei social media con le delicate implicazioni sulla privacy, che esse comportano. Promotore di questo incontro è stata la Pontificia Accademia della Vita, presieduta da mons. Vincenzo Paglia, che ha anche indetto un premio in collaborazione con Microsoft per la migliore ricerca dottorale sul tema delle intelligenze artificiali a servizio della vita umana. In quell’occasione il Papa ha richiamato alcuni dei contenuti del messaggio per la Giornata Mondiale delle Comunicazioni 2019 in cui tra l’altro afferma che «l’uso del social web è complementare all’incontro in carne e ossa, che vive attraverso il corpo, il cuore, gli occhi, lo sguardo, il respiro dell’altro. Se la rete è usata come prolungamento o come attesa di tale incontro, allora non tradisce se stessa e rimane una risorsa per la comunione». Secondo papa Francesco, le nuove tecnologie digitali costituiscono un grosso ausilio per l’umanità ma esigono l’impegno per passare dalle “community” che a volte sono spersonalizzanti alla “comunità” in carne e ossa che si fonda sul contatto diretto tra le persone.
Il pericolo di interazioni in rete fuori-controllo
Dal canto suo, il presidente di Microsoft ha sottolineato in una intervista su L’Osservatore Romano che “abbiamo la responsabilità di creare servizi online e comunità in cui le persone si sentano sicure: lo scorso 5 febbraio, Giornata della sicurezza in rete, ovvero la giornata d’azione internazionale per promuovere un uso più sicuro e responsabile della tecnologia, specialmente tra i bambini e i giovani, abbiamo sviluppato un Digital Civility Index (indice della civiltà digitale) per dimostrare che i rischi in rete hanno conseguenze nel mondo reale. Siamo profondamente impegnati per quanto riguarda la necessità di approfondire la formazione di adolescenti, giovani adulti, genitori, educatori e legislatori in merito alle conseguenze nel mondo reale delle interazioni negative in rete, che possono includere la perdita di fiducia negli altri, un maggiore stress, la privazione di sonno e perfino pensieri suicidi. Speriamo che quei risultati possano servire come prova documentale per una spinta globale verso la “civiltà digitale”.
Analoghe argomentazioni sono emerse poi in occasione dell’assemblea della Pontificia accademia per la vita (Pav) dedicata ai temi della “roboetica” in rapporto alla salute e alla dignità umana. Anche in questo caso la voce del Papa, di vescovi, scienziati e filosofi è stata convergente nell’auspicio che di fronte ai progressi delle scienze e delle tecnologie, “la cabina di regia della ricerca e dello sviluppo rimanga umana e nelle mani dell’uomo” come ha sottolineato il presidente della Pav, mons. Vincenzo Paglia. Dal canto suo papa Francesco ha anche espresso l’auspicio che di fronte a questi grandi progressi delle tecnologie digitali anche le scienze filosofiche e teologiche sviluppino riflessioni in grado di offrire un argine morale ai rischi di disumanizzazione che oggi si intravvedono.