Rimane qui ovvia l’assenza di ogni genere di volontà di volersi contrapporre all’evolversi della scienza in tal senso. Occorre tuttavia essere in grado di preparare il terreno umano, tanto da renderlo permeabile ai semi e capace di generare una pianta idonea a gestirne gli effetti e le ricadute nonché di risolvere i problemi connessi ad essa IA.
Una bella gara. Quella che porterà la Ragione alla sconfitta. E’ quella competizione iniziata esattamente due anni fa nell’Unione Europea di regolamentazione della Intelligenza Artificiale. Troppo veloci i suoi progressi per essere disciplinata, ristretta in ambiti normativi. Non c’è il tempo per individuarli e per legiferare, perché scappa di mano come le anguille. Necessita trovare un altro modo, un nuovo metodo per limitarne l’uso che si contraddica con i diritti fondamentali della persona. Un po’, ma molto più velocemente, come si fa con i testi legislativi coordinati con le soventi modificazioni che si sogliono approvare nel nostro Paese.
Con l’IA è in pericolo la Nazione e i diritti privati dei singoli.
L’UE si è messa in moto, seppure lentamente. In due anni ha predisposto le basi per un “AI act” che daranno modo di approvare per fine anno il regolamento europeo sulla intelligenza artificiale per l’appunto.
Le preoccupazioni
Mentre, da una parte, si tenta di dare una soluzione a chi non ha un lavoro, dall’altra, si lavora per toglierlo a chi ce l’ha. Ciò senza tenere nel dovuto conto che senza un lavoro si abbassa, nella cultura occidentale, il desiderio di crearsi una famiglia e di generare dei figli, con un grave nocumento per la natalità che incide sulla composizione culturale delle rispettive nazioni.
E’ quanto si rischia con l’invasione prepotente dell’intelligenza artificiale – al suo esordio trattato come un fenomeno sussurrato in modo subdolo oggi reso più evidente per mezzo delle dichiarazioni rese da importanti manager di settore “pentiti” – che galoppa sino a riuscire ad interpretare anche i pensieri del genere umano. Insomma, l’IA finirà con l’essere il più pericoloso incursore della privacy. Non rispetta i sentimenti, le passioni più o meno palesi, i vizi. Scopre tutto, andando ben oltre l’individuazione delle nostre abitudini negli acquisti e le frequenze, i gusti. Siamo circondati ogni giorno da inviti a comprare ciò che corrisponde ai nostri desideri custoditi in internet. Subiamo assalti marketing, ai quali in tanti abboccano, vittime dell’automatismo inflitto dalla tastiera.
I rischi sociali e di una privacy finita nella indifferenziata
Ma i pensieri, proprio no! Ciò che hanno fatto i ricercatori texani, di rubare i pensieri, violenta l’uomo, tanto da spogliarlo di ciò che pensa, di ciò e di chi ama, di ciò che odia.
Immaginate cosa succederebbe in una ristretta comunità locale così come negli uffici di una istituzione pubblica con tutte le impiegate e gli impiegati messi a nudo delle loro storie, dei loro segreti e delle loro aspettative. Un controllo “ideologico” grave, da reato bello e buono.
In sintesi, si sta generando un mondo molto al di là dei confini ai comuni film di fantascienza.
Meno male che c’è gente come Geoffry Hinton. Da bandiera primogenita dell’intelligenza artificiale sbatte la porta in faccia a Google, tanta è la sua paura verso ciò che conosce. Dichiara il suo rimorso di aver lavorato sulla tecnologia che pensa e decide, che spia l’uomo nelle parti più intime. Che lo sostituisce, che lo condanna a subire le reti neurali, destinate a trasformarlo in strumento di conseguimento dei suoi scopi.
Da pentito, Hinton riconosce il danno oramai irreversibile di una IA che metterà tanta gente sul lastrico attraverso licenziamenti massivi. La sola IBM ne ha preannunciato 8 mila, che rappresentano il più prossimo segmento da colpire sui 26 mila ritenuti comunque sostituibili nel breve dalla intelligenza artificiale. Per non parlare delle professioni che scompariranno con una intelligenza artificiale che sostituirà le loro competenze e, dunque, i loro ruoli nella società.
I rischi istituzionali
Al di là della rovina che l’AI determinerà con la sottrazione progressiva di milioni di posti di lavoro, viene fuori un altro pericolo: quello di divenire strumento di governo, ad efficacia indotta sino ad arrivare a quella diretta.
Ciò in quanto strumentale a gestire le funzioni pubbliche e a modificare l’apprendimento, in ogni grado. Sono da immaginare nel breve istituzioni pubbliche governate mediante le scelte ritenute più convenienti da chi la programma incrementate dei successi che via via conseguirà, a prescindere dall’utilità sociale per i governati. I bilanci, meglio i suoi risultati, saranno condizionati agli esiti, quindi imporranno previsioni più favorevoli all’economia che al benessere sociale. Cosa dire, se non manifestare preoccupazione, delle politiche del welfare destinate a divenire attive sulla base di ciò che è accaduto e non già su quanto stia accadendo in relazione ad una collettività anziana che cambia e si impoverisce progressivamente.
Cosa dire altresì della amministrazione della giustizia e della sicurezza, della sanità sino ad arrivare al governo del territorio e dell’economia lasciate in mano alla intelligenza artificiale, autorizzata a decidere sulla base dei miliardi di dati in suo possesso e sulla sua capacità di adeguarsi all’evento da affrontare e risolvere. Essa assumerà una competenza globale. Diventerà uno spettro l’informazione, non più in mano alle tastiere sensibili e appassionate bensì alla intelligenza condizionata dai suggerimenti padronali del programmatore.
L’IA non ha coscienza, in quanto tale lavora sul proprio utilitarismo che autogoverna. Quest’ultimo non affatto intaccato dai sentimenti, dalla coscienza, dalla generosità, dalla solidarietà, dalla utilità sociale, dalla cura del diverso e così via.
Il rischio per la gestione della salute
L’assistenza sociosanitaria si caratterizza per il destinatario: la persona umana (Perlingieri dixit). In quanto tale soggetta ad essere presa in carico dal sistema con “delicatezza” e conoscenza progressiva del suo essere. Un adempimento quest’ultimo facile ad essere contribuito dalla intelligenza artificiale, quanto ad accelerazione del perfezionamento del fascicolo elettronico e alla valutazione statistica della scheda anamnestica dell’utente nonché alla analisi accurata, per esempio, dei registri dei tumori.
Servirà tantissimo a ciò che nel Paese non si è fatto più da decenni: la rilevazione dei fabbisogni epidemiologici e dei rischi epidemici, sui quali programmare e redigere la mappa degli interventi di prevenzione. Sarà utile nella chirurgia, ad opera della robotica che diventerà sempre più assistita dalla IA, che diventerà sempre più perfezionata e precisa.
Tralasciando tutte le altre convenienze, sarà indispensabile evitare – e qui nelle previsioni dell’IA act che l’UE sta completando – che l’automatismo autodeterminante rovini il nostro sistema di cure primarie. Principalmente, quell’assistenza di famiglia che sta via via peggiorando il suo prodotto. Dalle condotte, vissute in contemporaneità con i cosiddetti “medici della mutua” retribuiti a notula, si è passati ai medici di famiglia convenzionati che, con il passato pericolo di avere difficoltà a raggiungere i massimali, hanno perso lo smalto dell’assistenza personalizzata. Una variazione che ha fatto male alla collettività, a quelle persone che con questo sistema si sono invecchiate.
Ebbene, tra l’ingresso a regime dell’Intelligenza Artificiale e un siffatto servizio di prossimità c’è da pensare l’inserimento di qualche metodologia che si contrapponga a che il cittadino diventi sempre di più un numero spersonalizzato, dal quale desumere dati epidemici e inventariare la rispettiva domanda di salute, magari incentivando così l’offerta privata. Uno strumento, dunque, che dovrà essere utile a produrre quei dati essenziali per generare, finalmente, una programmazione dell’assistenza territoriale funzionale al soddisfacimento del fabbisogno distrettuale sino ad ora un illustre sconosciuto,
Cosa fare
Insomma, sono a rischio l’umanità e le ideologie di protezione sociale, quelle che hanno alimentato quel mondo che abbiamo il dovere di proteggere nell’interesse delle generazioni che verranno.
Rimane qui ovvia l’assenza di ogni genere di volontà di volersi contrapporre all’evolversi della scienza in tal senso. Occorre tuttavia essere in grado di preparare il terreno umano, tanto da renderlo permeabile ai semi e capace di generare una pianta idonea a gestirne gli effetti e le ricadute nonché di risolvere i problemi connessi ad essa IA. Primi fra tutti quelli di tipo giuridico, con priorità per la tutela della persona umana e l’individuazione delle responsabilità conseguenti a danni provocati.
Ci si augura una profonda sinergia tra le scienze informatiche, del diritto e della filosofia, nonché una regolamentazione europea continua che tenga al centro la tutale della persona più debole.
Fonte: QuotidianoSanità.it