L’etica dell’intelligenza artificiale – (Quarta parte).

di Pasquale Martucci – Sociologo.

Le nuove tecnologie devono essere al servizio della persona umana, al fine di migliorarne le condizioni di vita. L’uomo, nella visione antropocentrica, resta l’elemento centrale da difendere, in un mondo dominato sempre più dalla tecnologia, per una migliore crescita del progresso collettivo.

Ed allora, lo sviluppo dell’Intelligenza Artificiale non può prescindere da un governo antropocentrico dell’innovazione. La sfida è nel definire il confine di fronte al crescente utilizzo dell’innovazione digitale e dell’automazione tecnologica. Esiste la non neutralità dell’algoritmo, la cui progettazione, se non opportunatamente controllata, rischia di amplificare i pregiudizi a cui è assoggettata la mente umana.

Per gli italiani l’IA è una tecnologia positiva ma va tenuta sotto controllo. Un sondaggio (CAWI 29 novembre – 1 dicembre 2023) rileva due classificazioni antitetiche:

IA negativa – metterà a rischio alcune forme di lavoro; provocherà dipendenza dalle macchine; toglierà competenze e responsabilità agli uomini; affiderà il potere a pochi;

IA positiva – migliorerà la qualità dei prodotti; svolgerà compiti faticosi; aumenterà la conoscenza; diffonderà informazioni; aiuterà nelle decisioni.

Le preoccupazioni principali sono legate al lavoro (36 % di intervistati) e alla dipendenza dalle macchine (34 %). Tutti gli altri indicatori in positivo o in negativo sono espressi da circa 1/4 e 1/5 del campione. Più della metà degli italiani 54 % esprime un giudizio positivo della IA, anche se va certamente tenuta sotto controllo. La preoccupazione maggiore riguarda proprio il lancio del ChatGPT, l’intelligenza artificiale generativa che imita la creatività umana.

La strada da percorrere è la regolamentazione, partendo dalle infrastrutture digitali, dal capitale umano e dal mercato del lavoro, dalle forme innovative in economia, dai problemi etici.

Una struttura normativa è offerta dal GDPR – General Data Protection Regulation o Regolamento europeo n. 679/2016 (in vigore nel 2018, ma inapplicato per la difficoltà dei Paesi europei di raggiungere accordi efficaci con i giganti del mercato dei dati digitali), oggi divenuta Artificial Intelligence Act. È un testo frutto del lavoro di due anni per far coesistere sicurezza e libertà, con salvaguardie da rispettare per chi usa e sviluppa l’IA: è essenziale che l’identificazione biometrica sia limitata ai casi di crimini gravi (violenze e terrorismo); oppure che ci sia l’obbligo di indicare l’uso di false immagini, con multe significative per le violazioni dei Regolamenti.

È la sfida per rispondere ai programmi rivoluzionari ChatGPT ed evitare falsificazioni da parte di persone, gruppi organizzati, aziende private che condizionano l’opinione pubblica per trarne vantaggi in termini di denaro e potere. Al centro c’è la difesa della conoscenza, la protezione dei dati personali, la garanzia della qualità delle informazioni. Il Regolamento intende garantire sicurezza e rispetto dei valori comuni: esso dovrà essere approvato entro la fine della legislatura (giugno 2024) ed entrerà in vigore progressivamente nei due anni successivi.

Saranno vietati: i sistemi di credito sociale (assegnazione di voti alle persone in base ai loro comportamenti); i sistemi di classificazione delle persone basati su razza, orientamenti religiosi); i sistemi di riconoscimenti biometrico (volti, impronte … autorizzati per reati legati a violenza sessuale e terrorismo); gli algoritmi che riconoscono le emozioni (in scuole e luoghi di lavoro, ad eccezione di contesti di sicurezza); i giocattoli con assistenza vocale (che incoraggiano comportamenti pericolosi nei bambini).

Immagine di copertina creata dalla tecnologia con Intelligenza Artificiale.

Fonte: Si ringrazia l’Ufficio Stampa dell’Accademia dei Parmenidei.


Scopri di più da Onda Lucana

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.