Cagliari, sensibilizzare la comunità su rischi e pregiudizi etici introdotti dai modelli di Intelligenza Artificiale, Filippo Marras, ingegnere: “Regolamentare i sistemi “per evitare che si riproducano discriminazioni ed esclusioni a sfavore della collettività”. Una esposizione, che non ha scopo di lucro, sull’attualissimo argomento che intende sensibilizzare la comunità su rischi e pregiudizi etici introdotti dai modelli di Intelligenza Artificiale. Nato a Cagliari e residente a Selargius, classe 1972, Marras figlio di una artista esperta in lavorazione della ceramica e pittura ad olio, si è da sempre interessato alle materie scientifiche e all’informatica, laureandosi a pieni voti con lode in Ingegneria Ambientale. Dopo un dottorato di ricerca si dedica ai temi delle energie rinnovabili, cambiamenti climatici e sviluppo sostenibile, argomenti di cui tratta tuttora quale funzionario tecnico nell’amministrazione regionale. Da circa due anni si appassiona agli strumenti di Intelligenza Artificiale applicati al mondo dell’arte, proponendo alcune mostre tematiche a Cagliari. Attraverso il supporto di modelli su base Al ha realizzato alcuni cortometraggi e la copertina di un romanzo noir. A Novembre 2023, durante il festival letterario “RainBook” sperimenta per la prima volta un dialogo fra una Drag Queen in carne e ossa e una digitale. Una nuova esposizione, quindi, dal 28 febbraio, presso Rainbow City via Torino 13, Cagliari, le opere presentate in “b.l.A.s.” vogliono indagare sulle problematiche e i rischi generabili da algoritmi non inclusivi, ma allo stesso tempo restituiscono un “riscatto” del popolo dei “non rappresentati”, attraverso una serie di “foto mai scattate”, generate dalla stessa intelligenza artificiale forzandone vincoli sintattici e regole semantiche.
“L’I.A. avrà una innegabile influenza sulle nostre vite, in modo capillare, anche in settori ed usi per i quali oggi non siamo pienamente consapevoli: dall’utilizzo quotidiano degli smartphone, alla medicina e salute pubblica, alle pratiche di finanziamento, alla legalità, all’arte e alla cultura. Gli algoritmi di apprendimento dell’intelligenza artificiale vengono utilizzati per addestrare le reti neurali mediante l’osservazione di una enorme quantità di dati non strutturati (es. fotografie, testi, filmati, dati ambientali). Se i dati di addestramento contengono dei preconcetti – e tutti i dati ne contengono, in quanto riferiti ad informazioni sull’uomo “medio” gli algoritmi addestrati ne amplificheranno gli effetti generando stereotipi, pregiudizi, e rafforzando dei veri e propri bias cognitivi.
Pensiamo che questo non ci riguardi, ed invece verremo proiettati in un sistema di decisioni dove un bias potrà fare la differenza fra “essere dentro” ed “essere fuori”.
Gli utenti più vulnerabili alle distorsioni di queste anomalie sono senz’altro quei segmenti di popolazioni che risultano meno “rappresentativi” nelle fasi di addestramento algoritmico: le minoranze entiche, sociali, culturali e religiose, i diversamente dotati, le comunità LGBT, gli emarginati, i cittadini periferici.
Per queste ragioni, oggi più che mai, l’utilizzo di questi sistemi va regolamentato a livello governativo (si pensi all’AI ACT adottato dall’Unione Europea), anche attraverso l’utilizzo dell'”algoretica”: disciplina che indaga sui problemi etici creati dagli algoritmi per evitare che si riproducano discriminazioni ed esclusioni a sfavore della collettività”.