Sabato 16 dicembre parlamento, consiglio e Unione Europea si sono accordati sul testo finale per la regolamentazione dell’intelligenza artificiale. Un accordo selettivo, che consente l’utilizzo di strumenti di controllo vietati per i cittadini europei, ai migranti. L’Ue ha messo al bando il sistema di riconoscimento delle emozioni, ma solo nei contesti come quello lavorativo o dell’istruzione, mentre è stata concessa un’esenzione nei confronti del controllo delle migrazioni. Nonostante l’articolo 5 del regolamento affermi che questi sistemi comportano una violazione irreversibile dei diritti umani, senza alcuna possibilità di mitigazione, questa violazione diventa accettabile nei confronti dei migranti. La vita di alcune persone vale più di quella di altre. Ecco allora che torna in gioco BorderCtrl, un sistema finanziato con 4,5 milioni all’interno del programma di ricerca europeo Horizon 2020 e che tramite la lettura delle emozioni dovrebbe capire se una persona sta dicendo o meno la verità. Una moderna macchina della verità ben poco affidabile secondo gli esperti e a cui verranno assegnati compiti estremamente sensibili e con un impatto irreversibile per la libertà personale, come la concessione o meno dell’asilo.
Siamo di fronte ad un salto di paradigma più forte dello stesso avvento di internet. Questa tecnologia mette in mano a chi detiene le leve del potere uno strumento di controllo e orientamento senza precedenti.
Potremmo non essere più in grado di distinguere secondo le categorie vero/falso le narrazioni che ci verranno proposte.
Capire per difendersi e contrattaccare è una scommessa cruciale.

L’info di Blackout ha parlato con Matteo, studente di filosofia e informatica, di IA Act, ma anche delle dinamiche di controllo da Panopticon che l’IA consente.