Intelligenza artificiale e riconoscimento facciale, perché gli esperti invitano alla cautela

Chi non progetta la sicurezza, programma il fallimento.
Kevin Mitnick

L’emergenza sanitaria sta stimolando sempre più l’uso delle tecnologie snooping basate sui Big Data e sulla Artificial Intelligence (AI), processi che tendono alla caratterizzazione di molteplici patterns sociologici; benché questi strumenti hightech tentino una rimodellazione del sistema di governo sociale – pensiamo per un attimo alle possibili forme di high tech surveillance – la tecnologia digitale sta mostrando, però, tutti i suoi limiti quanto a capacità ed efficacia, oltre che un serio problema in termini di sicurezza dei dati e impatto sulla privacy delle persone.

Abbiamo osservato come anche la migliore tecnologia possibile, supportata da una serie di protocolli normativi, fatichi non poco nell’identificare gli autori di un reato; fguriamoci poi scoprire i positivi al Covid-19, ovvero di altre malattie virali che pure hanno suscitato un allarme epidemico, come Ebola o la Sars; ad esempio, in questi ultimi due casi, l’elemento fondamentale che ha decisamente aiutato i sanitari è stato proprio il quadro clinico, piuttosto che quello tecnologico, poiché la sintomatologia era marcatamente più severa e manifesta.

Muovendo da queste iniziali considerazioni, appare evidente come non esista una soluzione tecnologica certa per gestire un’emergenza pandemica, idonea, peraltro, a sostituire efficacemente un piano sanitario codificato e di più ampia portata; come servirà a poco una sorveglianza digitale di massa, tramite l’uso di sensori, app e algoritmi, poiché l’interrogativo è sempre lo stesso: ma funzionano poi davvero?

D’altra parte, le discussioni che si susseguono in questi mesi all’interno della comunità scientifica europea – ma anche oltreoceano – in merito al compromesso nel poter utilizzare la migliore soluzione tecnologica possibile per contrastare l’ondata infettiva da Sars-Cov-2 bilanciandola al rispetto della privacy, ci dimostrano sempre di più come certe soluzioni tecnologiche rappresentino, in linea di principio, quella insostenibile leggerezza dei diritti fondamentali delle persone, ovverosia, la reale intromissione nella privacy degli individui.

In tal senso, all’interno di un sistema giuridico come il nostro, possiamo ritenere etico chiede ai propri cittadini di rinunciare ad un diritto fondamentale in cambio di un falso dovere tecnologico, seppur riferito alla propria salute? Vale davvero, nella fattispecie, il machiavellico assunto che “il fine giustifica i mezzi”?

Si dibatte continuamente di contact tracing (CT), di facial recognition (RF), di come ridurre il più possibile la compressione del diritto alla privacy nell’ambito delle applicazioni anti-covid; ma soprattutto delle opportunità di tracciare i cittadini affetti da patogeni utilizzando il loro volto, i loro dati biometrici, insomma, le informazioni più sensibili contenute nell’universo della propria sfera personale, laddove neppure un fenomeno pandemico – seppur grave – dovrebbe entrare.

Come è noto, il Regolamento UE 2016/679 (GDPR) stabilisce, all’art. 9 – par. 1, il divieto di “trattare dati personali che rivelino l’origine razziale o etnica… nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute… l’immagine facciale o i dati dattiloscopici”.

Peraltro, nel Considerando 51 del Regolamento, si legge ancora: “il trattamento di fotografie non dovrebbe costituire sistematicamente un trattamento di categorie particolari di dati personali, poiché esse rientrano nella definizione di dati biometrici soltanto quando saranno trattate attraverso un dispositivo tecnico specifico che consente l’identificazione univoca o l’autenticazione di una persona fisica…”

Pur tuttavia, il fatto che le applicazioni di intelligenza artificiale rendano possibile il raggiungimento di un tal fine – il che, nel caso delle applicazioni basate sul riconoscimento facciale, è ancora tutto da dimostrare – non significa che qualsiasi istituzione pubblica, invocando l’alibi di un’emergenza, vi faccia ricorso in maniera disarticolata da quelle che sono le garanzie costituzionali e i diritti alla privacy dei cittadini: perché in questo modo si rischierebbe di scadere pericolosamente in una pandemia socio-giuridica, ben più devastante di quella sanitaria!

Sul punto, oltre alla Commissione europea, anche il Comitato statunitense per le politiche tecnologiche ACM (U.S. Technology Policy Committee) chiede da tempo il bando sull’uso delle tecnologie di riconoscimento facciale, sia in ambito privato che istituzionale, e proprio in nome di quel reasonable doubt che l’uso di tali applicazioni FR, non imparziali, ha posto in essere – pesa molto l’incidente informatico del febbraio 2019, che portò la Clearview AI a un pesante data breach – su tematiche sociali, etniche, razziali, errori questi caratterizzanti il limite degli algoritmi – il cd. pregiudizio o bias – contenuti nei software FR che vanno ben oltre il semplice inconveniente da funzionamento.

Allo stesso Committee farà eco una missiva del senatore Markey, indirizzata al CEO di Clearview, società specializzata nello sviluppo di tecnologie facciali basate sulla intelligenza artificiale; il membro del Senato US chiederà chiarimenti proprio sulla sicurezza dei loro software di riconoscimento, utilizzabili anche a livello statale, funzionali per il tracciamento dei contagiati e la ricostruzione puntuale dei loro contatti; informazioni, queste, necessarie per interdire l’accesso ai luoghi pubblici dei positivi al covid.

Tornando agli errori, come si sa, a questi non c’è mai fine: e dopo i pregiudizi arrivano i falsi positivi. In Inghilterra, ad esempio, si è scoperto che le correlazioni fatte dal sistema di riconoscimento facciale usato dalla polizia londinese per dare un nome ai rei, ebbene, nel 98% dei casi erano sbagliate. Un fatto non da poco, che fu motivo di grande ansia sociale e di un pesante interrogativo giuridico: si possono schedare le persone senza che costoro abbiano commesso alcun reato, classificandole come criminali, solo per un congenito errore di calcolo di un algoritmo? Può essere tollerato tutto ciò in una democrazia compiuta e costruita sulla garanzia della presunzione di innocenza?

Tuttavia, per rispondere a questi problemi, va fatta prima una riflessione: negli ultimi anni, è stata la classe politica la vera responsabile di questa grande illusione digitale, poiché, non avendo affrontato compiutamente la tematica, ne doveva interdire l’uso, almeno fin quando gli standard e le normative avessero garantito una robusta affidabilità dei sistemi di FR, come ad esempio, la loro trasparenza tecnologica in fatto di trattamento e uso dei dati personali per mezzo di algoritmi, una perfetta governance gestita con precise linee di condotta sulla raccolta e conservazione dei dati limitate alle sole finalità del trattamento, o una attenta gestione del rischio, riducendo al minimo le vulnerabilità, applicando rigorosi protocolli di gestione del rischio e robuste misure di sicurezza a garanzia dei dati personali trattati.

Ora, se non bastavano i dubbi fin qui analizzati, in piena emergenza epidemica si è pensato bene di ricorrere ancor di più alla tecnologia, affidandosi ai sistemi di FR implementati da sensori infrarossi idonei alla lettura della temperatura corporea!

A questo proposito c’è da sottolineare come gli esperti del settore industriale impegnati nello sviluppo della sensoristica FLIR, siano da sempre molto cauti nell’affrontare il tema delle comuni telecamere utilizzate come scanner in campo medico, e per un banalissimo motivo: in un mercato improvvisato si propongono sistemi non progettati per uso sanitario.

Ora, che la corsa ai termoscanner facciali sia divenuta un fallace rimedio nell’emergenza Covid-19 è cosa nota, anzi, sembra la classica “disorganizzazione organizzata” del solito DPCM; insomma parliamo, purtroppo, di strumenti inadeguati, ma garantiti dall’ormai classico è per l”a vostra sicurezza”, paradossale locuzione diventata più virale del patogeno stesso!

Al riguardo, è noto a tutti che misurare in maniera affidabile la temperatura corporea di una persona in assenza di contatto fisico, è una faccenda dannatamente complessa; banalmente, tutti sappiamo come uno stato febbrile di 37,5° potrebbe indicare un segnale della positività al Covid-19, per quanto simili temperature corporee possano testimoniare anche un normalissimo stato allergico, come anche un’indisposizione mensile più fastidiosa del normale.

Del resto, parliamo sempre di sistemi di acquisizione che presentano tolleranze, nelle letture, decisamente alte (+ 1-3 gradi) per considerare temperature che abbiano un valore medico apprezzabile, mentre si è stimato, dai dati fin qui raccolti e analizzati, che tali misurazioni sono veritiere solo nel 50% dei casi.

Decisamente più apprezzabile è la febbre misurata sul mercato di settore: nel primo trimestre di pandemia il fatturato della sensoristica infrarossa ha registrato valori ben oltre i 100 mln di $, un effetto senza precedenti storici!

In conclusione, abbiamo osservato che fronteggiare questa epidemia affidandosi inconsciamente alla tecnologia sia stato un errore, perché come riscontrato sul campo, non esiste, ad oggi, una soluzione tecnologia affidabile, valida nel rispondere e con risultati sanitari apprezzabili; contro il virus sono necessari i tamponi, il tracciamento sanitario manuale dei positivi e dei loro contatti, le restrizioni personali obbligatorie, tutte azioni che dovrebbero rappresentare i cardini di un’appropriata politica sanitaria in un contesto emergenziale.

Le risposte alla pandemia non posso essere riposte in un’app o, peggio, in un tablet facciale alla moda; sono le risorse destinate alle politiche sanitarie, le giuste competenze mediche, i preventivi rapporti dei sistemi di informazione della repubblica a fare la differenza.

Infine, la legittimità politica di prendere le giuste decisioni, non troppe, tutte e qualunque; e senza compromessi di sorta.
Ma questa è un’altra faccenda!

 

Articolo a cura di Giovanni Villarosa

Profilo Autore

Giovanni Villarosa, laureato in scienze della sicurezza e intelligence, senior security manager, con estensione al DM 269/2010, master STE-SDI in sistemi e tecnologie elettroniche per la sicurezza, difesa e intelligence.

Condividi sui Social Network:

Ultimi Articoli