Frank è sordo (alle norme giuridiche) ma non è cieco

Vincenzo Pietrogiovanni

Professore associato, Università di Lund

L’algoritmo è una delle tecnologie alla base dei sistemi di cosiddetta intelligenza artificiale (IA), ossia di un modello sociale nuovo – definito da Frank Pasquale Black Box Society. Nell’organizzazione dei fattori della produzione, l’utilizzo dell’algoritmo e del machine learning si traduce nel cosiddetto algorithmic management – la gestione del personale affidata sostanzialmente ai computer. 

Per i suoi propugnatori, i processi di selezione e gestione del lavoro basati su algoritmi sono più efficaci poiché riducono drasticamente i tempi ed evitano l’intervento umano, a volte fallace e spesso affetto da emozioni e pregiudizi.  Molti osservatori, tuttavia, hanno da subito espresso preoccupazione: gli algoritmi possono rafforzare i modelli esistenti di discriminazione, creare effetti discriminatori non intenzionali, o addirittura mascherare volontariamente forme subdole di discriminazione trincerandosi dietro la neutralità dei numeri e la cecità degli algoritmi. Anche Solon Barocas e Andrew D. Selbst ammettono che tra le diverse modalità in cui può verificarsi una discriminazione algoritmica c’è esattamente l’impiego degli algoritmi per fini discriminatori in modo volontario.

La retorica degli algoritmi vuole che questi siano neutrali, perché basati sui numeri, ma il fatto che gli algoritmi usino i numeri, non li rende scienza esatta. Gli algoritmi, in realtà, usano dati rappresentati da numeri: i dati sono porzioni d’informazione potenzialmente soggettive (quando non addirittura preconcette, false o manipolate). Gli algoritmi, inoltre, sono creati da esseri umani, i quali decidono quali dati usare e come pesarli.

In definitiva, la retorica degli algoritmi è un tipico esempio di mathwashing

Per comprendere quanto cruciali per la nostra vita e per la nostra democrazia siano i sistemi di intelligenza artificiale, è sufficiente menzionare i noti casi Snowden, Cambirdge Analytica e Brexit, nonché, ovviamente, il fenomeno dei suprematisti bianchi americani e le fake news di Donald Trump. Sarebbe il caso di riflettere sulle connessioni tra IA e regimi autoritari, partendo magari da un percorso storico sul ruolo del calcolo computazionale di IBM nella gestione dei lager nazisti, o sull’efficienza tecnologica nella razzializzazione del Sud Africa ai tempi dell’apartheid. Ma ci vorrebbero ben altri luoghi e tempi per queste riflessioni.   

Quanto centrali siano gli algoritmi per il lavoro, non solo per le piattaforme, è invece questione che va ribadita qui con forza. Da un lato, è in atto un processo di uberizzazione dell’economia che spinge molti settori ad adottare il taylorismo 2.0 insito nel modello di business di imprese come Uber, per l’appunto, e Deliveroo. Ma questo processo di catalizzazione della precarietà a mezzo di tecnologie digitali, dall’altro lato, è solo una parte di una più ampia ed articolata – e per certi versi, molto più dirompente – massimizzazione del processo di estrazione del profitto dal lavoro. Gli algoritmi ed il machine learning si stanno radicando anche in altri settori, dai servizi al manifatturiero. 

Attraverso un cluster di dispositivi digitali interconnessi, i datori di lavoro sono ormai in grado di controllare ogni movimento e spostamento dei lavoratori, il loro tono di voce, lo sguardo e le espressioni del volto. 

Le nuove tecnologie stanno mutando radicalmente la dimensione spaziotemporale dei luoghi di lavoro. Per i rider, i luoghi di lavoro sono le città o parti di esse, per i nuovi operai dell’Industria 4.0 vi sono i cosiddetti cyberphysical workplace – luoghi di lavoro in cui software ed algoritmi (il virtuale) sono complementari agli hardware fisici, le macchine, i robot, i computer, i braccialetti o i visori di realtà aumentata. Per entrambi, il tempo di lavoro è ormai calcolato minuziosamente sul tempo effettivamente lavorato e valutata da scrupolosi ed invasivi strumenti di performance metrics.

Ma il pericolo più profondo è che l’algoritmo e, più in generale, l’intelligenza artificiale sono uno strumento normativo: questi, infatti, funzionano principalmente come congegni atti a produrre norme da considerare lo standard al quale adeguarsi per massimizzare le performance dei lavoratori. Questi congegni, inoltre, utilizzano i medesimi standard anche per dirigere, controllare ed eventualmente sanzionare i lavoratori.

Dobbiamo pensare, insomma, all’intelligenza artificiale come ad un codice disciplinare – unilateralmente finalizzato alla massimizzazione del profitto aziendale. Ma non basta: si tratta di un codice disciplinare, per così dire, self-learning (in grado, cioè, di modificarsi automaticamente) e self-executing (in grado di applicarsi da sé). È uno strumento di ortopedia sociale ben più potente del Panopticon di Bentham, che ci dice molto su quanto avanzata sia oggi la microfisica del potere nelle nuove organizzazioni produttive digitalizzate.

È evidente che un’entità normativa siffatta non funziona in un vuoto giuridico, politico e culturale – questi sono gli ambiti tutti importanti in cui contestualizzare l’intelligenza artificiale.

Sul piano giuridico, quando parliamo dell’algoritmo potremmo iniziare a definirlo come un sistema normativo algoritmico, il quale cerca di imporre una sua autonomia rispetto ad altre norme, incluso l’ordinamento giuridico tout court. Esso dimostra già evidenti segni di conflitto col diritto del lavoro esistente, spesso inadatto tutelare le persone che lavorano dall’algorithmic management. Quanto emerge oggi da questo webinar dà conto dell’importanza del diritto antidiscriminatorio, ma vi sono altre aree altrettanto importanti ma che si rivelano non particolarmente adatte a reggere l’impatto dell’IA:  la regolamentazione dell’orario di lavoro, innanzitutto, soprattutto a livello europeo (si vedano le recenti sentenze della Corte di Giustizia Yodel e Federación de Servicios de Comisiones Obreras (CCOO) vs Deutsche Bank); la normativa in materia di salute e sicurezza sul lavoro (con forti carenze sui rischi psicofisici legati ad un luogo di lavoro cyberfisico); infine, ovviamente, la normativa in materia di privacy.

Non è possibile sviluppare oltre questo ragionamento, ma consentitemi di dire qualcosa sulla privacy. Sicuramente, con l’entrata in vigore del GDPR, la tutela dei dati personali in Europa è ora all’avanguardia nel mondo, eppure anch’essa non si rivela particolarmente efficace a proteggere i lavoratori dai rischi dell’algorthmic management

Il GDPR promuove in ambito europeo alcuni principi come la trasparenza, l’integrità, la responsabilità e la confidenzialità, e fonda la propria disciplina su prescrizioni che regolano ogni passaggio della gestione dei dati personali: dalla raccolta all’archiviazione, dallo scopo al controllo del trattamento.  L’Art. 22 impone il divieto di decisioni prese con il solo ausilio degli algoritmi. Per l’ordinanza in oggetto, è interessante notare come questa tutela si applica anche nei casi di profiling. Poi vi è la valutazione di impatto sulla protezione dei dati personali di cui all’articolo 35 del GDPR, che deve essere svolta in casi ben specifici, come ad esempio quando “un trattamento che preveda l’uso di nuove tecnologie” possa “presentare un rischio elevato per i diritti e le libertà individuali”. Però, l’art. 22 stabilisce delle eccezioni: il divieto non si applica se la decisione automatizzata (i) è basata sul consenso esplicito dell’interessato; (ii) è necessaria per un contratto tra la persona fisica e il titolare del trattamento; o (iii) questo è autorizzato dalla legge. 

Inoltre, questa tutela in cosa si traduce? In un diritto di spiegazione in capo ai soggetti coinvolti dalla decisione in base al quale sia possibile richiedere un chiarimento rispetto a qualsiasi risultato individuato con l’ausilio dell’intelligenza artificiale? La fattibilità pratica di questo diritto è assai dubbia: molto spesso è tecnicamente impossibile riscostruire passo dopo passo come l’algoritmo generi una decisione. 

Infine, il GDPR si applica solo quando il processo decisorio algoritmico prenda in considerazione dati personali, e spesso gli algoritmi attingono a dati non immediatamente considerati personali. Ancora di più, vi è un potenziale cortocircuito all’interno delle norme di protezione delle “categorie speciali” di dati, come i dati riguardanti l’origine etnica o lo stato di salute. Come evitare discriminazioni razziali o sullo stato di salute in azienda quando questi dati sensibili non dovrebbero nemmeno essere raccolti dall’azienda stessa?

Insomma, molto dell’algorithmic management punta dritto all’automazione del lavoro, non nel senso che il lavoro viene svolto da macchine che sottraggono impiego agli uomini, ma nel senso che il lavoro viene svolto da uomini a cui le macchine sottraggono autonomia, dignità e salute.

Cosa fare? Sicuramente studiare molto e bene, per individuare cosa è necessario modificare nel diritto del lavoro per aggiornarlo alle nuove sfide dell’intelligenza artificiale. 

I sindacati hanno un ruolo fondamentale: molti lo hanno compreso bene e lo stanno già praticando. Molte aziende tech sono colossi statunitensi che praticano sistematicamente lo union busting all’interno dei propri luoghi di lavoro, ma qualcosa sta cambiando: si vedano le azioni collettive dei lavoratori di Amazon e un piccolo ma notevole inizio di sindacalizzazione dei lavoratori di Google.

In via, più ampia, oltre le questioni prettamente lavoristiche, ci sono molte proposte sul campo, dalla pubblicizzazione delle piattaforme alla collettivizzazione degli algoritmi alla regolamentazione degli algoritmi come bene comune. 

Una proposta credo condivisibile che supera la radicalità di suddette proposte (che comunque mi vedono personalmente favorevole) potrebbe essere quella di regolare l’intelligenza artificiale come si regolano prodotti ad alto rischio: il miglior esempio è forse quello dei farmaci, con autorità di esperti indipendenti che ne valutano il design, il funzionamento e l’impatto anche a lungo termine. La recente bozza di regolamento proposta dalla Commissione Europea sembra andare in quella direzione, nonostante evidenti  lacune e aporie, soprattutto sul fronte giuslavoristico.

Anche qui, le scienze giuridiche in generale ed il diritto del lavoro in particolare, possono giocare un ruolo fondamentale; ma a patto che essi dialoghino con altre scienze, quelle tecniche, ma anche le altre scienze sociali. Come per l’emergenza climatica, anche per i rischi dell’IA, ne usciamo solo attraverso un approccio olistico!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *