portati avanti dal Dipartimento di Difesa americano. Il Pentagono ha annunciato questi principi l’anno scorso, a seguito di uno studio di due anni commissionato dal Defense Innovation Board, un comitato consultivo di importanti ricercatori e uomini d’affari in campo tecnologico istituito nel 2016 con il fine di creare un “legame” tra Silicon Valley ed esercito degli Stati Uniti. Il Board è stato presieduto fino al settembre 2020 dall’ex CEO di Google Eric Schmidt. Eppure, alcuni critici mettono in dubbio che il lavoro prometta una riforma significativa. Durante lo studio, il Board consultò una serie di esperti, compresi i maggiori critici dell’uso dell’intelligenza artificiale in campo militare (compresi gli organizzatori delle proteste contro il Project Maven in Google).
Le lacune delle linee guida
Tutta la partita, lo si può ribadire più e più volte, si gioca sul consenso che il mondo delle aziende private darà alle linee guida del Dipartimento di Difesa USA. Ove non fossero rispettate non sarebbero seguite. È chiaro che alcune aziende – per evitare vincoli – non le seguiranno; ovviamente queste realtà non sono l’obiettivo di punta del governo USA. Bisogna puntare ad essere realistici su ciò che tali linee guida possono e non possono fare. E qui casca l’asino. Inoltre, le linee guida federali non dicono nulla, ad esempio, su questioni “particolari” come l’uso di armi autonome (ossia senza la presenza dell’uomo), una tecnologia che alcuni attivisti sostengono dovrebbe essere vietata tout court. Tuttavia, l’obiettivo delle linee guida del Pentagono è quello di rendere più facile costruire un’intelligenza artificiale che soddisfi i criteri regolamentari federali. E parte di questo processo è quello di far emergere qualsiasi preoccupazione o suggerimento che gli sviluppatori di terze parti possono avere sul punto. Una valida applicazione di queste linee guida, ad esempio, sarebbe quella di decidere di non perseguire un particolare sistema e di procedere con uno diverso, optando per una soluzione a scapito di un’altra.
Le linee guida in esame possono aiutare a rendere un progetto più trasparente per coloro che ci lavorano (almeno in teoria). Una delle principali critiche mosse dai dipendenti di Google che, come accennato, protestarono nel 2018 per la collaborazione tra la loro azienda e il mondo militare statunitense, era dovuta proprio alla mancanza di linee guida e, in generale, a un’assenza di trasparenza. Con questa “mossa regolamentare”, è utile ribadire, si cerca di attrarre la collaborazione dei colossi puntando alla valorizzazione degli aspetti etici dell’intelligenza artificiale applicata al campo militare USA.
Conclusioni
Vi è ovviamente ancora della strada da fare prima che il Dipartimento della Difesa USA ottenga la fiducia dei colossi Big Tech. Il problema risiede anche nel fatto che alcune delle formulazioni presenti nelle linee guida sono aperte a diverse interpretazioni. Per esempio, nelle linee guida si dichiara che il Dipartimento della Difesa USA prenderà le misure necessarie per ridurre al minimo i pregiudizi involontari che possono inficiare l’intelligenza artificiale, lasciando deliberatamente fuori tutti i pregiudizi intenzionali. Particolarità queste che possono portare a differenze interpretative rilevanti. D’altronde, “the devil is in the details”.
Fonte: Network Digital 360