L’Umanità Aumentata
Non passa giorno in cui non vi sia la notizia di una lettera aperta o di un dibattito accalorato sull'impatto che l'Intelligenza Artificiale (IA) avrà sul mondo. C'è una crescente preoccupazione che questa nuova tecnologia possa ...
Non passa giorno in cui non vi sia la notizia di una lettera aperta o di un dibattito accalorato sull’impatto che l’Intelligenza Artificiale (IA) avrà sul mondo. C’è una crescente preoccupazione che questa nuova tecnologia possa dominare ogni aspetto della nostra vita e persino portare all’estinzione dell’umanità. Anche il fondatore di Open AI, la società che ha sviluppato Chat GPT, Sam Altman, ha espresso la necessità di regole per mitigare gli effetti negativi dell’IA e prevenire scenari apocalittici.
In alcuni casi, come quello di Elon Musk, la richiesta di sospendere lo sviluppo dell’IA potrebbe nascondere un desiderio di recuperare il divario nei confronti di società che risultino più avanzate in questo campo tuttavia è importante riconoscere che esistono già leggi e normative che regolano l’uso dell’IA in vari settori anche se il rapido avanzamento tecnologico richiede un costante adeguamento. In Europa, ad esempio, l’AI Act è al momento in discussione presso il Parlamento Europeo per richiedere ai sistemi ad alto rischio basati su questa tecnologia trasparenza, responsabilità e controllo umano sulle decisioni prese dai sistemi automatizzati.
Un caso significativo che evidenzia la complessità dell’IA è quello dell’auto a guida autonoma. Nonostante i rapidi progressi tecnologici, la diffusione di queste vetture è ancora limitata non tanto per le sfide tecniche, ma per gli aspetti normativi ed etici che sorgono. Una delle principali questioni è la determinazione della responsabilità in caso di incidenti. Chi è il responsabile? Il software, il guidatore o il produttore dell’auto? Questo solleva interrogativi legali ed etici che richiedono risposte chiare e norme adatte a una guida autonoma sicura e responsabile.
In fondo, l’errore comune è pensare che il futuro sia dominato esclusivamente dalla tecnologia. In realtà, le principali questioni legate all’Intelligenza Artificiale, come nel caso dell’auto a guida autonoma, sono di natura strettamente umana. Si tratta di scelte, anche quando hanno a che fare con la norma, di carattere in ultima analisi, etico. “Quale etica?” è dunque la domanda da porsi.
Il caso legale che si è verificato nel Regno Unito tra Getty Images e una società che utilizza l’IA per generare immagini rappresenta un importante punto di svolta. La causa non si concentra sull’output o sull’uso del software da parte degli utenti, ma si basa sull’addestramento del modello di intelligenza artificiale utilizzando contenuti di proprietà di Getty Images. Questa sfida evidenzia una area grigia riguardante il diritto d’autore e la trasparenza dei materiali utilizzati per addestrare i modelli di intelligenza artificiale.
Un’altra area problematica dianii questa tecnologia riguarda, come sappiamo noi italiani, l’utilizzo dei dati personali. Nel caso di ChatGPT, che si basa su 75 terabyte di informazioni, l’utilizzo di dati personali al di fuori delle finalità per cui sono stati raccolti solleva preoccupazioni sulla conformità dell’IA alle norme sulla privacy. Sebbene poi OpenAI abbia affrontato in modo più deciso il rischio di risposte sessiste, violente o razziste grazie all’apporto di manual checkers, il rispetto del Digital Services Act dovrà essere verificato nella pratica, soprattutto nella lotta contro la disinformazione sui social media. È importante valutare la trasparenza degli algoritmi e le pratiche competitive imposte dal Digital Markets Act quando i servizi offerti da ChatGPT diventeranno parte dei gatekeepers riconosciuti da questa legge.
L’Intelligenza Artificiale è qui per restare e sarà dunque necessario affrontarne le implicazioni nel mondo dell’istruzione, delle professioni, delle aziende e delle organizzazioni. Tuttavia, per utilizzarla in modo sostenibile, è fondamentale che l’ambito normativo che la governa sia chiaro e privo delle incertezze attuali. Dobbiamo fare i conti con queste sfide in modo responsabile per garantire un utilizzo duraturo dell’IA.