TECNICA | SCIENZA | ARTE

Organo di informazione dei Periti Assicurativi

Ritmo e algoritmo

Da alcuni giorni, in concomitanza con la fine dell’anno da poco trascorso e l’inizio di quello appena arrivato, il settore della tecnologia legato all’Intelligenza Artificiale (AI), registra una certa effervescenza per l’accadimento di svariate circostanze, alcune delle quali in particolare, sono destinate ad incidere sulle modalità di sviluppo ed utilizzo di questa innovativa e sempre più diffusa tecnologia.

Iniziamo dal caso che, per lo spessore tecnologico ed economico degli attori coinvolti, il contesto internazionale, la portata risarcitoria assolutamente cospicua e soprattutto per la dinamica delle conseguenze che potrebbe produrre, appare il più rilevante.

Agli sgoccioli dello scorso mese di dicembre, il New York Times (che in seguito per brevità chiameremo “NYT” oppure “editore” o “giornale”), ha intrapreso un’azione legale nei confronti di OpenAI (società proprietaria del sistema di Intelligenza Artificiale generativa denominato ChatGPT) e Microsoft (che sviluppa modelli linguistici di cui si dirà, indispensabili per lo sviluppo dell’AI generativa, nonché proprietaria della quota di maggioranza di OpenAI), per violazione del diritto di autore.

La questione è assai delicata perché avrà un impatto significativo su tutta l’industria dell’AI generativa e anche su quella dei produttori di contenuti. L’Intelligenza Artificiale generativa, è quel sistema complesso artificialmente intelligente in grado di creare, in risposta a specifiche richieste, diversi tipi di contenuti come testi, audio, immagini e video.

La recentissima azione legale del NYT apre un ennesimo fronte della battaglia sull’uso non autorizzato di opere pubblicate per l’addestramento dell’intelligenza artificiale (nello specifico l’addestramento dei “chatbot” di cui si dirà in seguito). E’ facile intuire che sulla causa saranno puntati tutti gli occhi dell’industria e dell’editoria internazionale.

Va detto che già all’inizio del 2023, Getty Images, fra le più note agenzie fotografiche al mondo, aveva avviato un procedimento presso l‘Alta Corte di Giustizia di Londra, contro Stable Diffusion, società titolare di un altro sistema di Intelligenza Artificiale (diverso da ChatGPT). Secondo Getty Images, Stable Diffusion avrebbe catturato online, senza il consenso di chi le ha create, violando perciò il diritto di milioni di artisti, circa 5 miliardi di immagini che sarebbero servite per generare nuove foto e video.

Ma torniamo al caso recente di fine anno. Stando a quanto sostiene l’editore, OpenAI e i grandi modelli linguistici (LLM ossia Large Language Model) di Microsoft, avrebbero utilizzato le opere del NYT per creare prodotti di intelligenza artificiale in concorrenza con esso, minacciando in tal modo la capacità del giornale di fornire un servizio di news. Nel contenzioso promosso, l’editore evidenzia intere parti di una moltitudine di articoli che ChatGPT avrebbe ripreso, parola per parola, dal sito del giornale senza alcuna autorizzazione o verifica preventiva. Evidenziano gli avvocati del NYT come ciò attesterebbe una violazione del diritto d’autore da parte di OpenAI e Microsoft massiva e consapevole.

La condotta denunciata, non solo si limiterebbe all’aver semplicemente riprodotto milioni di copie di contenuti del NYT senza che quest’ultimo avesse mai autorizzato l’addestramento del “chatbot” (ossia del software che simula ed elabora le conversazioni umane, scritte o parlate, consentendo agli utenti di interagire con i dispositivi digitali) di OpenAI, ma si estenderebbe anche alla distribuzione al pubblico di un servizio di informazione il cui contenuto era originariamente a pagamento, entrando in tal modo OpenAI in diretta competizione con lo stesso giornale sul mercato delle news.

Ciò in termini concreti vuole dire per il giornale una perdita di abbonamenti, licenze, pubblicità ed entrate, lo svilimento del giornalismo di qualità oltre ad un calo significativo di reputazione che deriverebbe dalle cosiddette “allucinazioni” (situazioni in cui l’algoritmo, che funziona in base ad un modello statistico, inserisce informazioni false nella sua replica all’utente, creando risposte corrette secondo le regole linguistiche, ma senza nessuna aderenza alla realtà, attribuendole a una fonte, in questo caso al NYT).

Il giornale ha reso noto di avere tentato di trovare un accordo con Microsoft e OpenAi ma di non esserci riuscito (n.d.r. almeno per ora). Il NYT ha chiesto alla Corte del distretto meridionale di New York presso la quale è incardinata la causa, un risarcimento danni non quantificato ma stimabile in alcuni miliardi di dollari.

Nelle settimane antecedenti l’azione legale promossa dal NYT, un altro editore, il tedesco Axel Springel, ha annunciato di aver trovato una sinergia con OpenAI per fornire contenuti del gruppo editoriale agli utenti che ne facessero richiesta. Secondo i termini di questa partnership, enfatizzata da entrambe le parti che l’hanno definita “un evento senza precedenti”, gli utenti che faranno una domanda a ChatGPT riceveranno riassunti di articoli pubblicati dai marchi di Axel Springer, tra cui i quotidiani Bild e Welt. Queste sintesi si baseranno in particolare su articoli che altrimenti richiederebbero un accesso a pagamento.

La causa promossa dal NYT così come anche quella promossa svariato tempo fa da Universal Music contro Anthropic, una start-up dietro la quale vi sono investimenti di Google e Amazon, citata per aver riprodotto illegalmente migliaia di testi di canzoni protette dal diritto d’autore, dovranno stabilire un precedente fondamentale per lo sviluppo dell’AI, la sua modalità di fruizione ed il futuro dell’industria dei contenuti, dovendo sciogliere l’incognita, tutt’altro che agevole, se si sia o meno in presenza di un utilizzo perlomeno improprio di contenuti da parte di ChatGPT. Finora i giganti dell’AI generativa si sono difesi sostenendo che i contenuti utilizzati erano del tipo “Fair Use” (legalmente utilizzabili), una disposizione legislativa dell’ordinamento giuridico degli Stati Uniti d’America (e non solo) che regolamenta, a determinate condizioni, la facoltà di utilizzare materiale protetto da copyright per scopi d’informazione, senza chiedere l’autorizzazione scritta a chi detiene i diritti.

La notizia dell’azione legale promossa dal NYT alla fine dello scorso dicembre, ha seguito di pochi giorni un negoziato a livello europeo, tra Parlamento, Consiglio e Commissione che hanno trovato una difficile quadra sul testo del primo regolamento al mondo, va chiarito non ancora definito e formalizzato, che cerca di gestire l’intelligenza artificiale generativa. Il punto più controverso sul quale dopo molte ore di trattativa è stato trovato un compromesso, è quello relativo alla trasparenza e all’obbligo dei registri per i GPAI (Global Partner on Artificial Intelligence) delle piattaforme, ovvero l’obbligo di comunicare agli aventi diritto quali opere sono state utilizzate per l’addestramento dei Chatbot dando cosi ai titolari del copyright la possibilità di fare opt-out (cioè di non aderire, non consentendo quindi l’addestramento) ai sensi della direttiva sul diritto d’autore oppure chiedere di negoziare una licenza per i diritti esclusivi. Quella della violazione del diritto d’autore è da sempre, dagli albori di Internet, storia consumata ed anche dolorosa, basti pensare alla tragica scomparsa di Aaron Swartz (https://www.passnews.it/2023/12/05/word-wide-web/) di cui a giorni ricorrerà l’anniversario.

Ogni volta che sul mercato si affaccia una nuova tecnologia che offre contenuti in pasto ai propri utenti, si ripresenta puntuale l’aspetto della violazione del diritto d’autore. In Europa, conseguentemente anche in Italia, il primo caso di una certa portata è stata la vicenda nota col nome “pirate bay” (per chi volesse approfondire sul web si trova adeguato materiale) per effetto della quale, in estrema sintesi, i Tribunali iniziarono ad ordinare (siamo ai primi degli anni 2000) la rimozione da diverse piattaforme multimediali, di contenuti protetti da copyright caricati in rete senza il permesso degli autori e/o degli aventi diritto.

L’intelligenza Artificiale, inserita nel più ampio contesto di “progresso della scienza e della tecnologia come via verso la pace”, è stata altresì oggetto, il primo giorno del nuovo anno, del messaggio di Sua Santità Papa Francesco, per la 57° giornata mondiale della Pace. Il documento citato, di elevata caratura morale oltre che di notevole interesse (la cui lettura per chi volesse file:///C:/Users/Utente/Downloads/messaggio-papa-giornata-mondiale-pace-2024.pdf), raccomanda tra l’altro, “la necessità di un dialogo interdisciplinare, finalizzato a uno sviluppo etico degli algoritmi – l’algor-etica – in cui siano i valori ad orientare i percorsi delle nove tecnologie”, al fine di evitare discriminazioni, divisioni, prevaricazioni, guerre.

Per chiudere la narrazione dei recenti eventi che hanno reso effervescente il settore dell’AI, c’è da registrare il recentissimo avvicendamento al vertice della cosiddetta Commissione Algoritmi, istituita dall’attuale Governo per valutare l’impatto dell’Intelligenza Artificiale, a seguito delle dimissioni rassegnate dal precedente Presidente Giuliano Amato, al quale non sono piaciute alcune dichiarazioni sulla sua nomina rilasciate dall’attuale Presidente del Consiglio durante la conferenza stampa di fine anno tenutasi lo scorso 4 gennaio.

Nuovo Presidente della Commissione AI per l’informazione (più correttamente chiamata), è stato designato il Prof. Paolo Benanti, un Frate Francescano, esperto di etica, bioetica, etica delle tecnologie e di gestione dell’innovazione per il miglioramento umano. Dopo aver conseguito la licenza e il dottorato in teologia morale, Padre Benanti è dal 2008 docente presso la Pontificia Università Gregoriana, l’Istituto Teologico di Assisi e il Pontificio Collegio Leoniano ad Anagni.

Appare del tutto evidente, quali siano gli interessi reali posti dallo sviluppo ed utilizzo dell’AI, la cui evoluzione (nemmeno tanto lontana) da generativa a predittiva è facile da intuire. Focalizzare le attenzioni su temi sicuramente importanti come lo sfruttamento del copyright, la trasparenza e l’obbligo dei registri per i GPAI, il bilanciamento di interessi reciproci fissati dagli accordi di collaborazione tra i vari attori in campo, è certamente doveroso ma è come guardare il dito anziché osservare la luna che quel dito indica. L’AI va ben oltre il potere generato dalla conoscenza dei dati, il controllo sull’informazione e la sua gestione, il suo modello di business e di sfruttamento economico.

La posta in gioco si è alzata, non riguarda più (va decisamente oltre) i nostri dati personali (chi siamo, dove abitiamo, quanti anni abbiamo, se siamo biondi, bruni, alti, bassi, se abbiamo famiglia, figli, numero di carta di credito), i nostri gusti, attitudini, preferenze, orientamenti (politici, religiosi, sessuali), la propensione, la frequenza e la capacità di spesa, ma si sposta sull’indagine della nostra parte più intima, emotiva e creativa (l’intelletto) che incide sulle nostre coscienze! Sono felicissimo se un algoritmo mi semplifica la vita, ma lo sarei decisamente meno se dovessi consegnare ad un algoritmo (forse pure inconsapevolmente) le deleghe esecutive di emozioni e pensieri magari nemmeno miei, o se le mie azioni non avessero più una chances venendo inquadrate, interpretate e generate come prodotto predeterminato! Penso si possa dire che molto spesso la rivoluzione digitale ha sbilanciato gli equilibri in un modo che i pionieri della tecnologia, animati dall’ambizione di migliorare il mondo, non avrebbero voluto.

Dall’invenzione del personal computer la tecnologia dell’informazione è stata molte volte usata per espandere il potere individuale anziché il benessere collettivo, per dividere anziché unire, prevaricare anziché condividere. Appare chiaro quanto ciò sarebbe eticamente discutibile, o addirittura pericoloso, se si verificasse mirando ad intercettare i sentimenti, l’intelletto, la creatività, la “coscienza” umana. Penso che alimentare costantemente la propria curiosità e fantasia, mettere loro il vestito pulito e farle viaggiare comode e leggere, variando la prospettiva, la gradazione, la messa a fuoco, analizzando poi l’istantanea che ci viene di volta in volta restituita, contribuisca a renderci più unici ed originali e perciò più esseri umani e meno prodotti di un sistema. Credo sia uno sforzo che dovremmo esercitarci a fare. Algoritmo (schema esecutivo che sulla base di determinate istruzioni specifica i passi che devono essere eseguiti, in sequenza o meno, per ottenere determinati risultati), è un concetto fondamentale dell’informatica, ed è alla base della nozione teorica di calcolabilità: un problema è calcolabile quando è risolvibile mediante un algoritmo (in estrema sintesi, è il procedimento di risoluzione di un problema). Cedendo senza tante resistenze alla suggestione, allo stimolo, irresistibile talvolta, che le parole esercitano sulla mia curiosità e fantasia (manco a dirlo), mi pace pensare che “algoritmo” non esprima un concetto schematico, solamente matematico, di puro calcolo, ma che la componente “ritmo” che ne forma l’etimologia, gli conferisca un’ aurea poetica; mi sono detto :”cos’altro è il ritmo se non la poesia del tempo?”. Mi viene allora in mente una frase di Wystan Hugh Auden, poeta inglese vissuto fino ai primi del 1970 (molte sono le sue opere tradotte in italiano), secondo il quale “nella poesia tutti i dati, le informazioni, le credenze, cessano di essere veri o falsi per diventare possibilità interessanti”. Sarà l’AI una possibilità interessante? Saprà resistere alla seduzione di diventare una sorta di surrogato della creatività, del pensiero umano? Riusciremo ad essere senzienti ed evitare che ciò accada? E’ auspicabile naturalmente!

A proposito di ritmo, poesia e tempo mi restituiscono un’altra suggestione con la quale chiudo, riportandomi alla mente alcuni versi di un brano del 2005 scritti da Franco Califano. Il brano, ripreso anche dai Tiromancino e da Mina. si intitola “Un tempo piccolo” e dice: “Rotolai in salita come fossi magico e toccai la terra rimanendo in bilico, mi feci albero per oscillare, trasformai lo sguardo per mirare altrove e provai a sbagliare per sentirmi errore. Dipinsi l’anima su tela anonima e mescolai la vodka con acqua tonica, e pranzai tardi all’ora della cena …..”. Credo che l’AI, per quanto “intelligente” sia e potrà ancor di più diventare, non abbia le istruzioni per dipingere un’anima su tela anonima, spegnere o reprimere il senso espressivo della creatività, inibire alle esperienze umane di rimanere in bilico, oscillare, sbagliare (anche volutamente) per imparare e crescere, per evitare schemi non predeterminati e sovvertire le aspettative ….. o perlomeno lo spero vivamente!!

Share:

Condividi su facebook
Facebook
Condividi su twitter
Twitter
Condividi su pinterest
Pinterest
Ultime news

Articoli correlati

ITALIANI POPOLO DI OBESI

Allarme sovrappeso e obesità in Italia Campania record di ammalati Record di ammalati: perché il sovrappeso è una malattia? Si, l’eccesso ponderale è una malattia

Musica leggerissima

Ho letto con interesse un bell’articolo pubblicato su questo sito ( https://www.passnews.it/2024/11/17/napoli-si-ribella-alle-baby-gang-la-campagna-di-sensibilizzazione/ ) in merito alla campagna di sensibilizzazione promossa dal Comune di Napoli per