Ecco i maggiori rischi legati all'intelligenza artificiale generativa

technology notizia
Alex Knight, Unsplash

L'intelligenza artificiale (AI) è probabilmente una delle grandi rivoluzioni del XXI secolo. Goldman Sachs ha pubblicato un white paper intitolato Generative AI - Part I: Laying Out the Investment Framework in cui affronta i concetti fondamentali di questo nuovo progresso tecnologico che si sta affacciando sul mondo e identifica gli attori più rilevanti attualmente presenti nel suo ecosistema. In questo lavoro accademico, gli autori dello studio analizzano anche i rischi associati all'Intelligenza Artificiale Generativa, un settore che si concentra sulla generazione di contenuti originali a partire da dati esistenti. In particolare, ne identificano cinque.

Moderazione dei contenuti

Come spiegano nel loro studio, le piattaforme di social media e i siti web non sono legalmente responsabili dei contenuti pubblicati dai loro utenti, il che crea uno scudo legale per le aziende di Internet. "Molti ritengono che l'accesso libero e gratuito agli strumenti di IA generativa non potrà che favorire la creazione di contenuti pericolosi. I modelli di IA imitano il comportamento umano. In quanto tali, questi strumenti possono essere addestrati a generare disinformazione e altri contenuti discutibili. La domanda diventa quindi: la responsabilità sarà dei creatori di queste piattaforme di IA generativa o la colpa ricadrà ancora una volta sugli utenti che pubblicano i contenuti?".

Disinformazione

Gli strumenti di IA generativa sono oggetto di un intenso controllo sull'accuratezza delle informazioni diffuse. Secondo gli esperti di Goldman Sachs, ciò può essere particolarmente pericoloso per gli utenti che non sono in grado di determinare l'accuratezza delle risposte o i pregiudizi impliciti nelle risposte generate. "I modelli mal gestiti sono spesso responsabili di dati imprecisi o distorti. In definitiva, con il tempo, quando i modelli di dati sottostanti vengono alimentati con informazioni migliori, l'accuratezza aumenta. Tuttavia, eliminare le distorsioni informative è più difficile, poiché i modelli di IA sono gestiti dagli esseri umani".

Violazione del copyright

I confini dell'originalità dei contenuti creati con strumenti di IA generativa sono piuttosto labili. Sono state sollevate diverse questioni sulla violazione del copyright da parte degli strumenti di IA generativa, soprattutto nella categoria della conversione da testo a immagine. "Artisti, scrittori, musicisti e altri professionisti dell'universo della creatività sono preoccupati per la minaccia che la tecnologia AI rappresenta per le loro opere originali. In assenza di precedenti, è ancora presto per le sfide legali, il che ne limita l'adozione su larga scala da parte delle aziende. Le aziende rimangono caute nell'impiegare strumenti di IA generativa per paura delle conseguenze della violazione del copyright e di altre cause legali.

La privacy

Le piattaforme di IA si basano su modelli di apprendimento linguistico di grandi dimensioni che a loro volta sfruttano grandi volumi di dati per addestrare i loro algoritmi. "Le piattaforme di IA devono garantire che i dati raccolti siano accurati, conformi alla legislazione locale, archiviati e gestiti in modo sicuro e aggiornati regolarmente. Potrebbe diventare imperativo per le piattaforme di IA mantenere una stretta conformità alle normative sulla privacy dei dati, come il Regolamento generale sulla protezione dei dati (GDPR) e il California Consumer Privacy Act (CCPA)", spiegano.

Problemi etici

Oltre ai problemi legali legati alla violazione di brevetti e copyright associati agli strumenti di IA generativa, gli scettici sottolineano i problemi legati al plagio, alla perdita di posti di lavoro e al legittimo compenso per i creatori di contenuti originali. "Gli strumenti di IA generativa vengono addestrati su dati esistenti. Di conseguenza, la probabilità di plagio dei contenuti è elevata. È compito degli utenti umani utilizzare con saggezza i contenuti generati".

A suo avviso, se da un lato c'è il timore che l'IA renda superflui alcuni lavori, a causa dell'automazione e dei miglioramenti della produttività, dall'altro creerà l'opportunità di nuovi ruoli nella scienza dei dati, nella ricerca sull'IA, negli ingegneri dell'apprendimento automatico. "Per quanto riguarda la legittima attribuzione e il compenso dei professionisti creativi il cui lavoro viene sfruttato per addestrare i modelli di IA, il dibattito legale ed etico rimane irrisolto", concludono.