Scarlett Johansson preoccupata del fatto che l’IA possa rubarle la voce

0
22

Scarlett Johansson ha intrapreso azioni legali dopo aver scoperto che la sua voce è stata utilizzata nell’ultima versione di ChatGPT. Questo incidente mette in evidenza il problema della perdita di controllo sulla propria voce, e non sono solo gli attori di Hollywood che devono preoccuparsi.

Nel 2013, il film “Her” ha rappresentato un futuro in cui gli individui potevano avere relazioni romantiche con l’intelligenza artificiale. Anche se il film è considerato ormai vecchio, la sua trama è sorprendentemente rilevante ancora oggi.

OpenAI ha recentemente introdotto una nuova versione del suo modello linguistico, ChatGPT, che consente agli utenti di interagire con esso attraverso la voce. Una dimostrazione video di questa tecnologia ha portato molti a confondere la voce con quella di Scarlett Johansson, che ha doppiato un’assistente AI nel film “Her”.

Tuttavia, Johansson ha espresso la sua insoddisfazione, affermando di aver rifiutato l’offerta di essere la voce di Sky per motivi personali. Ha trovato la somiglianza tra la voce e la sua così sorprendente che persino i suoi familiari erano confusi. Di conseguenza, ha contattato OpenAI tramite i suoi avvocati per chiedere come abbiano ottenuto la sua voce.

Questo incidente serve come promemoria che chiunque può potenzialmente perdere il controllo sulla propria voce, non solo le celebrità. Solleva importanti questioni sull’etica e sulla legalità che circondano l’uso della voce di qualcuno senza il loro consenso.

Azienda Smentisce l’Uso della Voce di una Donna in un’App AI Controversa

In una recente controversia riguardante un’app AI, un’azienda ha negato di aver utilizzato la voce di una donna, sostenendo che era stata addestrata su un diverso attore professionista. Tuttavia, in mezzo alle critiche, l’azienda ha deciso di rimuovere la voce, nota come Sky, dalla selezione di voci dell’app.

L’incidente ha fatto luce sui potenziali pericoli della tecnologia AI che può replicare la voce di qualcuno nella vita reale. L’esperta di etica dell’AI Nell Watson avverte che questa questione diventerà sempre più diffusa e richiede la nostra attenzione.

Secondo Watson, è ora possibile fabbricare la voce di un individuo utilizzando solo alcuni secondi di audio, come un messaggio vocale. Lei sottolinea che la legislazione non è stata in grado di tenere il passo con questa tecnologia, in particolare nel Regno Unito, che è indietro rispetto a paesi come Francia e Canada.

È interessante notare che attualmente non esiste una legge specifica nel Regno Unito che garantisca agli individui diritti sulla propria voce. Mentre è possibile ottenere protezione del copyright per un rapido selfie in vacanza, impedendo ad altri di utilizzarlo, lo stesso non si può dire per la propria voce. Per impedire a qualcuno di utilizzare la propria voce senza consenso, gli individui devono fare affidamento su leggi secondarie come molestie o GDPR.

Anche se c’è una legge in corso in Parlamento che affronta i deepfake, si concentra solo su falsi pornografici di persone reali e non copre la creazione di media sintetici in generale.

In passato, il copyright delle caratteristiche personali non era necessario poiché vi erano modi limitati per sfruttarle. Manipolare registrazioni per far sembrare che qualcuno abbia detto qualcosa che non ha detto non era semplicemente fattibile. Tuttavia, con i progressi della tecnologia, questo è diventato una preoccupazione significativa. Gli attori, in particolare, temono di perdere opportunità di lavoro se le aziende possono pagarli una volta e poi utilizzare le loro registrazioni iniziali per farli dire qualsiasi cosa senza sostenere ulteriori costi.

OpenAI Risponde alle Preoccupazioni sulla Selezione delle Voci in ChatGPT

OpenAI, l’azienda dietro ChatGPT, ha risposto alle domande riguardanti la selezione delle voci nel loro sistema AI. Alla luce delle preoccupazioni sollevate, OpenAI ha deciso di sospendere l’uso di una voce chiamata Sky mentre affrontano il problema. Hanno fornito ulteriori informazioni sul loro processo di selezione delle voci, che possono essere trovate qui: [link alla fonte].

Gli truffatori stanno già utilizzando la tecnologia di ‘phishing vocale’ per ingannare vittime inconsapevoli. In un recente incidente ad Hong Kong, un lavoratore nel settore finanziario è stato ingannato a trasferire £20 milioni dei fondi della sua azienda a truffatori. Lo scammer ha utilizzato la tecnologia deepfake per creare una videochiamata in cui sembravano presenti il capo e i colleghi della vittima. Questo mette in evidenza il potenziale allarmante dell’audio manipolato, poiché gli truffatori possono ora far sembrare i propri cari in difficoltà al fine di manipolare i loro obiettivi. Un esempio di ciò è quando gli truffatori hanno convinto una madre di aver rapito sua figlia utilizzando audio falsificato.

Secondo Nell, autore del libro “Domare la Macchina”, il Regno Unito ha l’opportunità di imparare da altri paesi per quanto riguarda la gestione dei diritti di pubblicità. Con la facilità di creare deepfakes, è cruciale stabilire poteri investigativi che di solito la legge civile non fornisce. Rintracciare i responsabili di tali crimini può essere impegnativo, rendendo ancora più importante avere misure regolamentari in atto.

Anche se ci sono alcuni vantaggi nella capacità di creare deepfakes realistici, come migliorare le esperienze di gioco più realistiche, la mancanza di regolamentazione costituisce un rischio significativo. Gli individui potrebbero potenzialmente perdere il controllo sulle proprie identità. Nell sottolinea che ora ci sono tecnologie facilmente disponibili che possono essere acquistate o noleggiate per soli £20, consentendo a chiunque di creare deepfakes convincenti.

Dominic Lees, un esperto di deepfake presso l’Università di Reading, ha commentato il caso di alto profilo che coinvolge Scarlett Johansson e OpenAI. Ha sottolineato la necessità di cautela tra gli sviluppatori di intelligenza artificiale. L’abuso della tecnologia deepfake può portare a vari problemi e mette in evidenza l’urgente necessità di nuove regolamentazioni per proteggere gli individui dalla replicazione digitale non autorizzata. Lo sviluppo etico dell’intelligenza artificiale dovrebbe dare priorità al consenso, alla trasparenza e al rispetto dei diritti personali per prevenire lo sfruttamento e mantenere la fiducia pubblica.