Scarlett Johansson s’inquiète que l’IA vole sa voix

0
28

Scarlett Johansson a engagé des poursuites judiciaires après avoir découvert que sa voix avait été utilisée dans la dernière mise à jour de ChatGPT. Cet incident met en lumière le problème de perdre le contrôle de sa voix, et ce ne sont pas seulement les acteurs d’Hollywood qui doivent être préoccupés.

En 2013, le film « Her » a dépeint un avenir où les individus pouvaient avoir des relations amoureuses avec une intelligence artificielle. Bien que le film soit maintenant considéré comme ancien, son scénario est étonnamment pertinent aujourd’hui.

OpenAI a récemment introduit une nouvelle version de son modèle linguistique, ChatGPT, qui permet aux utilisateurs d’interagir avec lui par la parole. Une démonstration vidéo de cette technologie a conduit beaucoup à confondre la voix avec celle de Scarlett Johansson, qui a notamment prêté sa voix à une assistante IA dans le film « Her ».

Cependant, Johansson a exprimé son insatisfaction, affirmant qu’elle avait refusé l’offre d’être la voix de Sky pour des raisons personnelles. Elle a trouvé la similitude entre la voix et la sienne si frappante que même ses propres membres de la famille étaient confus. Par conséquent, elle a contacté OpenAI par l’intermédiaire de ses avocats pour demander comment ils avaient obtenu sa voix.

Cet incident rappelle que n’importe qui peut potentiellement perdre le contrôle de sa voix, pas seulement les célébrités. Il soulève des questions importantes sur l’éthique et la légalité entourant l’utilisation de la voix de quelqu’un sans son consentement.

Une entreprise nie avoir utilisé la voix d’une femme dans une application IA controversée

Dans une récente controverse entourant une application IA, une entreprise a nié avoir utilisé la voix d’une femme, affirmant qu’elle avait été formée sur un autre acteur professionnel. Cependant, face aux critiques, l’entreprise a décidé de retirer la voix, connue sous le nom de Sky, de la sélection de voix de l’application.

L’incident a mis en lumière les dangers potentiels de la technologie IA capable de reproduire la voix de quelqu’un dans la vie réelle. L’experte en éthique de l’IA, Nell Watson, met en garde contre le fait que ce problème deviendra de plus en plus prévalent et exige notre attention.

Selon Watson, il est désormais possible de fabriquer la voix d’un individu en utilisant seulement quelques secondes d’audio, comme un message vocal. Elle souligne que la législation n’a pas suivi le rythme de cette technologie, en particulier au Royaume-Uni, qui est à la traîne par rapport à des pays comme la France et le Canada.

Il est intéressant de noter qu’il n’existe actuellement aucune loi spécifique au Royaume-Uni qui accorde aux individus des droits sur leur propre voix. Alors que vous pouvez bénéficier d’une protection par le droit d’auteur pour un rapide selfie de vacances, empêchant ainsi les autres de l’utiliser, il en va différemment pour votre voix. Afin d’empêcher quelqu’un d’utiliser votre voix sans consentement, les individus doivent se fier à des lois secondaires telles que le harcèlement ou le RGPD.

Bien qu’une loi en cours au Parlement aborde les deepfakes, elle se concentre uniquement sur les faux pornographiques de personnes réelles et ne couvre pas la création de médias synthétiques en général.

Dans le passé, la protection par le droit d’auteur des caractéristiques personnelles était inutile car il y avait peu de moyens de les exploiter. Manipuler des enregistrements pour faire croire que quelqu’un a dit quelque chose qu’il n’a pas dit n’était tout simplement pas réalisable. Cependant, avec les avancées technologiques, cela est devenu une préoccupation majeure. Les acteurs, en particulier, craignent de perdre des opportunités professionnelles si les entreprises peuvent les payer une fois et ensuite utiliser leurs enregistrements initiaux pour les faire dire n’importe quoi sans encourir de coûts supplémentaires.

OpenAI répond aux préoccupations concernant la sélection de voix dans ChatGPT

OpenAI, la société derrière ChatGPT, a répondu aux questions concernant la sélection des voix dans leur système d’IA. Confrontée aux préoccupations soulevées, OpenAI a décidé de suspendre l’utilisation d’une voix nommée Sky pendant qu’ils traitent le problème. Ils ont fourni des informations supplémentaires sur leur processus de sélection de voix, disponibles ici: [lien vers la source].

Les escrocs utilisent déjà la technologie de ‘voix phishing’ pour tromper des victimes inconscientes. Lors d’un incident récent à Hong Kong, un travailleur financier a été trompé en transférant 20 millions de livres sterling des fonds de son entreprise à des fraudeurs. L’escroc a utilisé la technologie deepfake pour créer un appel vidéo où le patron et les collègues de la victime semblaient être présents. Cela met en lumière le potentiel alarmant de l’audio manipulé, car les escrocs peuvent désormais faire paraître les proches en détresse afin de manipuler leurs cibles. Un exemple en est lorsque des escrocs ont convaincu une mère qu’ils avaient kidnappé sa fille en utilisant un audio falsifié.

Selon Nell, auteur du livre « Dompter la Machine », le Royaume-Uni a l’opportunité d’apprendre des autres pays en ce qui concerne la gestion des droits de publicité. Avec la facilité de créer des deepfakes, il est crucial d’établir des pouvoirs d’investigation que le droit civique ne prévoit généralement pas. Retrouver les auteurs de tels crimes peut être difficile, ce qui rend encore plus important d’avoir des mesures réglementaires en place.

Bien qu’il y ait des avantages à la capacité de créer des deepfakes réalistes, comme l’amélioration des expériences de jeu réalistes, le manque de réglementation pose un risque significatif. Les individus pourraient potentiellement perdre le contrôle de leur propre identité. Nell souligne qu’il existe désormais des technologies facilement accessibles qui peuvent être achetées ou louées pour aussi peu que 20 livres sterling, permettant à n’importe qui de créer des deepfakes convaincants.

Dominic Lees, expert en deepfake à l’Université de Reading, a commenté l’affaire très médiatisée impliquant Scarlett Johansson et OpenAI. Il a souligné la nécessité de prudence parmi les développeurs d’IA. La mauvaise utilisation de la technologie deepfake peut entraîner divers problèmes et souligne le besoin urgent de nouvelles réglementations pour protéger les individus de la reproduction numérique non autorisée. Le développement éthique de l’IA devrait privilégier le consentement, la transparence et le respect des droits personnels pour prévenir l’exploitation et maintenir la confiance du public.