Scarlett Johansson machte sich Sorgen, dass KI ihre Stimme stehlen könnte.

0
12

Scarlett Johansson hat rechtliche Schritte eingeleitet, nachdem sie festgestellt hatte, dass ihre Stimme im neuesten Update von ChatGPT verwendet wurde. Dieser Vorfall verdeutlicht das Problem, die Kontrolle über die eigene Stimme zu verlieren, und es sind nicht nur Hollywood-Schauspieler, die besorgt sein müssen.

Im Jahr 2013 stellte der Film „Her“ eine Zukunft dar, in der Einzelpersonen romantische Beziehungen mit künstlicher Intelligenz haben konnten. Obwohl der Film heute als alt gilt, ist seine Handlung überraschend relevant.

OpenAI hat kürzlich eine neue Version seines Sprachmodells, ChatGPT, vorgestellt, das es Benutzern ermöglicht, durch Sprache mit ihm zu interagieren. Eine Video-Demonstration dieser Technologie führte dazu, dass viele die Stimme fälschlicherweise für die von Scarlett Johansson hielten, die in dem Film „Her“ eine KI-Assistentin sprach.

Jedoch äußerte Johansson ihre Unzufriedenheit und erklärte, dass sie das Angebot abgelehnt hatte, die Stimme von Sky aus persönlichen Gründen zu sein. Sie fand die Ähnlichkeit zwischen der Stimme und ihrer eigenen so frappierend, dass sogar ihre eigenen Familienmitglieder verwirrt waren. Folglich setzte sie sich über ihre Anwälte mit OpenAI in Verbindung, um zu erfragen, wie sie an ihre Stimme gelangt waren.

Dieser Vorfall dient als Erinnerung daran, dass jeder potenziell die Kontrolle über seine Stimme verlieren kann, nicht nur Prominente. Er wirft wichtige Fragen zu Ethik und Rechtsfragen im Zusammenhang mit der Verwendung der Stimme einer Person ohne deren Einwilligung auf.

Unternehmen bestreitet Verwendung der Stimme einer Frau in umstrittener KI-App

In einer jüngsten Kontroverse um eine KI-App hat ein Unternehmen bestritten, die Stimme einer Frau verwendet zu haben, und behauptet, sie sei von einem anderen professionellen Schauspieler trainiert worden. Trotz des Gegenwinds hat sich das Unternehmen entschieden, die Stimme namens Sky aus der Auswahl der Stimmen der App zu entfernen.

Der Vorfall hat die potenziellen Gefahren der KI-Technologie, die in der Lage ist, die Stimme einer Person im echten Leben zu replizieren, beleuchtet. Die KI-Ethikexpertin Nell Watson warnt davor, dass dieses Problem immer präsenter wird und unsere Aufmerksamkeit erfordert.

Laut Watson ist es nun möglich, die Stimme einer Person nur mit wenigen Sekunden Audio, wie einer Voicemail-Nachricht, zu fälschen. Sie betont, dass die Gesetzgebung mit dieser Technologie nicht Schritt gehalten hat, insbesondere im Vereinigten Königreich, das im Vergleich zu Ländern wie Frankreich und Kanada zurückliegt.

Interessanterweise gibt es derzeit kein spezifisches Gesetz im Vereinigten Königreich, das Einzelpersonen Rechte über ihre eigene Stimme gewährt. Während Sie möglicherweise Urheberrechtsschutz für ein schnelles Urlaubs-Selfie haben, das andere daran hindert, es zu verwenden, kann dasselbe nicht für Ihre Stimme gesagt werden. Um zu verhindern, dass jemand Ihre Stimme ohne Zustimmung verwendet, müssen Einzelpersonen auf sekundäre Gesetze wie Belästigung oder DSGVO zurückgreifen.

Obwohl im Parlament ein Gesetz in Arbeit ist, das sich mit Deepfakes befasst, konzentriert es sich nur auf pornografische Fälschungen realer Personen und deckt nicht die Erstellung synthetischer Medien im Allgemeinen ab.

In der Vergangenheit war es nicht notwendig, persönliche Merkmale urheberrechtlich zu schützen, da es nur begrenzte Möglichkeiten gab, sie auszunutzen. Die Manipulation von Aufnahmen, um es so aussehen zu lassen, als ob jemand etwas gesagt hätte, was er nicht gesagt hat, war einfach nicht machbar. Mit den Fortschritten in der Technologie ist dies jedoch zu einem erheblichen Anliegen geworden. Schauspieler befürchten insbesondere den Verlust von Jobmöglichkeiten, wenn Unternehmen sie einmal bezahlen und dann ihre ursprünglichen Aufnahmen verwenden können, um sie ohne weitere Kosten alles sagen zu lassen.

OpenAI reagiert auf Bedenken bezüglich der Stimmauswahl in ChatGPT

OpenAI, das Unternehmen hinter ChatGPT, hat auf Fragen zur Auswahl von Stimmen in ihrem KI-System reagiert. Angesichts der aufgeworfenen Bedenken hat OpenAI beschlossen, die Verwendung einer Stimme namens Sky zu pausieren, während sie das Problem angehen. Sie haben weitere Informationen zu ihrem Auswahlprozess für Stimmen bereitgestellt, die hier zu finden sind: [Link zur Quelle].

Betrüger verwenden bereits ‚Voice Phishing‘-Technologie, um ahnungslose Opfer zu täuschen. In einem kürzlichen Vorfall in Hongkong wurde ein Finanzmitarbeiter dazu gebracht, £20 Millionen der Firmengelder an Betrüger zu überweisen. Der Betrüger nutzte Deepfake-Technologie, um einen Videocall zu erstellen, bei dem der Chef und Kollegen des Opfers anwesend zu sein schienen. Dies verdeutlicht das alarmierende Potenzial manipulierter Audioaufnahmen, da Betrüger nun Angehörige in Not klingen lassen können, um ihre Ziele zu manipulieren. Ein Beispiel dafür ist, als Betrüger einer Mutter überzeugten, dass sie ihre Tochter entführt hätten, indem sie gefälschte Audioaufnahmen verwendeten.

Laut Nell, Autor des Buches „Taming the Machine“, hat das Vereinigte Königreich die Möglichkeit, von anderen Ländern zu lernen, wie es mit Persönlichkeitsrechten umgeht. Mit der Leichtigkeit der Erstellung von Deepfakes ist es entscheidend, Ermittlungsbefugnisse zu etablieren, die das Zivilrecht in der Regel nicht vorsieht. Die Täter solcher Verbrechen aufzuspüren, kann herausfordernd sein, weshalb es umso wichtiger ist, regulatorische Maßnahmen zu ergreifen.

Obwohl es einige Vorteile bei der Fähigkeit gibt, realistische Deepfakes zu erstellen, wie die Verbesserung lebensechter Spielerfahrungen, birgt die fehlende Regulierung ein erhebliches Risiko. Individuen könnten potenziell die Kontrolle über ihre eigenen Identitäten verlieren. Nell weist darauf hin, dass mittlerweile Technologien leicht verfügbar sind, die für so wenig wie £20 erworben oder gemietet werden können, was es jedem ermöglicht, überzeugende Deepfakes zu erstellen.

Dominic Lees, ein Experte für Deepfakes an der Universität Reading, äußerte sich zu dem prominenten Fall mit Scarlett Johansson und OpenAI. Er betonte die Notwendigkeit von Vorsicht unter KI-Entwicklern. Der Missbrauch von Deepfake-Technologie kann zu verschiedenen Problemen führen und unterstreicht das dringende Bedürfnis nach neuen Vorschriften zum Schutz von Personen vor unerlaubter digitaler Reproduktion. Die ethische Entwicklung von KI sollte Einwilligung, Transparenz und Respekt für persönliche Rechte priorisieren, um Ausbeutung vorzubeugen und das öffentliche Vertrauen zu wahren.