Starschauspielerin ist sauer auf ChatGPT
Die Starschauspielerin Scarlett Johannsen traute ihren Ohren nicht: Auf einer Vorführung sprach ChatGPT mit ihrer Stimme – glaubte sie.
ChatGPT ist ein Programm, das lernt, wie Menschen zu sprechen. Es verwendet künstliche Intelligenz (KI). Man kann ihn wie eine Suchmaschine fürs Internet benutzen. Die Antwort-Texte wirken wie eine Plauderei oder ein Gespräch mit einem Menschen. ChatGPT kann auch wirklich plaudern. Dazu braucht das Programm eine Stimme.
Die Macher von ChatGPT hatten nun die Idee, berühmte Stimmen nachzumachen. Darum haben sie die sehr bekannte Schauspielerin Scarlett Johansson gefragt, ob sie ihre Stimme nachmachen lassen will. Die Schauspielerin hat nein gesagt. Sie dachte, damit sei alles geklärt.
Doch später hörte sie eine Stimme von ChatGPT, die ihrer sehr ähnlich war. Deswegen hat sich die Schauspielerin beschwert. Die Firma, der ChatGPT gehört, hat daraufhin die Stimme nicht mehr benutzt. Die Macher haben aber behauptet, sie hätten Scarletts Stimme gar nicht nachgemacht, sie hätte nur ähnlich geklungen.
In Deutschland ist ganz klar: Stimmen andere Leute darf man nicht einfach so klauen oder benutzen. Eine Stimme ist eine sehr persönliche Sache. Das gilt zum Beispiel auch für den eigenen Namen, den Körper oder das Gesicht. Man darf also zum Beispiel nicht ohne Erlaubnis Videos mit einem von Computern nachgemachten Gesicht eines Menschen drehen. Man darf auch nicht einfach private Bilder von Leuten herumreichen. Davor schützt uns in Deutschland das allgemeine Persönlichkeitsrecht. Leute, die dagegen verstoßen, müssen mit einer Strafe rechnen.
Wie findest du es, dass Chat GPT Stimmen kopieren kann?
Findest du es wichtig, dass niemand deine Stimme nachmachen darf?
- 1
- 2