Einige der größten Namen der Musikbranche – Nicki Minaj, Katy Perry, Billie Eilish, Camila Cabello und eine ganze Reihe anderer (insgesamt mehr als 200) – unterzeichneten eine scharf formulierte offener Brief Fordert Technologieunternehmen, KI-Entwickler und Musikplattformen auf, zu verpflichten, keine KI-Tools zur Musikgenerierung herzustellen oder zu nutzen.
Der Brief wurde auch von bekannten Künstlern wie REM, Pearl Jam, Q-Tip, Darius Rucker, Smokey Robinson und Stevie Wonder unterzeichnet , und die Nachlässe von Frank Sinatra und Bob Marley.
Mit einer aufgeladenen Sprache – Verben wie „Sabotage“ und Adjektiven wie „räuberisch“ – und einem spezifischen Aufruf zum Handeln für den gesamten Technologiesektor. der Brief ist gewesen gilt als eine der entschiedensten Positionen der Musikindustrie zur KI.
Quartz schlüsselt auf, was sie gesagt haben.
Wir, die unterzeichnenden Mitglieder der Künstler- und Songwriter-Community, fordern KI-Entwickler, Technologieunternehmen, Plattformen und digitale Musikdienste auf, dies einzustellen Einsatz künstlicher Intelligenz (KI), um die Rechte menschlicher Künstler zu verletzen und abzuwerten.
Dies ist bei weitem nicht das erste Mal, dass Künstler Technologieunternehmen wegen ihres Einsatzes von KI anprangern. Universal Music Group, die Taylor vertritt Swift and Bad Bunny, hat mit TikTok gestritten für die Entwicklung von Tools die KI-generierte Musik ermöglichen —etwas , das UMG sagte in einem eigenen offenen Brief „nichts weniger als das Sponsoring des Ersatzes von Künstlern durch KI.“ Tatsächlich lässt UMG seine Musik nicht mehr auf der Social-Media-Plattform zu .
Lassen Sie sich nicht täuschen: Wir glauben, dass KI bei verantwortungsvoller Nutzung ein enormes Potenzial hat, die menschliche Kreativität zu fördern, und zwar auf eine Weise, die die Entwicklung und Ausweitung neuer und aufregender Erfahrungen für Musikfans auf der ganzen Welt ermöglicht.
Es stimmt: KI ist Musikschaffen zugänglicher machen Beispielsweise, indem man Menschen mit Behinderungen das Spielen von Instrumenten ermöglicht , zu denen sie sonst nicht in der Lage sind.
Leider setzen einige Plattformen und Entwickler KI ein, um die Kreativität zu sabotieren und Künstler, Songwriter, Musiker und Rechteinhaber zu untergraben. Bei verantwortungslosem Einsatz kann KI gefährlich werden enorme Bedrohungen für unsere Fähigkeit, unsere Privatsphäre, unsere Identität, unsere Musik und unseren Lebensunterhalt zu schützen. Einige der größten und mächtigsten Bedrohungen Unternehmen nutzen ohne Genehmigung unsere Arbeit, um KI-Modelle zu trainieren. Diese Bemühungen zielen direkt darauf ab, die Arbeit menschlicher Künstler durch zu ersetzen Riesige Mengen an von KI erzeugten „Tönen“ und „Bildern“, die die Lizenzgebühren, die an Künstler ausgezahlt werden, erheblich verwässern. Für viele Für berufstätige Musiker, Künstler und Songwriter, die nur versuchen, über die Runden zu kommen, wäre das katastrophal.
Musikverlage Universal Music Group, ABKCO und Concord Music im Jahr 2023 verklagte das KI-Unternehmen Anthropic für die Nutzung der Songtexte seiner Künstler zumTraining seines Chatbots Claude.
Ungebremst wird KI einen Wettlauf nach unten in Gang setzen, der den Wert unserer Arbeit mindert und verhindert, dass wir dafür angemessen entlohnt werden. Dieser Angriff auf die menschliche Kreativität muss gestoppt werden.
Wir müssen uns vor der räuberischen Nutzung von KI schützen, um die Stimmen und Bildnisse professioneller Künstler zu stehlen, die Rechte der Urheber zu verletzen und das Musik-Ökosystem zu zerstören. Wir fordern alle KI-Entwickler, Technologieunternehmen, Plattformen und digitalen Musikdienste auf, zu versprechen, keine KI-musikgenerierten Technologien , Inhalte oder Tools zu entwickeln oder einzusetzen, die die menschliche Kunstfertigkeit von Songwritern und Künstlern untergraben oder ersetzen oder uns eine gerechte Vergütung für unsere Arbeit verweigern.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier