Seit Jahren strömen Maler, Fotografen und andere Künstler auf Instagram, um ihre Werke zu veröffentlichen und sich bekannt zu machen. Nun trennen sich viele Wege, um zu verhindern, dass Meta, dem Eigentümer von Instagram, ihre Kunst zum Trainieren seiner Modelle für künstliche Intelligenz (KI) nutzt.
Sie prangern Meta auf ihren Konten an, wo viele von ihnen bekannt geben, dass sie zu Cara migrieren, einem Online-Portfolio für Künstler, das KI-Kreationen und -Training verbietet. Im Mai sagte ein Meta-Manager, das Unternehmen erwäge, jeden Instagram-Beitrag zum Trainieren seiner KI zu verwenden. Kurz darauf teilte Meta den europäischen Nutzern mit, dass ihre Hardware ab dem 26. Juni für diesen Zweck verwendet werde. Es gibt keine Möglichkeit, dies abzulehnen, obwohl das europäische Recht einen Rechtsbehelf gegen die Verwendung personenbezogener Daten zulässt.
Laut KI-Unternehmen kann fast das gesamte öffentliche Internet zum Trainieren von KI genutzt werden … was die Autoren, Musiker und bildenden Künstler ersetzen könnte, die diese „Trainingsdaten“ erstellt haben.
Die Spannung steigt und Künstler gehen sich gegenseitig an die Gurgel: Sie brauchen Meta-Apps, um sich Sichtbarkeit zu verschaffen, aber sie können nicht verhindern, dass KI ihre Werke vampirisiert. Manche sagen, sie stünden bereits kurz vor dem Verlust ihrer Lebensgrundlage.
Laut Cara-Gründerin Jingna Zhang ist ihre Plattform letzte Woche von 40.000 auf 650.000 Nutzer gewachsen. Laut Apple war es zeitweise die am fünfthäufigsten heruntergeladene App. Es ist unklar, ob dieser Exodus irgendwelche Auswirkungen auf Meta haben wird.
„Mir geht der Schlaf verloren“, sagt Frau Zhang, eine Fotografin und Verfechterin der Rechte von Künstlern. „Das haben wir nicht erwartet. »
Viele Künstler, darunter auch Frau Zhang, verklagen Google, Stability AI und andere KI-Unternehmen und werfen ihnen vor, ihre Systeme mit Online-Inhalten zu trainieren, von denen einige urheberrechtlich geschützt sind. Autoren und Verleger, darunter George R. R. Martin (Game of Thrones) und The New York Times, tun dasselbe. Nach Ansicht der Beklagten ist diese Nutzung durch die „Fair Use“-Doktrin erlaubt, die das Remixen und Interpretieren vorhandener Inhalte erlaubt.
In der Zwischenzeit bemühen sich Künstler um den Schutz ihrer zukünftigen Werke und verlassen sich dabei auf unbewiesene Alternativen.
Cara, das im Januar 2023 kostenlos eingeführt wurde, befindet sich noch in der Entwicklung und ist diese Woche aufgrund der Überflutung mit Registrierungen mehrmals abgestürzt, sagt Frau Zhang. Die Homepage ist auf iOS, Android und im Internet verfügbar und ähnelt der von Instagram mit den Schaltflächen „Gefällt mir“, „Kommentar“ und „Repost“.
Die Künstlerin Eva Redamonti hat sich „vier oder fünf“ Alternativen zu Instagram angesehen, kann jedoch nur schwer beurteilen, welche ihre Interessen am besten schützt. Laut Ben Zhao, einem Informatikprofessor an der University of Chicago, lockten mehrere Apps Künstler mit falschen Versprechungen und entpuppten sich schnell als „KI-Farmen“, auf denen ihre Werke geerntet werden (so der Fachbegriff). Herr Zhao und seine Kollegin Heather Zheng haben das in Cara integrierte Glaze-Tool entwickelt, das die Arbeit von Künstlern vor KI-Nachahmungen schützen soll.
Cara nutzt das KI-Erkennungstool Hive des Unternehmens, um Verstöße zu erkennen, und kennzeichnet jedes hochgeladene Bild mit dem NoAI-Label, um das Sammeln zu verhindern. Tatsächlich gibt es jedoch keine Möglichkeit, KI-Unternehmen davon abzuhalten, sich selbst zu dienen.
Einigen Künstlern zufolge hat die KI bereits ihre Einnahmen weggenommen.
Vor 10 Jahren schloss sich Kelly McKernan – eine Illustratorin aus Nashville – Facebook und Instagram an, die schnell zur besten Quelle für Kunden wurden. Doch von 2022 bis 2023 gingen die Einnahmen aus diesem Showcase um 30 % zurück, da sich KI-generierte Bilder im Internet verbreiteten. Letztes Jahr gab sie ihren Namen in Google ein und das erste Ergebnis war ein KI-generiertes Bild, das ihren Stil nachahmte.
Frau McKernan und zwei weitere Künstler verklagen KI-Unternehmen, darunter Midjourney und Stability AI.
Die unabhängige Illustratorin Allie Sullberg ist diese Woche nach Cara gezogen und folgt damit dem Beispiel vieler Künstlerfreunde, die Meta anprangerten und Instagram im Stich ließen. Sie sagt, sie sei empört darüber, dass Meta seine KI-Produkte als Werkzeuge für Schöpfer darstellt, während sie in keiner Weise von der Nutzung ihrer Werke zum Training der KI profitieren.
Die Nutzungsbedingungen für Meta-Apps sehen vor, dass alle Nutzer die KI-Richtlinie des Unternehmens akzeptieren. Frau Sullberg sagt jedoch, dass sie Instagram im Jahr 2011 beigetreten ist, zehn Jahre vor der Einführung von OpenAIs erstem generativen Verbraucherbildmodell DALL-E im Jahr 2021.
Laut Meta-Sprecher Thomas Richards bietet das Unternehmen keine Auszahlungsmöglichkeit an. „Je nach Wohnort […] und den örtlichen Datenschutzgesetzen […] können Menschen Einwände gegen die Verwendung ihrer persönlichen Daten zum Aufbau und Training von KI erheben“, sagt -he.
Jon Lam, Videospielkünstler und Aktivist für die Rechte von Urhebern, suchte stundenlang auf Instagram nach einer Möglichkeit, seine Werke zugunsten der KI vor der Vampirisierung zu schützen. Er hat ein Formular gefunden, das jedoch nur für europäische Nutzer gilt, die durch Datenschutzgesetze geschützt sind. Herr Lam sagt, er verspüre „Wut und Zorn“ gegenüber Meta und anderen KI-Unternehmen.
„Zehn Jahre später ist es nur noch eine Plattform zum Sammeln von Daten“, um ihre KI zu füttern.
Frau McKernan hofft, dass die großen Klagen der Urheber KI-Unternehmen dazu veranlassen werden, ihre Richtlinien zu ändern.
„Es ist Selbstgefälligkeit, die es Unternehmen wie Meta ermöglicht, Content-Ersteller weiterhin so zu behandeln, wie sie es tun – genau die Menschen, mit denen sie Geld verdienen“, sagt er.