Eine Wohnung über einem Brathähnchen-Laden in Notting Hill ist ein seltsamer Ort, um im Herzen dessen zu sein, was als „eine der wichtigsten Rechtsfragen“ des 21. Jahrhunderts bezeichnet wird. Es ist der eingetragene Sitz von Stability AI, einer Gruppe für künstliche Intelligenz, die Künstler auf der ganzen Welt verärgert.
Stability AI wird von Emad Mostaque betrieben, einem Informatiker und ehemaligen Hedgefonds-Mitarbeiter. Es betreibt die Bilderzeugungssoftware Stable Diffusion, beschrieben in a US-Klage als „ein Collage-Tool des 21. Jahrhunderts, das die urheberrechtlich geschützten Werke von Millionen remixt“. Geben Sie „Elon Musk in einem Van-Gogh-Gemälde“ ein und es produziert eine amüsante Pastiche.
Die drei Künstlerinnen hinter den USA Klage Rückhalt haben. Getty Images, die Stockfoto-Gruppe mit 135 Millionen urheberrechtlich geschützten Bildern in ihrer Datenbank, hat letzte Woche vor britischen Gerichten eine weitere Klage gegen Stability AI eingereicht. Gettys Bilder werden zusammen mit Millionen anderer verwendet, um Stable Diffusion zu trainieren, damit es seine Tricks ausführen kann.
Die generative KI-Revolution ist schnell ausgebrochen: Stable Diffusion wurde erst im August veröffentlicht und verspricht „Milliarden von Menschen zu befähigen, innerhalb von Sekunden atemberaubende Kunst zu schaffen“. Microsoft hat mehrere Milliarden Dollar in OpenAI investiert, das letztes Jahr den Text-zu-Bild-Generator Dall-E vorgestellt hat und ChatGPT betreibt.
Die bildende Kunst ist nicht die einzige Disziplin, in der KI-Agenten Chaos anrichten. Die Musikindustrie erzittert angesichts der Aussicht, dass Millionen von Songs (und Milliarden an geistigem Eigentum) von KI durchforstet werden, um neue Tracks zu produzieren. Tencent Music, die chinesische Unterhaltungsgruppe, hat mehr als 1.000 Tracks mit synthetischen Stimmen veröffentlicht.
Theoretisch kann sich die algorithmische Kunst dem Urheberrecht und anderen Gesetzen zum geistigen Eigentum genauso wenig entziehen wie Menschen: Wenn ein KI-Tool ein Lied oder ein Bild produziert, das die Werke, auf die es sich stützt, nicht genug verändert, um originell zu sein, werden die Künstler ausgebeutet klagen kann. Die Verwendung einer Blackbox zur Verschleierung dessen, was als „Musikwäsche“ bezeichnet wird, ist keine überzeugende rechtliche Strategie.
Ein KI-Agent, der aus einer Datenbank lernt, unterscheidet sich auch nicht grundlegend von dem, was Menschen schon immer getan haben. Sie hören sich Songs konkurrierender Bands an und studieren andere Künstler, um von ihren Techniken zu lernen. Obwohl die Gerichte voller Streitigkeiten darüber sind, ob Songwriter illegal kopiert haben, fordert niemand sie auf, sich die Ohren zuzuhalten, oder warnt die Maler, bei Ausstellungen die Augen zu schließen.
Aber die Größe macht den Unterschied, wie die Musikindustrie sehr gut weiß. In der vordigitalen Ära, als Musik auf Vinyl und CDs verkauft und manchmal von Fans auf Kassetten kopiert wurde, war das sicher genug. Als Napster das massenhafte Herunterladen und Verteilen von digitalen Titeln ermöglichte, sah sich die Branche großen Schwierigkeiten gegenüber, bevor sie von Spotify und lizenziertem Streaming gerettet wurde.
KI-Tools bearbeiten nicht nur Datenbanken, sondern fertigen Bilder auf Bestellung an: Warum bei Van Gogh aufhören, wenn Sie Musk von Monet, Gauguin oder Warhol bekommen können, indem Sie einfach Eingabeaufforderungen eingeben? Es ist keine hohe Kunst, aber Estelle Derclaye, Professorin für geistiges Eigentumsrecht an der Universität Nottingham, stellt fest, dass „wir ein Problem haben, wenn KI anfängt, die menschliche Kreativität zu ersetzen“.
Menschen behalten viele Vorteile: Eine synthetische Version von Harry Styles mit einem anderen Namen wäre kein Bruchteil eines so beliebten Darstellers, selbst wenn der Besitzer des KI-Tools damit durchkommen würde. Aber es gibt auch andere Anwendungen – zum Beispiel Hintergrundmusik in Videospielen – für die eine synthetische Band, die wie BTS klingt, gut genug sein könnte.
Der Versuch, die KI-Kunst zu stoppen, wäre unmöglich und auch unerwünscht. Aber es müssen die rechtlichen Rahmenbedingungen gesetzt werden, damit die menschliche Kreativität nicht finanziell überfordert wird. Das Thema erzogen von Getty ist, ob Unternehmen wie Stability AI in der Lage sein sollten, ihre KI-Tools mit riesigen Mengen an urheberrechtlich geschütztem Material zu trainieren, ohne um Erlaubnis zu fragen oder Lizenzgebühren zu zahlen.
Dies ist in vielen Ländern für die Forschung legal, und die britische Regierung hat dies getan vorgeschlagen Ausweitung auf die kommerzielle Nutzung. In den USA gab es ähnliche Forderungen nach KI-Modellen, um das Recht auf „faires Lernen“ mit solchen Daten zu erlangen, da es unmöglich wäre, alle Lizenzinhaber von Gigabyte an aus dem Internet geschabten Daten aufzuspüren, eine Genehmigung einzuholen und sie zu belohnen.
Das kommt mir zu blasiert vor, ähnlich wie Argumente in Zeiten des illegalen Downloads, dass das digitale Pferd durchgebrannt sei und sich alle daran gewöhnen müssten. Stabilitäts-KI wurde auf 1 Milliarde US-Dollar geschätzt, und die Investition von Microsoft in OpenAI zeigt, dass Geld im Umlauf ist; was benötigt wird, ist ein Mechanismus, um mehr unter den Schöpfern zu verteilen.
Einzelpersonen brauchen weiteren Schutz: Es ist eine Sache, KI-Software mit einer Masse von Material zu trainieren, aber was, wenn jemand die Werke einer einzelnen lebenden Künstlerin einspeist und dann nach einer neuen Skizze in ihrem Stil fragt? Ein Illustrator aus Los Angeles war unterworfen zu einer solchen KI-„Feinabstimmung“ durch einen Stable Diffusion-Benutzer vor kurzem; Es ist nicht klar, ob ein Gericht das als faire Verwendung bezeichnen würde, aber ich nicht.
„Bitte wissen Sie, dass wir diese Angelegenheiten ernst nehmen“, versprach Stability AI letzte Woche. Wurde die Erklärung von einem Menschen oder von einem KI-Tool erstellt? Heutzutage ist es so schwer zu sagen.