Realisierte Science-Fiction als Geschichten, die vom AI Swamp Magazine geschrieben wurden

Realisierte Science Fiction als Geschichten die vom AI Swamp Magazine geschrieben


Ein bekanntes Science-Fiction-Magazin nimmt keine Einreichungen mehr für neue Geschichten an, nachdem es von einer Technologie überwältigt wurde, auf der seine Autoren oft ihre futuristischen Erzählungen basieren: künstliche Intelligenz.

Das in den USA ansässige Unternehmen Clarkesworld, das in den letzten 17 Jahren mehrere preisgekrönte Science-Fiction-Autoren veröffentlicht hat, wurde seit Dezember, als OpenAIs Chatbot ChatGPT erstmals der Öffentlichkeit zugänglich gemacht wurde, von Menschen überschwemmt, die Hunderte von Geschichten einsendeten, die von generativer KI geschrieben oder verbessert wurden .

Am Montag twitterte Neil Clarke, der Gründer und Herausgeber von Clarkesworld, dass es beschlossen habe, die Einreichungen nach einem Anstieg der KI-erweiterten Einträge derzeit zu schließen.

Clarke genannt Das Magazin hatte im Februar bisher mehr als 500 KI-verbesserte Einreichungen erhalten, mehr als das Vierfache der Gesamtzahl für den gesamten Januar, und dass es unmöglich war, die Menge der Inhalte manuell zu filtern oder in Echtzeit zu verarbeiten.

„Vor fünf Tagen zeigte das von uns geteilte Diagramm fast 350 dieser Einreichungen. Heute hat es 500 überschritten. Fünfzig von ihnen gerade heute, bevor wir die Einreichungen abgeschlossen haben, damit wir uns auf die legitimen Geschichten konzentrieren können “, sagte er am Montag.

In einem diesen Monat veröffentlichten Blog fügte Clarke hinzu: „Zu allem Übel wird die Technologie nur noch besser werden, sodass die Erkennung schwieriger werden wird.“

Die potenziellen Auswirkungen der generativen KI – Software, die realistische Texte, Grafiken oder Codes als Reaktion auf menschliche Eingaben erstellt – wird immer deutlicher, seit die Technologie letztes Jahr in den Vordergrund gerückt ist.

Unternehmen wie OpenAI, dem ChatGPT gehört, und andere, die ähnliche Technologien entwickeln, sind bereits in Kontroversen mit Nachrichtenorganisationen, Künstlern und Softwareentwicklern verwickelt, die behaupten, dass KI ihre Originalwerke ohne Anerkennung oder Entschädigung reproduziert und darauf aufbaut.

Dies ist nicht das erste Mal, dass generativer KI-unterstützter Spam dazu geführt hat, dass Dienste ins Stocken geraten sind: Im Dezember war die codierende Q&A-Website Stack Overflow gezwungen, von ChatGPT generierte Antworten zu verbieten, da sie behauptete, diese Antworten würden ihr Forum mit Fehlinformationen überfluten.

Clarke sagte, er habe andere Redakteure kontaktiert, die Originalinhalte veröffentlichten, und dass die Situation „keineswegs einzigartig“ sei. Er gab nicht bekannt, wie er die von KI generierten Geschichten identifiziert hatte, und fügte hinzu, dass es „einige sehr offensichtliche Muster gibt und ich nicht die Absicht habe, diesen Menschen dabei zu helfen, weniger wahrscheinlich erwischt zu werden“.

Die Beweggründe hinter den Einreichungen bei Clarkesworld sind unklar. Einige schlagen vor, dass es eine Möglichkeit für Leute ist, schnell Geld zu verdienen, da Clarkesworld Autoren etwa 10 Cent pro Wort für Einreichungen von bis zu 22.000 Wörtern zahlt.

Es wäre für eine einzelne Person einfach, ihren Standort vorzutäuschen und mehrere Geschichten einzureichen, sagte Eran Shimony, Sicherheitsforscher im Cybersicherheitslabor CyberArk.

Andere schlagen vor, dass dies eine Möglichkeit für Anfänger sein könnte, ihre Chancen auf eine Veröffentlichung in dem renommierten Magazin zu erhöhen.

Einige Autoren warnen jedoch davor, dass dieser Schritt die Kreativität ersticken wird, da KI-Spam die Verlage dazu zwingen wird, die Einreichungsfenster zu begrenzen, ihre Antwortgeschwindigkeit zu verlangsamen und möglicherweise ihre Zahlungsraten zu senken.

„Die einzigen Leute, die trainieren, werden die bereits etablierten und bekannten sein. . . es wird für neue Autoren tödlich sein“, sagte Shiv Ramdas, ein spekulativer Romanautor, auf Twitter.

Anfang dieses Monats veröffentlichte OpenAI ein Experiment Werkzeug KI-generierte Inhalte zu erkennen, um Bedenken von Pädagogen in Bezug auf Plagiate, Betrug und andere Formen von „akademischer Unehrlichkeit“ auszuräumen. Die Forscher sagten jedoch, dass das Tool nur in 26 Prozent der Fälle KI-generierte Inhalte identifizierte.



ttn-de-58

Schreibe einen Kommentar