Gute Roboter dürfen nicht dazu gebracht werden, aus schlechten menschlichen Gewohnheiten zu lernen


Bleiben Sie mit kostenlosen Updates auf dem Laufenden

Vor ein paar Monaten fuhr ich in San Francisco hinter einem autonomen (also selbstfahrenden) Fahrzeug. Es war beunruhigend – aber nicht, weil das AV schlecht oder gefährlich fuhr; Stattdessen fuhr es zu gut.

Konkret hielt der Bot-Fahrer brav an jedem „Stopp“-Schild an, bremste bei gelber Ampel und hielt sich unter der offiziellen Geschwindigkeitsbegrenzung. Das zwang mich dazu, das Gleiche zu tun, etwas zu meinem Ärger, da ich (wie die meisten menschlichen Autofahrer) bisher manchmal sanft um die Verkehrsregeln herumgegangen bin.

Es ist eine triviale Anekdote. Aber es wirft ein Schlaglicht auf eine existenzielle Frage, die nächste Woche über dem Gipfel der britischen Regierung zu künstlicher Intelligenz schwebt: Welche Arten menschlichen Verhaltens sollten Bots kopieren, während wir darum kämpfen, Systeme zu entwickeln, die im „Imitationsspiel“ immer besser werden?

Sollte dies unsere idealisierte Vorstellung von Verhalten sein – etwa eine Welt, in der wir uns alle tatsächlich an die Verkehrsregeln halten? Oder das Land der „echten“ Menschen, wo Autofahrer durch Stoppschilder hindurchschleichen? Und vor allem: Wer sollte entscheiden?

Das Thema ist in allen Bereichen von Bedeutung, in denen generative KI eingesetzt wird, sei es im Finanzwesen, in den Medien, in der Medizin oder in der Wissenschaft. Aber die Geschichte der AVs verdeutlicht das Problem besonders deutlich, da Unternehmen wie Waymo, General Motors und Tesla, die bereits Flotten in Ländern wie Arizona und Kalifornien betreiben, subtil unterschiedliche Ansätze verfolgen.

Denken Sie an Waymo, die AV-Gruppe im Besitz von Alphabet. Seine Fahrzeuge sind seit fast zwei Jahren mit einem KI-System durch Phoenix, Arizona, unterwegs, das (grob gesagt) nach voreingestellten Prinzipien, wie etwa den Regeln der National Highway Transport Safety Administration, entwickelt wurde.

Anders als Menschen, „Der Waymo-Fahrer ist so konzipiert, dass er geltende Geschwindigkeitsbegrenzungen einhält“, sagt das Unternehmen und verweist auf seine jüngsten Untersuchungen, die zeigen, dass menschliche Fahrer in San Francisco und Phoenix in der Hälfte der Fälle gegen Geschwindigkeitsregeln verstoßen.

Die Fahrzeuge sind auch darauf trainiert, an roten Ampeln anzuhalten – ein Punkt, der die NHTSA erfreut kürzlich enthüllt dass im Jahr 2022 fast 4,4 Millionen menschliche Amerikaner über rote Ampeln sprangen und zwischen 2008 und 2021 mehr als 11.000 Menschen getötet wurden, weil jemand über die Ampel fuhr.

Es überrascht nicht, dass dies zu funktionieren scheint Waymos Autos viel sicherer als Menschen. (Zugegebenermaßen ist dies eine sehr niedrige Messlatte 42.000 Menschen kamen letztes Jahr bei Autounfällen in den USA ums Leben).

Aber was wirklich interessant ist, ist, dass Waymo-Beamte vermuten, dass das Vorhandensein von regelkonformen AVs in Phoenix auch menschliche Fahrer dazu ermutigt, Regeln zu befolgen – entweder weil sie hinter einem AV festsitzen oder weil sie beschämt werden, weil ein Bot sie versehentlich an den Verkehr erinnert Regeln. Gruppenzwang funktioniert – auch bei Robotern.

Darüber gibt es noch wenig Forschung. Aber es spiegelt meine eigene Erfahrung in San Francisco wider. Und ein (begrenztes) Studie des MIT zeigt, dass die Anwesenheit von AVs auf einer Straße potenziell das Verhalten aller Fahrer verbessern kann. Hurra.

Elon Musks Tesla hat jedoch einen anderen Weg eingeschlagen. Wie Walter Isaacson in seiner Biografie über Musk feststellt, versuchte Musk zunächst, KI mit voreingestellten Regeln zu entwickeln. Aber dann umarmte er sich neuere Formen generativer oder statistischer KI (der in ChatGPT verwendete Ansatz). Dies „trainiert“ KI-Systeme das Fahren nicht mit voreingestellten Codes, sondern durch die Beobachtung echter menschlicher Fahrer; Offenbar wurden 10-Megapixel-Videoclips von vorhandenen Tesla-Autos verwendet.

Daval Shroff, ein Tesla-Beamter, sagte Isaacson, dass die einzigen in dieser Schulung verwendeten Videos „von Menschen stammten, wenn sie eine Situation gut gemeistert haben“. Das bedeutet, dass Tesla-Mitarbeiter angewiesen wurden, diese 10-Meter-Clips zu bewerten und nur „gute“ Fahrbeispiele für das Bot-Training einzureichen – um Bots gutes und nicht schlechtes Verhalten beizubringen.

Vielleicht so. Es gibt jedoch Berichte, dass Tesla-AVs zunehmend Menschen nachahmen, indem sie beispielsweise über Stoppschilder oder Ampeln kriechen. Als Elon Musk eine Reise, die er im August unternommen hatte, live in einem AV-Gerät übertrug, er musste manuell eingreifen um zu verhindern, dass es über eine rote Ampel springt. TDie NHTSA ermittelt.

Natürlich könnte Musk erwidern, dass alle Fahrer unter ungewöhnlichen Umständen gelegentlich gegen Regeln verstoßen müssen, um die Sicherheit zu gewährleisten. Er könnte auch erwidern, dass es für Unternehmen selbstverständlich sei, unterschiedliche Ansätze für KI zu verfolgen und den Kunden dann die Wahl zu lassen; So funktioniert Unternehmenswettbewerb normalerweise.

Einige Aufsichtsbehörden sind jedoch besorgt: Obwohl GM Cruise Anfang des Jahres Daten vorgelegt hat, die eine insgesamt gute Sicherheitsbilanz zeigen, hat das kalifornische Kraftfahrzeugministerium diese Woche Daten vorgelegt forderte die Einstellung des Unternehmens unbemannte AVs nach einem Unfall. Und das Problem besteht darin, dass Regulierungsbehörden zwar theoretisch AVs anhand voreingestellter Regeln überprüfen können (sofern Außenstehende Zugriff auf den Code haben), es jedoch schwieriger ist, generative KI zu überwachen, da die Folgen der Nachahmung „echten“ menschlichen Verhaltens so unvorhersehbar sind – selbst für ihre Ersteller .

Wie dem auch sei, der wichtigste Punkt, den Anleger verstehen müssen, ist, dass Varianten dieses Problems bald auch Bereiche wie den Finanzbereich heimsuchen werden, wie Gary Gensler, der Kommissar für Wertpapier- und Börsenaufsicht, kürzlich gegenüber der FT sagte. Sollten KI-fähige Akteure auf den Finanzmärkten mit voreingestellten Top-Down-Regeln programmiert werden? Oder lernen Sie, indem Sie das Verhalten von Menschen nachahmen, die Regeln aus Profitgründen „arbitrieren“ (dh verbiegen) könnten? Wer entscheidet – und wer haftet, wenn etwas schiefgeht?

Es gibt keine einfachen Antworten. Aber je mehr eingebettete KI wird, desto schwieriger wird die Herausforderung, wie die Teilnehmer des Gipfels nächste Woche wissen. Vielleicht sollten sie zunächst über eine Ampel nachdenken.

[email protected]



ttn-de-58

Schreibe einen Kommentar