Wir müssen Leitplanken für KI schaffen

Wir muessen Leitplanken fuer KI schaffen


Was wäre, wenn das einzige, dem Sie wirklich vertrauen könnten, etwas oder jemand wäre, der nahe genug ist, um ihn physisch zu berühren? Das könnte die Welt sein, in die uns KI führt. Eine Gruppe von Harvard-Akademikern und Experten für künstliche Intelligenz wurde gerade gegründet ein Bericht zielt darauf ab, ethische Leitplanken um die Entwicklung potenziell dystopischer Technologien wie den scheinbar empfindungsfähigen Chatbot von Microsoft-unterstützter OpenAI zu legen, der letzte Woche in einer neuen und „verbesserten“ (je nach Ihrer Sichtweise) Version, GPT-4, debütierte.

Die Gruppe, zu der Glen Weyl, ein Ökonom und Forscher von Microsoft, Danielle Allen, eine Harvard-Philosophin und Direktorin des Safra Center for Ethics, und viele andere Persönlichkeiten der Branche gehören, schlägt Alarm wegen „der Fülle von Experimenten mit dezentralisierten sozialen Technologien“. . Dazu gehört die Entwicklung von „hoch überzeugenden maschinengenerierten Inhalten (z. B. ChatGPT)“, die die Struktur unserer Wirtschaft, Politik und Gesellschaft zu stören drohen.

Sie glauben, dass wir einen „konstitutionellen Moment“ des Wandels erreicht haben, der einen völlig neuen Regulierungsrahmen für solche Technologien erfordert.

Einige der Risiken der KI, wie eine Zukunft im Terminator-Stil, in der die Maschinen entscheiden, dass die Menschen ihren Tag gehabt haben, sind in der Science-Fiction ausgetretenes Terrain – das, wie man anmerken sollte, eine ziemlich gute Bilanz darin hat, wo die Wissenschaft vorherzusagen ist selbst wird in den letzten 100 Jahren oder so gehen. Aber es gibt andere, die weniger gut verstanden werden. Wenn zum Beispiel KI jetzt einen vollkommen unauffindbaren gefälschten Ausweis generieren kann, was nützen dann die rechtlichen und ordnungspolitischen Rahmenbedingungen, die sich auf solche Dokumente stützen, damit wir fahren, reisen oder Steuern zahlen können?

Eine Sache, die wir bereits wissen, ist, dass KI es schlechten Schauspielern ermöglichen könnte, sich überall und jederzeit als jedermann auszugeben. „Man muss davon ausgehen, dass Täuschung in dieser neuen Ära viel billiger und häufiger wird“, sagt Weyl, die veröffentlicht hat ein Online-Buch mit Taiwans Digitalministerin Audrey Tang. Dies legt die Risiken dar, die KI und andere fortschrittliche Informationstechnologien für die Demokratie darstellen, insbesondere, dass sie das Problem der Desinformation auf Steroide übertragen.

Die potenziellen Auswirkungen erstrecken sich über alle Aspekte der Gesellschaft und der Wirtschaft. Woher wissen wir, dass digitale Überweisungen sicher oder sogar authentisch sind? Sind Online-Notare und -Verträge zuverlässig? Werden gefälschte Nachrichten, die bereits ein großes Problem sind, im Wesentlichen nicht mehr erkennbar sein? Und was ist mit den politischen Auswirkungen der unkalkulierbaren Zahl von Arbeitsplatzunterbrechungen, ein Thema, das die Akademiker Daron Acemoglu und Simon Johnson später in diesem Jahr in einem sehr wichtigen Buch untersuchen werden.

Man kann sich leicht eine Welt vorstellen, in der Regierungen Schwierigkeiten haben, mit diesen Veränderungen Schritt zu halten, und, wie der Harvard-Bericht es ausdrückt, „bestehende, höchst unvollkommene demokratische Prozesse sich als machtlos erweisen . . . und werden daher von zunehmend zynischen Bürgern im Stich gelassen“.

Wir haben bereits Andeutungen davon gesehen. Die private Stadt in Texas, die von Elon Musk gebaut wird, um seine Mitarbeiter von SpaceX, Tesla und der Boring Company unterzubringen, ist nur die neueste Iteration der libertären Fantasie des Silicon Valley, in der die Reichen in private Anlagen in Neuseeland Zuflucht suchen oder ihren Reichtum und ihre Geschäfte verlagern in außerstaatliche Hoheitsgebiete und „Sonderwirtschaftszonen“. Der Wellesley-Historiker Quinn Slobodian befasst sich in seinem neuen Buch mit dem Aufstieg solcher Zonen. Crack-up-Kapitalismus.

In diesem Szenario sinken die Steuereinnahmen, die Arbeitsquote erodiert und die daraus resultierende Nullsummenwelt verschärft eine „Exitokratie“ der Privilegierten.

Natürlich könnte die Zukunft auch viel heller sein. KI hat ein unglaubliches Potenzial zur Steigerung von Produktivität und Innovation und könnte uns sogar ermöglichen, digitalen Reichtum auf neue Weise umzuverteilen. Aber schon jetzt ist klar, dass Unternehmen nicht so schnell wie möglich mit der Entwicklung modernster Web3-Technologien, von KI bis Blockchain, aufhören werden. Sie sehen sich in einem existenziellen Wettlauf um die Zukunft untereinander und mit China.

Daher suchen sie nach Möglichkeiten, nicht nur KI zu verkaufen, sondern auch die Sicherheitslösungen dafür. In einer Welt, in der Vertrauen nicht digital authentifiziert werden kann, denken beispielsweise KI-Entwickler bei Microsoft und anderen Firmen darüber nach, ob es eine Methode geben könnte, fortgeschrittenere Versionen von „gemeinsamen Geheimnissen“ (oder Dingen, die nur Sie und eine andere nahestehende Person haben) zu erstellen vielleicht kennen) digital und in großem Umfang.

Das klingt allerdings ein bisschen so, als würde man das Problem der Technik mit mehr Technik lösen. Tatsächlich könnte die beste Lösung für das KI-Problem, soweit es eine gibt, analog sein.

„Was wir brauchen, ist ein Rahmen für eine umsichtigere Wachsamkeit“, sagt Allen und zitiert den Bericht der Präsidentschaftskommission zur Bioethik von 2010, der als Reaktion auf den Aufstieg der Genomik herausgegeben wurde. Es erstellte Richtlinien für verantwortungsbewusstes Experimentieren, die eine sicherere technologische Entwicklung ermöglichten (obwohl man auf neue Informationen über das mögliche Laborleck in der Covid-19-Pandemie verweisen und sagen könnte, dass kein Rahmen international narrensicher ist).

Anstatt KI entweder zu verbieten oder eine perfekte Regulierungsmethode zu haben, könnten wir vorerst damit beginnen, Unternehmen zu zwingen, offenzulegen, welche Experimente sie durchführen, was funktioniert hat, was nicht und wo sich unbeabsichtigte Konsequenzen ergeben könnten. Transparenz ist der erste Schritt, um sicherzustellen, dass KI ihre Macher nicht übervorteilt.

[email protected]



ttn-de-58

Schreibe einen Kommentar