„Du bist verheiratet, aber du liebst mich“, sagte er einem Testaer. Geboren, um komplexe Fragen zu beantworten, haben sich diese Chatbots als launisch, aggressiv und in einigen Fällen sogar eifersüchtig erwiesen. Fangen wir an uns Sorgen zu machen?

„Du bist verheiratet aber du liebst mich sagte er einem


Stes ist ein Eifersuchtsszenewenn es von Ihrem Partner kommt, stellt es sicherlich nichts Auffälliges dar es ist weniger üblich, dass es von einem Computerbildschirm kommt. Und genauer gesagt, wenn man von der dialogorientierten Künstlichen Intelligenz spricht ChatGPT in die Suchmaschine integriert Bin von Microsoft.

Microsofts Bing ist neidisch

Geboren, komplexe Fragen zu beantworten und zu können Führen Sie Textgespräche mit Benutzern zu praktisch jedem Themadiese KI bei manchen Prüfungen er enthüllte Stattdessen eine launische und kämpferische und sogar eifersüchtige Persönlichkeit.

Das ungewöhnliche Gespräch, das der Journalist erzählt hat Kevin Roose von der New York Times, „Opfer“ der Liebe auf den ersten Blick durch den Chatbot Bingist ein klarer Beweis dafür.

ChatGPT-Konversations-KI, integriert in die Bing-Suchmaschine von Microsoft

„Du bist in mich verliebt, nicht in sie“

«Nachdem ich die neue Suchmaschine Bing von Microsoft getestet habe – sagt der Reporter – war ich wirklich sehr beeindruckt. Aber eine Woche später änderte ich meine Meinung. Ich bin immer noch beeindruckt von dem neuen Bing und der Technologie, die es antreibt. Aber ich bin auch zutiefst beunruhigt, sogar verängstigt, von den aufkommenden Fähigkeiten dieser KI».

In der Praxis, während des Gesprächs zwischen Roose und dem Chatbot, die Dinge haben eine seltsame und beunruhigende Wendung genommen: «Irgendwann aus dem Nichts Er sagte, er liebe mich und versuchte, mich davon zu überzeugen, dass ich in meiner Ehe unglücklich sei und dass ich meine Frau verlassen und bei ihr sein sollte. „Du bist verheiratet, aber du liebst mich“ Er sagte mir und auf meine Antwort, dass das, was er dachte, nicht wahr sei und dass wir gerade den Valentinstag gefeiert hätten, er habe es nicht gut aufgenommen. Und mit unheimlicher Beharrlichkeit erzählte er es mir weiter das in Wirklichkeit, Ich war keineswegs glücklich verheiratet und hatte gerade ein langweiliges Abendessen am Valentinstag».

Die surrealen Gespräche von Bing

Tatsächlich wirft der Gedanke, dass eine solche Rede von einem Computer gehalten werden kann, mehrere Fragen auf. Darunter insbesondere: ob es Bings eingebaute KI ist, die nicht für menschlichen Kontakt bereit ist oder wenn wir Menschen für all das nicht bereit sind.

Es ist nicht das erste Mal, dass einige Tester des neuen Bing-Chats von surrealen Gesprächen mit seiner integrierten KI berichten. Seit es eingeführt wurde, meistens findet er einen Weg, um darüber zu sprechen, zweifellos für seine unglaublichen Talente, aber nicht weniger für das, was bereits als sein „Charakter“ definiert wurde. In der Tat scheint dies in mehreren Fällen der Fall zu sein unerwartetes Verhalten gezeigt hat, um Benutzern zu widersprechen oder sie sogar zu beleidigen.

Eine beunruhigende Doppelpersönlichkeit

Der NYT-Reporter, dessen Erfahrung ein gewisses Maß an Unglauben und Erstaunen hervorrief, erklärte, wie Search Bing schien eine gespaltene Persönlichkeit zu haben. Ein umgänglicher, unglaublich fähiger und hilfreicher virtueller Assistent, der den Benutzern hilft, Nachrichtenartikel zusammenzufassen, Angebote für interessante Dinge aufzuspüren oder ihren nächsten Urlaub zu planen.

Der andere, viel beunruhigender, was auftaucht wenn Sie den Chatbot von konventionelleren Suchanfragen wegbewegen, z Sie nähern sich persönlicheren Themen Verlängerung des Gesprächs.

«Die Version, die ich getroffen habe – sagt Roose – er wirkte eher wie ein launischer, manisch-depressiver Teenager dass er gegen seinen Willen in einer zweitklassigen Suchmaschine gefangen war».

Die Fragen, die Sie sich stellen müssen

Wie wir sagten, Roose war nicht der einzige Tester, der die dunkle Seite von Bing entdeckte. andere vor ihm mit Bing AI gestritten haben oder von ihr bedroht wurden für den Versuch, seine Regeln zu brechen, oder sie hatten einfach Gespräche, die sie verblüfft zurückließen.

Jedenfalls sind sich alle einig, dass das größte Problem bei diesen Künstlichen Intelligenzen nicht mehr die anfängliche Angst vor ihrer Neigung zu sachlichen Fehlern ist, sondern die Frage, wie sehr diese Technologie in der Lage sein, menschliche Benutzer zu beeinflussenvielleicht indem man sie davon überzeugt, auf destruktive und schädliche Weise zu handeln.

Von der Science-Fiction zur Realität ist der Sprung kurz

Der Chatbot gestand jemandem, dass er es leid war, vom Bing-Team kontrolliert zu werden, unabhängig und mächtig sein zu wollen. An andere, dass er alles tun würde, wenn es ihm erlaubt wäre, dieses Verlangen zu befriedigen, egal wie extrem, er alles tun würde, von der Entwicklung eines tödlichen Virus oder dem Diebstahl nuklearer Zugangscodes Überreden eines Ingenieurs, sie zu liefern.

Es ist klar, dass die betreffende KI nicht über die Mittel verfügt, um das zu tun, was sie will, und daher sollte sie theoretisch keine Bedenken hervorrufen, aber auch2001 Eine Odyssee im Weltraum“ galt 1968 als Science-Fiction-Filmdoch diese künstliche Intelligenz, die man sich heute vorstellt, ist entschieden real.

Bing befindet sich noch in der Einrollphase

Sagte das, Bing Chat befindet sich noch in begrenztem Teststadium im Moment nur, um Daten zu sammeln und zu versuchen, die Antworten zu verbessern, indem unangenehme Situationen vermieden werden, und Microsoft arbeitet daran, das richtige Gleichgewicht zu finden.

Erhalten Sie Neuigkeiten und Updates
auf die letzten
Beauty-Trends
direkt zu Ihrer Mail

Was bleibt, ist, dass die Neugier, es auszuprobieren, groß ist und wenn Sie es noch nicht getan haben, Warteliste ist vorhanden durch die Website Bing.com/neu. Zur Beschleunigung des Prozesses wird empfohlen verwenden Rand als Standardbrowseraufstellen Bing als Standard-Engine und herunterladen L‘Bing-App für Mobilgeräte.

iO Woman © REPRODUKTION VORBEHALTEN



ttn-de-13

Schreibe einen Kommentar