Google ontslaat engineer who evaluates that AI bewustzijn heeft

More than that, there is a requirement for engineer Blake Lemoine to be aware of the use of a chatbot, wording on the application. Word for the word Chris Pappas puts it: “We from the Blakes bewering dat LaMDA een consciousness heeft completely ongegrond and hebben vele maanden gewerkt om dat met hem op te helderen.” Volgens Pappas koos Lemoine ervoor om het beleid memermaals te schenden door product information vrij te geven.

Lemoine worked some days with LaMDA. Het Language Model for Dialogue Applications is Google’s technology that chatbots maakt op Basis van de most geavanceerde taalmodellen. Lemoine registers you in the near future to test the chatbot discriminating against the need to use it. Hij botste real than snel op iets different in zou hebben ontdekt dat de chatbot een ‘target’ heeft.

Google onderzocht zijn beweringen maar gaf hem geen gelijk. Lemoine started bijgevolg to the media with zijn bezorgdheden and also documents overhanded hebben aan een Amerikaanse senator. These documents are intended to be used by the chatbot and by awareness.

Het nieuws leidde tot hoogoplopende discussies about the vraag of een computerprogramma een goal can raise and ontketende de vrees that we zullen rightkomen in a dystopian science fiction film. Daarnaast leidde zijn ontslag tot sammenzweringtheorieën. Because of this, the incident is related to a stupid operation by Google.

How Google rates other AI experts as Lemoines. The chatbot is not advanced until you are aware that you can create it. Verder beprinted Google dat de databanken zo uitgebreid zijn Waardoor het kan lijken AI a target heeft.

ttn-31