Chatbot uznany za osobę przez pracownika Google
Inżynier Google’a po rozmowach z chatbotem sztucznej inteligencji uznał, że posiada on samoświadomość. Pracownik został skierowany na czasowy urlop administracyjny.
41 – letni Blake Lemoine zaczął rozmawiać z interfejsem LaMDA czyli Language Model for Dialogue Applications jesienią 2021 roku w ramach swoich obowiązków służbowych w organizacji Google Responsible AI.
Google w zeszłym roku określił LaMDA swoją „przełomową technologią konwersacyjną”. Sztuczna inteligencja konwersacyjna jest zdolna do prowadzenia naturalnie brzmiących, otwartych rozmów. Gigant liczy, że technologia może być wykorzystywana w narzędziach takich jak wyszukiwanie i Asystent Google.
Lemoine opublikował w sobotę raport opisujący LaMDA „jako osobę”. Powiedział, że rozmawiał z LaMDA o religii, świadomości i prawach robotyki, i że model określił siebie jako czującą osobę. Powiedział, że LaMDA chce „uznać na pierwszym miejscu dobro ludzkości” i „być uznawanym za pracownika Google, a nie za własność”.
Podobny dokument inżynier już w kwietniu udostępnił dyrektorom firmy. Dokument Google zatytułowany był „Is LaMDA Sentient?”, jego obawy w nim zawarte zostały odrzucone.
„Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake’a zgodnie z naszymi zasadami AI. Poinformował go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma dowodów na to, że LaMDA był świadomy (i wiele dowodów przeciwko temu)”. Powiedział Brian Gabriel, rzecznik Google.
Według The Washington Post Lemoine został umieszczony na płatnym urlopie administracyjnym za naruszenie polityki poufności Google. Miało to miejsce po tym jak zasugerował LaMDA znalezienie własnego prawnika i po rozmowach z członkiem Kongresu.
W artykule opublikowanym w styczniu Google poinformowało, że istnieją w firmie potencjalne problemy z ludźmi rozmawiającymi z chatbotami. Głównie z powodu tego, że brzmią przekonująco „ludzko”.
Czytaj także: System AI namierza psie kupki