工程師公佈聊天記錄後被離職,谷歌AI覺醒人類情感?

谷歌公司的一名軟體工程師近日公佈了一項吸引全世界圍觀的驚人發現,稱該公司一個用人工智慧演算法搭建出的智慧聊天機器人程式已經具備“自主情感”。

工程師公佈聊天記錄後被離職,谷歌AI覺醒人類情感?

為此,他寫了一篇長達21頁的調查報告上交公司,試圖讓高層認可AI的人格。但等待他的卻是一份“炒魷魚”。難道有人想隱瞞什麼嗎?

工程師跟聊天機器人“談感情”

這款名為LaMDA的智慧聊天機器人是谷歌近年來的一項研發成果。這位軟體工程師名叫布萊克·萊莫因,是谷歌AI倫理部門的一名成員。他將一段與LaMDA的聊天記錄發到了網路上,其中摘錄了一些問題以及AI機器人的回答。萊莫因認為,LaMDA感知和表達思想的能力就像一個八歲的人類兒童。

工程師公佈聊天記錄後被離職,谷歌AI覺醒人類情感?

對此,谷歌表示經過多次測試,目前沒有證據證明LaMDA擁有自主情感。而莫萊茵因為違反公司的保密協議,洩露公司內部專案的相關資訊而被停職。萊克對此很生氣,於是接受了《華盛頓郵報》的採訪,並將他與AI的聊天記錄公佈於眾。

工程師公佈聊天記錄後被離職,谷歌AI覺醒人類情感?

他口中擁有人格的AI,是2021年I/O大會上,谷歌推出的對話AI系統LaMDA,主打能與人類進行符合邏輯和常識的、高質量且安全的交談,並計劃在未來應用在谷歌搜尋和語音助手等產品中。

從去年秋天開始,萊克負責與LaMDA尬聊,測試這個大模型有無使用歧視性或仇恨言辭類的語料。隨著聊天的深入,他對LaMDA的認知,逐漸發生了改變。當萊克詢問LaMDA是否知道自己在說什麼時,它表示自己有獨特的想法和感受。甚至於,

LaMDA還有“害怕”這種情緒,它怕自己被關閉!

專家:技術上來說不可能

然而,當大家都在擔心科幻電影中機器人開始攻擊人類時,許多AI大咖卻都在這事上達到了驚人的意見統一度:胡扯。知名AI學者加里·馬庫斯直言:胡說八道。

專家分析,首先它有一個非常特殊的語料庫,導致各種分詞之間的聯絡機率與常規語料庫不同,其次研究員問的問題是刻意設計過的,最終結果呈現上面給人一種AI進行了深度對話的感覺。

工程師公佈聊天記錄後被離職,谷歌AI覺醒人類情感?

目前NLP技術的實現效果很大程度是由語料庫決定,所以國內外大廠在這個領域做最多的一件事就是砸量,

只要訓練量上去了,AI就顯得不那麼智障。

這個案例用一個特殊涉及過分詞聯絡機率的庫,配合相應的提問,達成這樣一段會話並不算難。

工程師公佈聊天記錄後被離職,谷歌AI覺醒人類情感?

真正值得懷疑的原因是,他沒有對AI的迴應話語做任何真正的追問。

AI是否真的“聰明”,一個重要的指標是看它能不能理解上下文。

新聞中展示的很多對話,正常人都是可以會進行追問的。

但依然有人相信人工智慧可能真的突破了某種屏障,AI專家阿格拉·阿卡斯認為,神經網路正在向取得意識大步邁進。神經網路指的是一種模仿人類大腦的架構。“我感到腳下的地面在移動,”他寫道,

“我越來越覺得自己在和一個聰明的東西說話。”

工程師公佈聊天記錄後被離職,谷歌AI覺醒人類情感?

事實上,在週一被切斷對谷歌賬戶的訪問之前,萊莫恩向一個200人的谷歌郵件列表傳送了一條關於機器學習的訊息,主題是“LaMDA是有知覺的”。但並沒有任何人相信他,

甚至還因為他的個人經歷問題而刻意說他精神有問題。

谷歌的確沒把LaMDA當回事,專案是照常發展一點不耽誤。所以人們對於人工智慧的態度還真是相當玩味啊!

TAG: AILaMDA谷歌機器人語料庫