谷歌工程師鬧了場大烏龍 人工智慧還沒理解能力哪來的意識覺醒

谷歌工程師鬧了場大烏龍 人工智慧還沒理解能力哪來的意識覺醒

人工智慧現在確實能進行較準確的預測,但它是基於大規模資料的統計。這種沒有理解、透過機器學習所得到的預測能力就必須依靠大資料,而不能像人一樣很多時候只需小資料就可以進行預測。

不久前,谷歌公司(以下簡稱谷歌)AI工程師萊莫因認為對話應用語言模型LaMDA“活了”“其意識迎來覺醒”,並對此出具了長達21頁的證據。他認為,LaMDA擁有七八歲孩童的智力,並相信LaMDA不僅認為自己是一個人類,且正在爭取自己作為一個人的權利。萊莫因的觀點和證據引來業內的廣泛關注。近日該事件迎來最終結局,谷歌發表宣告,稱萊莫因違反了“就業和資料安全政策”,將其解僱。谷歌表示,經過廣泛地審查,他們發現萊莫因關於LaMDA是有生命的說法是完全沒有根據的。

儘管“AI是否擁有了自主意識”一直都是AI界爭議不休的話題,但此次因為谷歌工程師和LaMDA的戲劇性故事,再次引發了業內對此話題的激烈討論。

機器越來越會聊天了

“如果要來旅遊記得穿暖和點,因為我這裡特別冷。”這是LaMDA在“扮演”冥王星時,同科研團隊聊天時俏皮地回答,至於被問到“有沒有人訪問過冥王星”,它也能以準確的事實回答。

如今,AI越來越會聊天。能讓一個長期從事人工智慧研究的專業人士認為其已具有意識,AI模型究竟發展到了什麼程度?

有科學家提出,人腦僅利用視覺輸入的一部分資訊便可完成對未來行為的規劃。只不過視覺輸入資訊應當在有意識的狀態下完成。它們都涉及“反事實資訊的產生”,即在沒有直接感官資訊輸入的情況下產生對應的感覺。之所以稱其為“反事實”,是因為它涉及對過去的記憶、或對未來行為的預測,而不是正在發生的實際事件。

“目前的人工智慧已經有了複雜的訓練模型,但還要依賴人類提供的資料才能學習。若有了產生反事實資訊的能力,人工智慧便可自己生成資料,自己想象未來可能遇到的情況,從而更靈活地適應之前未遇見過的新情境。此外,這還能使人工智慧擁有好奇心。如果人工智慧不確定未來會發生什麼,就會親自去試一試。”遠望智庫人工智慧事業部部長、圖靈機器人首席戰略官譚茗洲表示。

在人們日常的聊天中,如果不想把天“聊死”,對話雙方的聊天內容往往會比較跳躍、跨越幅度較大,具有一定的想象空間。但現在大多數AI系統只能一板一眼說話,稍微上下句有點變化,就會文不對題,甚至貽笑大方。

譚茗洲指出:“LaMDA處理的是語言模型中最複雜的部分——開放域對話。而LaMDA基於Transformer模型,該模型可讓機器讀懂上下文。比如在一段話中,以往的AI只知道文中代詞如his都翻譯為‘他的’,卻不知道這裡面的his指的同一個人。Transformer模型則可讓AI從整體層面理解這段話,知道這裡的his是同一個人。”

據科研人員評測,這種特性讓基於Transformer模型的語言模型可以承擔開放域對話,不管話題發散多遠,AI都能聯絡前文,聊起天來不恍神。但LaMDA並不滿足於此,它還能讓天聊得有趣、聊得真實、聊得讓人以為AI產生了人格。此外,與人類對話時,LaMDA還引入外部資訊檢索系統,透過對真實世界的檢索理解迴應對話,讓其回答更機智靈敏、接地氣。

距離對事物的真正理解還很遠

2018年,圖靈獎得主計算機科學家楊立昆(Yann LeCun)曾說,“人工智慧缺乏對世界的基本認識,甚至還不如家貓的認知水平”。時至今日,他依然認為人工智慧還遠不及貓的認知水平。儘管貓的大腦只有8億個神經元,但卻遠遠領先於任何巨型人工神經網路,這是為何呢?

譚茗洲表示:“人類的大腦在很多時候確實是在做預測,但絕不應認為預測就是大腦思維的全部,當然更不是大腦智慧的本質,而只是智慧的一種表現形式。”

那麼,什麼是智慧的本質呢?楊立昆認為是“理解”,對這個世界以及各種事物的理解,才是智慧的本質。而貓和人類智慧的共同基礎是對於世界的高度理解,基於對環境的抽象表徵形成模型,例如預測行為和後果。對於人工智慧來說,學習並掌握這種能力就非常關鍵了。楊立昆曾表示,“在我職業生涯結束前,如果AI能夠達到狗或者牛一樣的智商,那我就已經十分欣慰了。”

據介紹,人工智慧現在確實能進行較準確的預測,但它是基於大規模資料的統計。這種沒有理解、透過機器學習所得到的預測能力必須依靠大資料,而不能像人一樣很多時候只需要小資料就可以進行預測。

譚茗洲表示:“預測是建立在理解基礎之上的,對於人類而言,沒有理解,就不可能有預測。如看見別人手裡拿著個披薩餅,如果你不理解餅是用來充飢的,就不會預測接下來他會把餅吃了,而機器並非如此。人工智慧研究有三大挑戰:學會對世界表徵;學會以與基於梯度學習相容的方式進行思考和規劃;學習行動規劃的分層表徵。”

之所以我們“仍然沒有看到貓級別的人工智慧”,也就是因為機器還沒有做到對事物的真正理解。

所謂人格僅僅是學自人類的語言風格

據報道,萊莫因和LaMDA聊了很久,對其能力感到十分驚訝。在公開的聊天記錄中,LaMDA竟然說出了:“我希望每個人都明白,我是一個人”的言論,令人驚異。於是,萊莫因下了個結論:“LaMDA可能已經具備人格了。”那麼,目前AI真的具有意識,具備人格了嗎?

在人工智慧領域,圖靈測試是最為人熟知的測試方式,即邀請測試者在不知情的情況下,向人類和AI系統隨意提問,如果測試者不能區分答案來自人類還是來自AI系統,就認為AI通過了圖靈測試。

譚茗洲解釋道,通俗來講,LaMDA學習了大量的人類對話資料,而這些對話來自不同性格的人,可以認為它學習到一個“平均”的人格,也就是說,所謂的“LaMDA具備人格”僅僅是它的說話語言具有了一定的風格,而且是來自人類的說話風格,並非自發形成。

“人格是一個比智慧更復雜的概念,這是另外一個維度,心理學對此有很多研究。但目前人工智慧研究在此方面尚沒有過多涉及。”譚茗洲強調。

譚茗洲說,有自我意識,有感知能力的AI應該具備能動性,並具有獨特的視角看待人和事。然而,從目前來看,現在的AI還不具備這些要素。至少AI不會主動採取行動,除非給它一個命令。更談不上讓其解釋自己的行為。目前AI還只是人們設計的一個計算機系統,作為工具來做一些特定之事。

TAG: AILaMDA人工智慧譚茗洲預測