谷歌工程師鬧了場大烏龍 人工智慧還沒理解能力哪來的意識覺醒
譚茗洲解釋道,通俗來講,LaMDA學習了大量的人類對話資料,而這些對話來自不同性格的人,可以認為它學習到一個“平均”的人格,也就是說,所謂的“LaMDA具備人格”僅僅是它的說話語言具有了一定的風格,而且是來自人類的說話風格,並非自發形成...
譚茗洲解釋道,通俗來講,LaMDA學習了大量的人類對話資料,而這些對話來自不同性格的人,可以認為它學習到一個“平均”的人格,也就是說,所謂的“LaMDA具備人格”僅僅是它的說話語言具有了一定的風格,而且是來自人類的說話風格,並非自發形成...
據瞭解,這位工程師名為Blake Lemoine,曾擔任谷歌的AI倫理研究員,此前在今年4月其曾聲稱該公司的AI聊天機器人LaMDA擁有自我意識,並提交了一份長達21頁的報告,試圖證明LaMDA的獨立人格,以及提議該公司應致力於發展一種評估...
他口中擁有人格的AI,是2021年I/O大會上,谷歌推出的對話AI系統LaMDA,主打能與人類進行符合邏輯和常識的、高質量且安全的交談,並計劃在未來應用在谷歌搜尋和語音助手等產品中...
Lemoine不理解谷歌公司為什麼反對AI的這個願望,最後決定把他、另一位匿名合作者與LaMDA的三人聊天記錄整理發表出來...
Google AI機器人的話題,已經一連幾天成為科技圈的熱點:一位名為布萊克·萊莫因的工程師,自稱Google研發的聊天機器人LaMDA 已經有了自我意識——他認為這個機器人已經有相同於7、8歲小孩的認知與表達能力...
Lemoine不理解谷歌公司為什麼反對AI的這個願望,最後決定把他、另一位匿名合作者與LaMDA的三人聊天記錄整理發表出來...
Lemoine不理解谷歌公司為什麼反對AI的這個願望,最後決定把他、另一位匿名合作者與LaMDA的三人聊天記錄整理發表出來...
谷歌人工智慧開發團隊的布雷克·萊莫恩日前公開表示,該公司正在研發的一款人工智慧系統——對話應用語言模型(LaMDA)可能存在感知力...
主人公谷歌AI倫理研究員Blake Lemoine正透過主流媒體和社交網路接連發聲,試圖讓更人瞭解到這件事...
Lemoine表示,之所以Tegmark會這麼想,是因為他見證了AI的高層次意識...
看完這些聊天記錄,小雷開始理解,為什麼Lemoine覺得LaMDA是個“人”了...
pdf來自谷歌大腦的論文作者之一 Romal Thoppilan 表示:LaMDA 模型使用多達 137B 個引數進行訓練,它展示了接近人類水平的對話質量以及在安全性和事實基礎方面具有顯著改進...