AI&Society 內容生態沙龍現場直擊

AI&Society 內容生態沙龍現場直擊

人工智慧技術的社會影響已然發生。比如個性化演算法推薦對內容生產、使用者認知的影響,日益增長的攝像頭與影片資料對使用者隱私與安全的影響等,這些現象中,既潛伏了重要的社會議題,也昭示著下一代技術的發展方向。

AI & Society MEET

將圍繞人工智慧與社會發展相關主題不定期舉辦,透過跨學科交流、產學經驗互換等途徑逐漸拉平橫在演算法工程師、社會學家和個人使用者之間的資訊分野,讓共識和未來方向浮顯。

AI&Society 內容生態沙龍現場直擊

11月30日,北方迎來今年冬季第一次降雪,而在煙雨朦朧的南京,由騰訊研究院和南京大學新聞傳播學院聯合主辦的AI & Society主題沙龍也正式拉開帷幕。本次沙龍圍繞AI與內容生態發展,探討AI時代下新技術對內容生產、分發、消費的影響。

關鍵詞一

呼喚「善因」,也要關切「善果」

AI&Society 內容生態沙龍現場直擊

圖:周葆華

作為擁抱新技術的大國,我們在取得政策與商業成功的同時,也面對著倫理規範的社會壓力,亟需解決社會道義與社會形象問題。一批科技企業自我覺醒,關注技術中心的向善力量。自騰訊提出「科技向善」這一願景和使命,越來越多向善問題被提出。「向善」究竟是指什麼?「善因」和「善果」是怎樣的關係呢?周葆華教授分享了他的觀點。

l 向善

「向善」分為「善因」與「善果」。善因是企業端和生產端的目標、動機、理念或話語;善果是在社會端和受眾端,科技的實際效果與影響。騰訊說「向善是一種選擇,科技是一種能力」,正是表達了目標與能力之間的關係,即目標不一定代表能力,理念不一定代表實踐。技術也可能帶來非預期的效果,「善因」不能替代對「善果」的測量,當我們呼喚「善因」時,也要關切「善果」。

對善果的評價有應然和實然兩個角度,是應該從規範角度去評價,還是從實際效果角度去評價?由於技術包含在媒介的內部,受到AI和演算法的影響,媒介的非個體選擇性更強,由此「善果」研究與傳播學領域內的「媒介效果研究」有近似之處。

l 智慧媒體推薦演算法的「善因」和「善果」

演算法會封裝於特定的編碼和程式之中,呈現為應用的形態。在操作層面,演算法價值受到訓練集和測試集之間匹配度的影響。

演算法的善因:評估/設計原則

滿意度/信任度、準確性、覆蓋率、多樣性、新穎性、驚喜性、實時性、健壯性、透明性。——項亮《推薦系統實踐》

演算法的善果:研究難度高

何為「善」?社會科學家從社會公共利益角度關注演算法的效果,常常與特定的政治與民主規範價值有關,例如研究新聞和政治資訊的關注,研究使用者實際接觸資訊或觀點的多樣性等。

故而演算法的善果研究挑戰在於,研究的是分發/技術效果,而不是內容訊息的效果;演算法具有更強的隱蔽性和不可見性;演算法技術與其他因素(使用者選擇性)效果的混淆與螺旋影響;演算法平臺的差異,演算法邏輯的差異與演進,不同平臺,不同的邏輯可能帶來不同的影響。

因而單純的演算法效果的研究並不多。更多的研究聚焦於多樣性效果。

關鍵詞二

你是「真」的在交流嗎?

AI&Society 內容生態沙龍現場直擊

圖:牟怡

在人工智慧時代,「真實」的邊界被機器生成內容所打破,當AI應用於越來越多的交流場景中,使用者會信任TA嗎,又會對其有著怎樣的認知評價?牟怡教授用眾多的實證研究結果為我們解答這些疑問,並留給未來一個更嚴肅的討論——人們一方面恐懼被AI所代替,另一方面無法拒絕AI所帶來的高效率,而當機器的身份為了效率而不再透明時,真實性是否就成為了偽命題?

l 人機交流中的認知評價與信任度

在不同場景下,不同的創作型別(圖/文),內容生產方和內容接受方對「真實性」都有不同的理解。牟怡教授的實驗研究表明,告知內容的創作者身份會對觀者有一定的影響。而:

機器創作內容=帶來「沒有人的原汁原味的真實的」體驗

此外,牟怡教授還針對不同國家對於AI的態度進行調查,結果表示,中美兩國由於政府對AI的宣傳而導致各自對AI真實性的外顯理解是相反的。且中國受訪者內心對AI的態度並不如真人。而德國則無論內隱還是外顯,對AI的態度都相對更加積極。

牟怡教授在實驗中發現人們對「非自然」的女性作者建議的評價會高於中性作者建議的評價。

人機交流不僅僅是對人際交流的簡單複製,「向機器暴露真實自我的研究」表明,與AI聊天時暴露的人格更差,並且無法依據與AI聊天時的文字判斷出對話者的性別。

l 身份透明度與真實性

機器身份透明能夠加強真實性。既然非人身份可能會帶來不同的期待與認知,我們是否要保證非人身份的透明度?但《Nature》子刊的一篇文章表明,在不揭示機器人身份的前提下,人機合作的效率會大大提升。這就引發了新一輪的討論:要如何平衡非人身份的透明原則和人機協作的效率?

也許在未來,人機界限會逐漸被人為地模糊,真實性或將成為偽命題。

關鍵詞三

「社交機器人」

AI&Society 內容生態沙龍現場直擊

圖:吳曄

你或許不知道推特上的@Beetle Jucie和@DearAssistant,但對微博的「殭屍粉」應該不陌生。「社交機器人」早已經悄悄在我們的社交媒體裡瀰漫開來。我們在日常生活裡感受也許並不深刻,但吳曄教授發現社交機器人可能給研究者們帶來的巨大機遇和挑戰。

l 什麼是社交機器人?

「社交機器人是由軟體操作的賬號,能夠利用演算法生成內容、建立互動。」真正的社交機器人需要滿足兩個必要條件:動作是機器操作的、釋出內容是機器生成的。活躍在各大社交媒體(FB、推特等)上的「賬號」是最經典的社交機器人。吳曄教授發現以往學者多從技術和社會的視角進行研究,研究平臺以推特為主,且問題領域的交叉性明顯,政治是重要的議題。

l 如何識別社交機器人?

機器學習特徵識別法——Botometer工具

社會網路識別法

蜜罐檢測法

眾包式人工識別法

l 社交機器人對傳播學的影響

因果倒置:

當前計算傳播學的誤區在於用於識別社交機器人的特徵又被用於分析人機差異。

機遇:

可以利用社交機器人重新驗證傳播學的大部分理論,甚至提出新的理論。例如加入社交機器人後重新驗證議程設定的作用等。

挑戰:

當以無介入的方式採集社交媒體資料時,由於社交機器人的屬性(例如性別)對行為是沒有意義的,當社交機器人佔比過多時,會對研究結果產生影響,進而導致結果無意義。對研究計算社交媒體傳播的學者尤為重要。

信度和效度檢驗:

計算傳播學應當有類似於量化研究中的信度效度的工具,增強資料集的抗干擾能力。

關鍵詞四

「視覺化圖OR資料表格?」

AI&Society 內容生態沙龍現場直擊

圖:祝建華

似乎用顏色豐富、線條流暢精美的視覺化圖示的展示學術成果已經成為當下學者們熱捧的創新能力。但是這種內容呈現方式真的適合嚴謹的學術內容創作嗎?「千文不如一圖,千圖不如一影;無圖無真相,有圖有影響。」祝建華教授對這句話有著自己獨特的理解。他從閱讀理解、科學探索和學術造假三個角度去反思這一對圖示視覺呈現過於重視的現象。

l 影象雅而不信

在翻譯中,有信達雅的準則。當雅與信有衝突的時候,應該在不損害信的基礎上之追求雅已是共識。學術研究也是如此。從媒體豐富度和資訊理論角度來看,有這樣一個公式:

Message=information+redundancy+noise

訊息=資訊(資料結果)+資訊冗餘(圖表解釋)+噪音(演示形式)

視覺化圖表並不傳達資訊,而是幫助解釋資訊,更加適合用於大眾科普,因為讀者對於資料的小數點並不敏感。而對於展現科學研究的成果來說,準確性更加重要。「噪音」過多的視覺化圖示會延長讀者的閱讀時間,轉移和分散讀者的注意力。

l 影象不善於表達多元關係

以影象為主的分析大多是二元分析,而將第三者變數Z排除在外;但科學實驗大多是分析多變數之間的互相影響,表格要比圖更能提供準確的資訊。

l 影象更易學術造假

影象識別還未能普遍應用於學術不端檢測,故而影象是學術造假的重要來源。

祝老師並非在「反視覺化」,而是在反思視覺化在科研中的應用場景。最後,他給出以下權衡圖表選擇時的建議:

AI&Society 內容生態沙龍現場直擊

圖:合影留念

專家們分享了自己最新的研究興趣和研究思路,儘管許多想法還只是萌芽階段,但尋求志同道合夥伴的熱情不減,期待業界和學界有更多的相關討論和研究出現。

我們整理了這些精彩的觀點,以期也能夠與你進行一場跨越時空的AI& Society沙龍,歡迎留言互動……

(實習編輯 王心雨)

——END——

我好看嗎?

TAG: AI社交演算法機器人善果