融合各倫理觀之長 建設演算法友好型協同治理網路

中新經緯12月22日電 (薛宇飛)近日,清華大學社會科學學院社會學系、中國科學院學部-清華大學科學與社會協同發展研究中心主辦了“倫理立場、演算法設計與企業社會責任”研討會,來自清華大學、中國科學院、大連理工大學的十餘位專家學者就演算法的倫理問題、演算法治理以及企業責任等話題,展開交流探討。會上,清華大學社會科學學院社會學系釋出了《倫理立場、演算法設計與企業社會責任》研究報告(下稱報告)和《企業演算法倫理實踐指南》。

與會學者認為,演算法在促進社會進步的同時,演算法公平、演算法偏見、演算法歧視等倫理議題也為社會所關注。同時,演算法具有價值可塑性特徵,演算法設計需要突破傳統思維結構和社會觀念,用向善的價值立場推動社會發展,促進公序良俗和新社會倫理發展。對於演算法治理,則應建立起一個融合各倫理觀念所長、多元主體參與的“治理網路”,實現政府、專業機構、團體、企業及公眾共同參與的協同治理。

倫理現象是演算法應用價值的伴生

融合各倫理觀之長 建設演算法友好型協同治理網路

“倫理立場、演算法設計與企業社會責任”研討會。主辦方供圖

如今,演算法已經應用於各行各業,與人們的生產、生活息息相關。報告指出,演算法為人們的思維、決策和行動提供了新的技術實現路徑,在一定程度上避免了基於人類情感的主觀抉擇的侷限性,也有助於提高生活質量、改善社會管理。在研討會上,清華大學新聞與傳播學院常務副院長陳昌鳳指出,演算法技術不再是一個簡單的工具,而且影響著人們的交往和資訊的傳播,“演算法和資料技術正在不斷提升人們的認知能力,助益社會生活。”

融合各倫理觀之長 建設演算法友好型協同治理網路

清華大學新聞與傳播學院常務副院長陳昌鳳。主辦方供圖

報告指出,演算法技術的飛速發展也伴生著倫理議題,主要體現在人類主體權利、社會性倫理、技術性倫理三個層面。人類主體權利涉及公平性和自主性,對公平的定義很大程度上基於情境和主觀,決策權的讓渡也與主體的自主性相關;社會性倫理涉及隱私和資訊保安,要防止未經審查、不受限制和未經許可的演算法應用,在資料主體不知情的情況下進行自動化的資料分析;技術性倫理涉及不透明和偏見、歧視,演算法可能含有設計者、使用者和所學習資料的偏見。

融合各倫理觀之長 建設演算法友好型協同治理網路

清華大學社會學系教授李正風。主辦方供圖

清華大學社會學系教授李正風在研討會上說:“演算法可能再現社會當中已有的倫理問題,尤其是掌握了大量資料並且對資料進行深度挖掘後,隱含在社會當中的倫理問題會更清晰地展現出來。比如,現在人們討論比較多的公平性問題,還有演算法偏見、演算法歧視、隱私保護,這些都是社會當中已存在的倫理問題,但透過演算法會更為顯性地展現出來。”

融合各倫理觀之長 建設演算法友好型協同治理網路

清華大學公共管理學院副教授陳玲。主辦方供圖

演算法的公平性,一直都是各界對演算法在應用過程中最關心的議題之一,但何為公平、怎麼實現公平,卻並沒有形成共識。清華大學公共管理學院副教授陳玲指出,各界對演算法公平還沒有共同的、可接受的定義。公平可分為起點公平、過程公平、結果公平,應針對不同階段的公平來制定相應的公平準則。其中,結果公平是人們最直觀、最樸素的公平訴求,但它不意味著最終結果的均等,而是指演算法推薦結果的可計算、可預期、可解釋。

針對隱私和資訊保護,中國科學院自動化研究所研究員曾毅稱,政策和法律規定使用者有授權撤銷的權利,也就是說,在不使用一款應用軟體後,使用者可以要求企業刪除資料,這看似很簡單,但在技術落地上幾乎不具備可行性。這是因為絕大多數資料不是放在資料庫裡面呼叫,而是透過人工智慧和機器學習模擬學習使用者特徵,以引數的形式內化於人工智慧模型當中,如果企業採用類似於深度學習的神經網路模型,它很難把單個使用者資料的影響從模型當中刪除。

清華大學公共管理學院教授、人工智慧治理研究中心主任梁正則認為,從技術特性方面看,機器學習目前還處於“黑箱”狀態,在透明性和可解釋性上存在問題。目前,中國已經出臺一系列法律法規,包括《中華人民共和國網路安全法》《中華人民共和國資料安全法》《中華人民共和國個人資訊保護法》,建立了基礎機制,一些規範、指引、準則也在推出,資料治理體系正在建設,在基本的制度體系建立後,接下來應該重點研究制定可實施和操作的細則。

報告分析道,演算法倫理問題源於技術上的難以解釋性和部分企業的商業利益至上,演算法技術的複雜性、專業性和封閉性特點,使得公眾對設計原理及結構、執行引數、決策依據、實現機制的認知理解不足,一些企業從商業利益出發違規蒐集資料侵犯了使用者隱私和資訊保安。

融合各倫理觀之長 建設演算法友好型協同治理網路

中科院自然科學史研究所副研究員王彥雨。主辦方供圖

研討會上,中科院自然科學史研究所副研究員王彥雨回顧了人工智慧的發展歷史,他表示,從哲學角度來講,未來可能會出現人工智慧機器自己生產知識的形式,隨著這種知識體量的增大,會對人際關係等帶來新的社會影響。但具有意向性的強人工智慧,至少到現在還沒有可行性。

堅持演算法向善的價值立場

融合各倫理觀之長 建設演算法友好型協同治理網路

“倫理立場、演算法設計與企業社會責任”研討會。主辦方供圖

報告指出,演算法具有價值可塑性特徵,可能帶來兩類“道德真空”情境,一是道德無意識,在演算法設計中缺失道德或倫理維度考慮;二是道德無規則,前沿技術發展涉及的倫理問題超越了傳統道德規範,新的具體規範需要重新建立。

同時,演算法既受到人類社會價值判斷的影響,也具有價值塑造的作用。由於人的倫理價值立場具有多樣性,包括傷風敗俗、入鄉隨俗、公序良俗、移風易俗四個層次,且在入鄉隨俗層次上的人群分佈最多,所以無意識、樸素的價值觀念和倫理立場往往會佔據主導,而演算法可能預設其為應當普遍遵守的社會行為準則。

李正風指出,無意識、樸素的價值觀念和倫理立場佔據主導後,會出現倫理責任缺失,反映到技術和社會之間的關係時,會導致技術的“助紂為虐”。因此,不能完全地隨波逐流,好的企業具有比較值得肯定的價值立場,會成為維護公序良俗的中流砥柱。同時,也希望演算法治理能發揮更重要的作用,源清流淨,開風氣之先。

演算法設計的倫理立場則可分為功利論、義務論、契約論、德性論四種。功利主義立場認為,演算法設計應以其實際的功效或利益為基本目的,不考慮動機和手段;義務論認為演算法設計需要制定某種道德原則或按照某種正當性去行動,強調演算法設計的道德義務和責任以及履行義務和責任的重要性;契約論主張,在企業和使用者之間建立一種公開透明、平等公正的契約關係;德性論認為,演算法設計的倫理水平最終主要由演算法設計者和演算法企業的主體德性決定。

李正風稱,從演算法治理角度看,新規則的生成也是某種約束和引導,包括政府部門出臺的規制手段,更為重要的是要讓相關的行動者能夠具有較高的倫理意識和倫理責任,就是要提高演算法設計者、企業的“德性”,這就上升到德性論的倫理立場。如今,企業越來越注重社會責任,這是非常值得肯定的。

報告發現,中國企業在演算法倫理“知行合一”方面邁出了步伐,例如,位元組跳動人工智慧實驗室已經在對機器學習公平性和“負責任的人工智慧”的其他方面(包括但不限於可解釋性、可控性、多樣性、真實性、隱私性和魯棒性)進行技術基礎研究,以確保位元組跳動基於機器學習的智慧系統惠及所有使用者。

報告提出,演算法設計需要突破傳統思維結構和社會觀念,用向善的價值立場推動社會發展,促進公序良俗和新社會倫理發展。在國家政策推動和行業實踐帶動下,“演算法向善”在中國已步入實質性的倫理規範階段。演算法技術的道德嵌入不能只滿足於既有的倫理框架,還要求迭代、調整規範體系來引領社會整體的價值向善。

陳昌鳳認為,新技術確實帶來了各種風險,引發人們的擔憂,就如同過去所有新技術到來之時一樣,人們都會有疑惑,這是必然的。人們應該學會如何善用新技術,把最核心的有益的部分使用起來,而不是“因噎廢食”。她表示,開發和使用演算法時要有價值觀的指導,從當前看,中國使用演算法方面具有優勢的企業,都很重視演算法善用。

多方協同治理需秉持“演算法友好”

報告稱,任何單一主體的判斷並不具有普遍效力,因而演算法治理的邏輯必然是多元化的,包括技治、監管和治理網路三重邏輯。演算法技治主義要求尊重和發揮企業在演算法治理上的主體性,同時要避免單純追求經濟效益最大化;監管主義要求企業和政府在發揮技術監管作用的同時注重對資料安全和隱私的保護,同時不盲目跟從使用者關於演算法問題不當的質疑和判斷;治理網路要求政府、企業、公眾協同參與治理和對重要問題的商談,既滿足公眾合理價值訴求,也把演算法當作各種價值偏見的調解中介,用演算法技術的演變和規則規範的更新迭代來解決演算法問題。

李正風進一步解釋,“技治主義”強調的是技術維度重要性,依靠專業機構、人員在治理中扮演重要角色,強調自治。但受技術發展不成熟和利益因素的影響,單純依靠技術維度的治理存在一定困難,所以,後來又發展到監管主義,強調監管機構的作用。慢慢地,人們發現,無論是專業團體還是政府部門,單獨扮演監管角色都非常困難,因此,現在更加強調“治理網路”,強調多元主體參與的治理網路,政府、專業機構、團體、企業及公眾共同參與的協同治理。

梁正認為,“目前國家出臺的相關法律,把安全、個人權益等敏感問題的紅線都劃出來了,接下來針對各專門應用領域就要提出更具體的要求,演算法做到可解釋、可問責,治理中實現分級分類,分場景。同時,過程中有監督,事後有補救,以及確定治理的優先順序,在不同領域應用不同的治理工具,包括對基本底線的把控。”演算法治理是一個制度問題,不是技術問題,演算法的治理應當重點關注演算法使用的過程及其產生的影響。

多位與會專家呼籲,在構建多方參與的演算法治理網路的同時,也要給予企業一定的發展空間。陳玲強調,要兼顧創新和數字經濟的發展,尊重客觀的現實條件,吸引更多的工程師和不同領域的專家參與到規則制定過程中。

融合各倫理觀之長 建設演算法友好型協同治理網路

清華大學計算機與科學技術系副教授崔鵬。主辦方供圖

清華大學計算機與科學技術系副教授崔鵬也表示,外部對演算法的監管應秉持對“演算法友好”的理念。因為它並不是監管某一種客觀事物,而是對未來二三十年經濟發展有重要作用的技術形態的引導,避免因為一些不恰當的調控而帶來雙輸局面,要給企業預留足夠的空間,以促進企業之間的良性競爭,推動演算法經濟平臺技術的健康發展。

促進企業演算法倫理實踐和公眾專用智慧素養

如何讓演算法的應用更契合社會賦予的責任,這就要求企業採取更加積極的策略響應社會需求,透過多元主體的參與來塑造和提升信任,尊重個體的主動權,加強人機協同,構建以人為本、感知情境的具有積極促進意義的算法系統。

研討會上釋出的《企業演算法倫理實踐指南》提出,企業要在構建演算法倫理治理體系、加強倫理委員會建設、制定演算法倫理治理的基本準則和規範、加強員工倫理素養培訓四個方面制定具體的工作措施,其中,在企業演算法倫理治理的基本準則規範方面要重視公平公正、安全透明、平衡與多樣、價值性、可溯源可追責、合規性。

大連理工大學人文與社會科學學部部長李倫認為,企業應履行數字責任,而演算法倫理是企業數字責任的核心,應將演算法倫理嵌入到企業數字責任的契約中,使企業數字責任從自我約束變成社會約束。

融合各倫理觀之長 建設演算法友好型協同治理網路

清華大學社會科學學院助理研究員戴思源。主辦方供圖

除了企業責任,個人又應如何更好地參與到演算法治理之中呢?清華大學社會科學學院助理研究員戴思源提出了“人工智慧素養”概念,它可以拆解為通用智慧素養與專用智慧素養,通用智慧素養是人對於產品運用服務消費能力,專用智慧素養是人工智慧技術研發與生產能力。在他看來,通用智慧素養可能會直接增加資訊隱私憂慮,這是因為個人隱私意識的提升,而專用智慧素養可能會對資訊隱私憂慮有緩解作用,因為它來自於技術信任。

“換句話說,緩解資訊隱私憂慮,專用智慧素養在全社會的普及勢在必行。”戴思源表示,專業技術公司可向公眾進一步開啟技術“黑箱”,讓更多人瞭解到演算法等專業知識。“同時,我們也應該建立一個人工智慧技術治理運用與資訊隱私保護的社會共治格局,向公眾科普演算法專業知識,提高他們對於智慧產品的技術信任。”(中新經緯APP)

中新經緯版權所有,未經書面授權,任何單位及個人不得轉載、摘編以其它方式使用。

TAG: 演算法倫理治理企業技術