陳玲:將演算法治理的“可接受公平”框架落到實處

中新經緯12月21日電 (張燕徵)近日,清華大學社會科學學院社會學系、中國科學院學部-清華大學科學與社會協同發展研究中心主辦了“倫理立場、演算法設計與企業社會責任”研討會。清華大學公共管理學院副教授陳玲在研討會上指出,可從資料、演算法、人類行為三個層面入手,建立一個“可接受公平”的整體框架,關注演算法治理的起點、過程和結果公平,促進AI的創新發展和善治。

陳玲:將演算法治理的“可接受公平”框架落到實處

清華大學公共管理學院副教授陳玲。來源:主辦方供圖

“不管哪個國家、經濟體或產業部門,各方都把公平作為演算法治理的一個起點性要求,但實際上關於什麼是演算法公平,大家卻沒有共同可接受的內容。”陳玲認為,公平有不同的定義,至少應先建立一個基礎框架,從共識的角度去理解“可接受公平”。

公平可分為起點公平、過程公平、結果公平,陳玲建議針對不同階段的公平來制定相應的公平準則。“例如,我們將資料作為起點公平的物件,首先我們希望用於訓練演算法模型的資料集本身是完整的,資料集不偏向於男性或女性、白人或黑人等。其次,資料集應當是開放的、使用者可以自己選擇進入或退出資料集。若資料集完整且開放,至少可以在最低限度上保證演算法的起點公平。”陳玲稱。

在陳玲看來,

演算法程式的透明、可追溯、可問責,有利於促進演算法的過程公平。

例如透過企業內設的演算法倫理委員會或外部監管機構,可以核查、追溯到演算法任意模組或環節的問題,進而確定每一個模組或環節的可問責物件,這可以在最低限度上確保演算法的過程公平。

“結果公平是人們最直觀、最樸素的公平訴求。人們看到的演算法推薦或AI決策,希望這些是可計算、可預期和可解釋的。”陳玲舉例稱,很多時候人們可以接受一些歧視定價或者專門推薦,比如保險的差別定價,本質上是因為它符合人們的預期,而不是結果均等。“所以,演算法推薦結果的可計算、可預期、可解釋,而不是決策結果的均等化,是結果公平的最低起點。”

那麼如何建立一個可接受公平的整體框架?在陳玲看來,可從資料、演算法、人類行為三個層面入手。“資料的完整性、準確性、開放性,演算法的透明、可追溯和可問責,結果的可計算、可預期、可解釋,這是大家可接受的公平底線;那些尚存爭議或技術上有待解決的部分,可以作為演算法公平的調適區間,隨著調適水平提高,演算法公平的共識底線也可以逐步提高。”

那麼,演算法公平的規則體系具體該如何落地?陳玲表示,法律提供了一個最低限度的公平底線,演算法倫理的要求往往高於法律。

可以從私法、公法、全球秩序三個層面來研究現有法律體系的規制現狀,找到可接受公平的共識起點。

“全球立法或治理規定,對我們有兩點啟示:一是在中國國內現有的法律和行政法規體系下,建議推出不同層面的策略,包括演算法公平政策、虛假資訊準則、可信的透明度準則等;二是兼顧創新和數字經濟的發展,尊重客觀的現實條件,吸引更多的工程師和不同領域的專家參與到規則制定過程中。”陳玲稱。(中新經緯APP)

中新經緯版權所有,未經書面授權,任何單位及個人不得轉載、摘編或以其它方式使用。

TAG: 公平演算法陳玲起點資料