推薦算法規(guī)制的他山之石
發(fā)布時間:2020-08-24 14:46:28 點擊次數(shù):108
摘要:用推薦算法進行新聞分發(fā)不是保持新聞?wù)鎸崱⒖陀^并有效傳播的“萬能藥”,習(xí)慣藏身于“黑箱子”里的算法,同樣需要法律和行政命令的規(guī)制。
關(guān)鍵詞:
作者簡介:
摘要:用推薦算法進行新聞分發(fā)不是保持新聞?wù)鎸?、客觀并有效傳播的“萬能藥”,習(xí)慣藏身于“黑箱子”里的算法,同樣需要法律和行政命令的規(guī)制。西方國家嘗試在法律上設(shè)定“規(guī)制”:一是從隱私權(quán)出發(fā)設(shè)定法律規(guī)范推薦算法;二是對某些重點行業(yè)進行立法或政策管制。其方法可以為我國提供鏡鑒。
關(guān)鍵詞:推薦算法 “黑箱子” 法律規(guī)制 隱私權(quán)
基于用戶興趣的“算法推薦”是網(wǎng)絡(luò)新聞的主要分發(fā)方式,其代表有今日頭條、一點資訊等。今日頭條宣稱自己的“運轉(zhuǎn)核心是一套由代碼搭建而成的算法”,此算法在商業(yè)上獲得成功,為它帶來了1.4億活躍用戶。與此同時,推薦算法也引來不少質(zhì)疑,如:算法歧視、算法短視會導(dǎo)致媒體公共性內(nèi)容的缺失,加深用戶偏見、形成信息繭房;“編輯缺位”致使低俗消息更加泛濫,甚至挑戰(zhàn)道德底線,既不利于用戶獲得知識,又難以做到價值引領(lǐng)①;推薦算法獲取信息的方式可能侵犯個人隱私②。
這些問題都與推薦算法的設(shè)計和使用息息相關(guān)。事實說明,使用推薦算法進行新聞分發(fā)不是保持新聞?wù)鎸?、客觀并有效傳播的“萬能藥”,習(xí)慣藏身于“黑箱子”里的算法,同樣需要法律和行政命令的規(guī)制。從國際視角看,人工智能支持下的推薦算法在全球范圍內(nèi)都有廣泛的應(yīng)用,這些算法及使用它們的公司也都遇到了一些相似的道德和法律困境。比如,推薦算法會不會過分搜集和使用用戶的數(shù)據(jù),侵犯個人的隱私?又如,過于依賴推薦算法是否會造成不良社會影響,如何消除?此外,國外還特別關(guān)注人工智能算法是否會導(dǎo)致行業(yè)規(guī)則被破壞——自動駕駛帶來車禍,誰承擔(dān)責(zé)任;機器人寫出了假新聞,誰來負責(zé)?
對此,西方國家與亞洲的日本、新加坡等國嘗試在法律上設(shè)定“規(guī)制”:一是從隱私權(quán)出發(fā)設(shè)定法律規(guī)范推薦算法,二是對某些重點行業(yè)(如傳媒、汽車、金融等)進行立法或政策管制,以消除不良社會影響。這些相關(guān)的法律、立法議案、行政命令堪稱“他山之石”,可以為我國的推薦算法規(guī)制提供鏡鑒。
用什么樣的方式收集數(shù)據(jù)可能會侵犯個人隱私?
在保護隱私權(quán)方面做得比較好的歐盟“數(shù)據(jù)隱私法案”,規(guī)定歐盟國家公民將有權(quán)要求“審查某項特定服務(wù)中如何做出特定算法決策”。法案要求算法公司詳細、明確說明他們?nèi)绾问褂盟惴ㄊ占捅Wo用戶數(shù)據(jù),并且在收集數(shù)據(jù)前必須征得個人同意。歐盟極端重視數(shù)據(jù)隱私,在此之前就已經(jīng)出臺了“通用數(shù)據(jù)保護條例”(GDPR),而“數(shù)據(jù)隱私法案”在條例的基礎(chǔ)上繼續(xù)展開,它賦予個人以權(quán)利,去確認一個組織是否正在處理自己的數(shù)據(jù),或是哪種類型的數(shù)據(jù)。此外,個人還有調(diào)整相關(guān)數(shù)據(jù)的保留期限、向數(shù)據(jù)保護機構(gòu)投訴的權(quán)利。歐盟設(shè)置了嚴苛的懲罰機制,如果一家公司不合規(guī),那么罰款可以高達2000萬歐元(約合2400萬美元),或者是該組織在全球收入的4%。③
對于用戶面部數(shù)據(jù)的采集,愛爾蘭、德國以及美國伊利諾伊州《生物信息隱私法案》(BIPA)要求:采集前需要明確提醒用戶并征得同意。著名互聯(lián)網(wǎng)公司Facebook因此遭到美、德、愛等國的調(diào)查,并被迫在歐洲地區(qū)關(guān)閉了人臉識別功能,刪除了針對歐洲用戶建立的人臉數(shù)據(jù)庫④。
歐盟之外,香港地區(qū)也出臺了“數(shù)字隱私法案”(DPO),但審查力度不如歐盟。此外新加坡有“個人資料保護法”(PDPA),日本有“個人信息保護法”⑤。
如何監(jiān)管“保密”的推薦算法?
現(xiàn)在大多數(shù)的推薦算法原理都是秘密,這樣的“算法黑箱子”潛藏一系列問題:究竟有多少工程師懂算法,能夠保證其穩(wěn)定運行?不公開的算法會不會秘密設(shè)置了某些違反道德、法律的規(guī)則,如推薦招聘信息的算法涉及性別歧視?不公開的算法一旦出了問題,相關(guān)責(zé)任人在政府調(diào)查之前修改、銷毀了問題算法怎么辦?
作為一種建議,中國計算機協(xié)會在2017年出版了七項算法透明度和問責(zé)制的原則⑥:
意識:所有者、設(shè)計師、構(gòu)建者、用戶和其他分析系統(tǒng)的涉眾應(yīng)該意識到他們對算法的設(shè)計、實現(xiàn)和使用可能存在的偏見,意識到偏見可能對個人和社會造成的潛在危害。
獲得和糾正:監(jiān)管機構(gòu)應(yīng)鼓勵一種機制,當(dāng)個人和團體因算法決定的決策而受到不利影響時,允許他們(對算法)進行質(zhì)疑和糾正。
問責(zé):機構(gòu)應(yīng)該對他們使用的算法做出的決策負責(zé),即使不可能詳細解釋算法是如何產(chǎn)生結(jié)果的。
解釋:鼓勵使用算法決策的系統(tǒng)和機構(gòu),對算法的過程和其作出的具體決定給予解釋。這在公共政策環(huán)境中尤為重要。
數(shù)據(jù)來源:對訓(xùn)練數(shù)據(jù)收集方式的描述應(yīng)該由算法的建造者維護,同時還要探索人為或算法本身在數(shù)據(jù)收集過程中可能產(chǎn)生的偏差。公眾對數(shù)據(jù)的審查為修正偏差提供了最大的機會,但是,考慮到隱私、保護商業(yè)秘密以及對公眾過于開放分析過程可能導(dǎo)致對系統(tǒng)的惡意攻擊,需要限制個人訪問,只允許合格的、得到授權(quán)的人接觸數(shù)據(jù)和算法。
可審核性:模型、算法、數(shù)據(jù)和決策應(yīng)該被記錄,以便在有危害的情況下對它們進行審計。
驗證和測試:機構(gòu)應(yīng)該使用嚴格的方法來驗證他們的模型,并記錄這些方法和結(jié)果。特別是,他們應(yīng)該定期進行測試,以評估和確定該模型是否會產(chǎn)生歧視性的危害,鼓勵機構(gòu)將此類測試的結(jié)果公之于眾。
西方國家主要通過行業(yè)立法來監(jiān)管算法本身。歐盟證券和市場管理局(ESMA)就制定了金融管理標準:在金融交易領(lǐng)域,高頻算法交易員有義務(wù)存儲記錄和交易算法至少5年⑦?!八惴ń灰住笔侵敢恍┕就ㄟ^推薦算法自動確定訂單的各個參數(shù),例如是否啟動訂單的順序、時間、價格或數(shù)量等,并在有限的人為干預(yù)或無人干預(yù)的情況下,對訂單、報價和執(zhí)行過程進行調(diào)整和優(yōu)化。ESMA的金融管理標準規(guī)定,使用這類算法輔助操作的公司需要:1.報告公司資質(zhì),證明其有足夠的員工和工程師來理解、操作和控制算法;2.算法備案,以防不正當(dāng)競爭和出現(xiàn)系統(tǒng)錯誤時進行回溯檢查;3.使用算法的公司要向監(jiān)管部門報備,并接受交易全流程的持續(xù)監(jiān)控。
此外,英國上議院也對數(shù)字經(jīng)濟法案的修正案進行了辯論,該法案將給予有關(guān)部門執(zhí)行和發(fā)布算法評估的權(quán)力。與數(shù)字保護法案不同,數(shù)字經(jīng)濟法案并不是要明確地反對某一種算法設(shè)計⑧,而原有的數(shù)字保護法案授權(quán)英國資訊委員會辦公室可采取強制措施保護數(shù)據(jù)安全。