演算法依賴
1. 演算法治理須抓牢主體責任「牛鼻子」
近日,國家網信辦等四部門聯合發布《互聯網信息服務演算法推薦管理規定》(以下簡稱《規定》),引發了 社會 熱議和互聯網平台企業的積極響應。
《規定》的出台,表明國家有關部門對演算法正在經歷一個認識上由淺及深、由表及裡,管理上從審慎監管到豐富工具庫,再逐漸到引航指向的過程。作為部門規章的《規定》,也將與網路安全法、數據安全法、個人信息保護法等重要法律一道構建起新時代大數據和人工智慧治理的主體框架。
過去十年來,以演算法為核心的智能 科技 極大改變了 社會 生活形態,購物推薦、出行導航等逐漸走入尋常百姓家,人們的生纖稿腔活已被嵌入「演算法」之中,甚至相當一部分人產生了「演算法依賴」。以演算法為核心的智能 科技 也極大提升了政府公共治理效率和水平,特別是在疫情防控中發揮了不可替代的作用。
但與此同時,由於認識、監管滯後,以及信息不對稱所帶來的「黑箱運算」,導致在一些商業應用場景中,演算法以一種極具破壞力的方式近乎野蠻地生長著:演算法操縱、誘導沉迷、大數據殺熟等大量存在,不僅沖擊正常市場秩序,破壞公平競爭的市場環境,也影響了消費者的知情權、選擇權和處置個人信息的權利。
演算法作為一種技術規則和運算邏輯,本身是中立的,實踐中之所以出現種種亂象,折射出的是演算法背後的開發者價值觀的偏航。演算法偏航帶來的結果大致相同:那就是通過不公平、不正當的運算規則鎖定和收割利益。因此,演算法的「算計」,歸根結底是人的算計,是掌握演算法的商業平台的算計。盡管有專家稱,一些具備自我學習、自我訓練能力的演算法,出現歧視和偏差在很多情況下難以預料,但從整體來看,演算法是有價值觀的,其價值觀就是開發者和互聯網平台的價值觀。
因此,演算法治理的核心就是牽住互聯網平台的主體責任這個「牛鼻子」。如《規定》明確,演算法推薦服務提供者應當落實演算法安全主體責任,建立健全演算法機制機理審核、 科技 倫理審查、用戶注冊、信息發布審核、數據安全和個人信息保護等管理制度和技術措施。我國個人信息保護法也規定,提供重要互聯網平台服務、用戶數量巨大、業務類型復雜的個人信息處理者應當承擔保護信息安全的主體責任。
壓實主體責任是穿透演算法迷霧毀衫、引航演算法治理的關鍵之舉。國家有關部門近年來對若干互聯網平台啟動調查,就是在執法層面抓牢、壓實主體責任的切實體現。國家層面也越來越清晰地認識到:掌握大數據、雲計算、人工智慧的互聯網平台,其作用是為 社會 發展提供「關鍵信息基礎設施」,而非張牙舞爪的利益收割機。
作為演算法的提供者,互聯網平台必須著眼長遠,服務於國家整體戰略,嚴格遵守法律法規和商業道德,堅持正確導向,切實承擔起主體責任,規范演算法應用,實現科敬虛學技術與商業倫理、 社會 價值的良性互動,為推動我國經濟 社會 高質量發展提供新助力。(張亮)