智能新聞信息分發算法偏見與倫理規制
時間:2022-04-24 05:21:26
導語:智能新聞信息分發算法偏見與倫理規制一文來源于網友上傳,不代表本站觀點,若需要原創文章可咨詢客服老師,歡迎參考。
【摘要】算法技術介入智能新聞信息分發的過程中,提高了信息的傳播效率,也引發了算法偏見這一倫理問題。從個人主體權利的角度看,算法偏見使用戶的信息選擇權和知情權遭遇嚴峻挑戰。本文分析了算法偏見產生的技術邏輯,并從保障用戶信息選擇權和知情權出發,提出了一系列基于信息權利的算法倫理原則,包括自主性原則、公正性原則、最優化原則和透明性原則。
【關鍵詞】智能新聞;算法偏見;信息權利;倫理原則
基于算法的“今日頭條”的信息平臺和信息推薦模式,某種程度上滿足了受眾的興趣和需求,在精準定位受眾、聚合受眾上取得了成功。但是,其背后基于算法的精準推送,也讓人們開始質疑算法的正義性。算法的信息過濾行為是不是客觀中立的?是否變相地剝奪了用戶的信息選擇權?這種算法是不是用戶真正所需要的?隨著算法技術在智能新聞中的不斷應用,算法偏見問題越來越多地出現在國內學者的研究中。有的學者將算法偏見進行分類,認為算法偏見主要包括互動偏見、潛意識偏見、選擇偏見和數據導向的偏見(許向東,2018)。有的學者從算法風險的角度,探討了算法應用新聞生產中帶來的偏見風險,認為算法運行系統中的偏見因素會導致偏見的結果輸出(張超,2018)。有的學者從算法倫理出發,研究算法價值偏向所涉及的倫理問題,包括信息繭房、回音壁效應、算法歧視、算法對傳播權利重新洗牌、算法傳播不易察覺價值偏向的信息等問題(董天策,2019)。還有的學者研究了分類推薦導致的“算法歧視”問題,認為算法歧視使個體獨立選擇與思考的空間不斷縮小,個體在算法推薦的滲透下逐漸失去自我的決斷權;這種信息偏向使受眾的視野漸漸窄化,逐漸演變成信息時代的“井底之蛙”(陳昌鳳,2017)。本文從信息權利的視角出發,聚焦智能新聞信息分發中的算法偏見問題,深入考察算法偏見產生的技術原理,探討算法偏見給用戶信息選擇權和知情權帶來的挑戰,并針對算法設計者這一責任主體,提出規制算法偏見的倫理原則。
一、算法推薦中的信息權困境
智能新聞是以算法技術為核心,自動生成新聞和推送新聞的一種新型新聞形態。算法技術在智能新聞信息分發中的應用,一方面使智能新聞具有快捷、便利、個性化等優勢,實現了“千人千面”的傳播效果,在新聞聚合下的傳媒生產中頗有市場;另一方面,也帶來了信息分發的偏向,出現了算法偏見這一令人擔憂的后果。目前,學界并未對“算法偏見”形成一個清晰而統一的定義。FranciscoSocal認為算法偏見是在看似客觀中立的算法程序設計中,隱藏著設計者或開發人員的偏見,或者算法模型所采用的數據帶有偏見(Socal,2018)。楊保軍認為算法偏見是在新聞選題和報道中所體現出的價值判斷的不客觀、不公正(楊保軍,2019)。因此,算法偏見是算法技術應用于信息生產與分發過程中,由于算法設計、輸入數據、技術局限等因素造成的算法決策不客觀、不公正的現象。在當前的智能新聞實踐中,算法偏見不僅帶來新聞的專業性、客觀性弱化,還對用戶的信息權利構成威脅,導致作為社會環境“瞭望者”的媒體日益偏離公眾的期望。(一)算法推薦中的用戶信息選擇權。自從算法推薦技術在新聞分發中應用以來,不少學者認為算法讓公眾擺脫了專業媒體對信息的“操控”,擁有了自主、高效地選擇個性化信息的權利。這一觀點源于算法推薦技術被認為是客觀中立的。由于基于算法推薦的信息分發過程不存在價值判斷,而是根據用戶的興趣愛好推送信息,因而有的學者認為算法推薦技術把信息的選擇權歸還給了公眾。2017年12月,“今日頭條”因傳播色情低俗信息受到了查處,這與企業盲目迷信算法推薦和智能分發機制有關。然而,企業卻仍然聲稱算法技術不具有價值取向、新聞價值的選擇和判斷標準完全取決于用戶,將責任轉移給了用戶個人。用戶的信息選擇權究竟是用戶還是算法在主導?這一問題備受爭議。實際上,盡管基于用戶偏好推送信息是由算法自動完成的,但算法模型和個性化推薦系統是人為主觀創造的結果,算法運行的代碼和程序都是經過技術人員的設計,在算法設計的各個環節都會不可避免地受到人的主觀影響。因此,算法推薦表面上似乎客觀中立地推送信息,滿足了用戶自主選擇信息的需求,事實上算法過濾信息的背后隱藏著深層次的價值偏見,用戶對信息的自主選擇權仍然在被算法所左右。信息選擇權是用戶自主選擇信息而不受干涉的權利。用戶的信息選擇權以信息獲取權為基礎,意味著用戶在獲取信息的過程中,擁有選擇自主性(紀向新,2014)。2011年9月,美國民眾發起“占領華爾街”的游行示威運動,但在Twitter的“趨勢發現”中卻無法看到該事件的熱搜。Facebook長期標榜其新聞推送是由智能算法自動完成的,然而其平臺上關于新聞主播MegynKelly力挺希拉里而被福克斯開除的虛假新聞卻被推至話題榜首位,這間接證實了Facebook的黨派傾向(袁帆、嚴三九,2018)。在政治權力、商業資本以及算法設計者價值判斷等因素的影響下,算法推薦并不是完全客觀、中立地呈現信息,而是受到“主觀過濾器”的隱形干預,這種干預導致的后果是用戶無法自由而全面地接收信息,因此用戶信息選擇的自主性無疑遭到干涉。算法程序根據用戶的個人數據與閱讀行為建立“數字檔案”,將某類信息只提供給某類用戶而非其他用戶,也阻礙了用戶對信息的自主選擇。例如,《華盛頓郵報》調查117名美國用戶發現,Facebook會根據用戶的性別、設備使用習慣、居住地、年齡等各種差別進行信息推送,將某些信息只推送給居住在農村農場而非城市里的用戶,或推送給大部分女性用戶而非男性用戶。紐約大學社會學教授MarshallBlonsky認為,依據數字檔案進行智能推送,是人為地給每個個體劃定了邊界(仇筠茜、陳昌鳳,2018)。盡管算法推薦滿足了用戶的個性化需求,但算法程序根據用戶的數字痕跡形成帶有主觀偏向的用戶畫像,圈定用戶的所屬群體,并決定分配何種類型的信息,這與用戶的信息選擇權的要義嚴重相悖。(二)“信息繭房”對公眾知情權的困擾。目前,多數的算法和信息過濾,都是根據用戶的搜索行為、點擊內容、文字輸入來判斷用戶興趣和好惡的。對此,一些用戶抱怨,往往因誤點了一兩條新聞,或者僅僅出于好奇點了一下相關新聞,就導致之后不斷大量地被推送與之相關的其他新聞。只看想看的信息,聽起來是一件很愉快的事情,但長此以往,用戶很容易被隔離在信息的孤島上,對外界信息缺乏了解。過去,哈佛大學教授凱斯•桑斯坦用“信息繭房”來描述這種現象,認為在信息傳播中,因公眾自身的信息需求并非全方位的,公眾只選擇使自己愉悅的信息領域,久而久之,會將自身桎梏于像蠶繭一般的“繭房”中(凱斯•桑斯坦,2008)。然而,今天的算法推薦是否會導致“信息繭房”或者信息窄化,在學術界仍然存在爭議。有學者認為算法越來越多元,綜合運用多種算法可以避免單一算法的刻板印象,算法的不斷優化和其自身糾錯能力都利于打破“繭房”效應(孫少晶等,2019)。還有學者認為“信息繭房”的形成取決于算法推薦機制、社交關系和個人心理等一系列條件。在個人層面,多樣的閱讀動機使我們不僅僅局限于自己認同的信息領域;在社會層面,豐富的社交關系不會讓人們陷入狹窄的視野中;技術層面,不同類型、不同原理的算法甚至可能促進信息的多樣性(方可成,2019)。由于目前的大量研究缺乏經驗材料的支持,“信息繭房”的存在不具有客觀性和必然性。但在中國的社會背景下,“信息繭房”的提出具有積極意義,尤其是警惕個人視野局限、避免觀點極化等層面。“信息繭房”是兩種傳播思維相互碰撞的結果,傳統意義上大而全的傳播模式注重“面”上的拓展,而基于算法的個性化信息推薦則注重“點”上的深挖。因此,算法推薦在滿足用戶個性化需求的同時,不可避免地會限制用戶信息的接觸面(喻國明,2018)。目前,運用較多的是基于內容的推薦算法,這種算法通過內容和用戶特征的精準匹配來推送信息。由于用戶具有選擇性接觸心理,傾向于對與自己偏好相符的信息進行點贊、轉發、收藏或關注,因而基于內容的推薦算法正是利用用戶的這種心理,根據用戶偏好持續推送相關信息,讓用戶在算法的誘導下不斷地相信推薦、順從內心的意愿選擇信息。從這個角度而言,用戶大量獲取千篇一律的信息,容易身陷“信息繭房”。而一旦“信息繭房”產生,其帶來的最大后果是窄化公眾的信息接觸面,將公眾的視野禁錮在有限的信息領域,讓公眾失去了解外界的機會,這對公眾知情權帶來了困擾。公眾的知情權主要包括三個方面的內容:知政權、社會信息知情權和個人信息知情權。知政權是指公眾了解、知曉國家活動和國家事務的基本權利;社會信息知情權是指公眾對其所感興趣的社會情況進行了解的權利;個人信息知情權是指公民依法享有從他人、政府機關和其它組織等方面了解有關本人的信息記錄的權利(周毅,2009)。“信息繭房”會造成隱性的言論自由剝奪,即互聯網沒有主動給瀏覽者提供他們應當獲得的內容,但人們意識不到需求這些內容(胡婉婷,2016)。公眾有權利了解與自己切身利益密切相關的信息,但束縛在“信息繭房”中容易使公眾只關注自己感興趣的某一類信息,而對其他領域的社會情況缺乏了解,阻隔了公眾對社會信息的知情。這種對社會信息的不知情,不僅讓公眾難以根據社會環境的變化做出有效的行為決策,還將導致公眾在公共事務的討論和決定過程中缺席,難以實現有效的對話與溝通,造成公共性的喪失甚至無序化。對于那些媒介素養低下的公眾,他們更加容易陷入信息繭房而不自知,幾乎難以意識到其知情權受到侵害的問題。
二、算法偏見的生成邏輯
算法介入新聞生產中,由于缺乏人的參與,往往帶有科學、客觀的外在光環。這種客觀性主要體現在程序運行或數據計算過程中的無偏差,但實際上算法在智能新聞信息分發的實踐過程中卻被揭露出隱藏著算法偏見。從技術原理來看,智能新聞在信息分發過程中的推薦結果,是由技術開發人員進行算法設計,并通過自動化程序驅動形成的。因此,算法偏見主要產生于算法程序的設計與運行過程中。(一)基于“流量至上”的算法設計。算法設計是技術開發人員設計算法程序的過程,這一過程涵蓋了理解問題、選擇算法設計技術、設計并描述算法、手工運行算法、分析算法的效率、實現算法等一系列步驟(王紅梅、胡明,2013)。盡管算法程序是算法運行的主要執行者,但算法程序的運行效果往往取決于算法設計。選取何種目標變量(用戶性別、點擊頻度、頁面停留時長等),以及如何設定分類標簽與權重,都會影響信息分發的結果。而算法設計往往隱含技術開發人員的價值取向,在理解問題、選取相關指標、設置權重、評估算法等算法設計過程中,技術開發人員的態度和價值觀念都極易嵌入其中,造成算法推薦客觀性的弱化(張超,2018)。2016年,Facebook“偏見門”事件揭露Facebook的趨勢話題平臺過濾保守派信息,卻保留自由派信息(方師師,2016)。2018年,YouTube平臺通過算法推薦激勵發展一種以兒童為目標的亞文化,將充滿猥褻和暴力的視頻通過算法分發到專門針對兒童的應用程序YouTubeKids上(郝鵬程,2018)。這種將某些內容過濾、壓制,并優先推薦其他內容的信息分發方式,實際上是算法偏見的一種表現形式,它會導致用戶接收信息的失衡。在算法設計者主體意識的支配下,算法設計不僅受到設計主體自身價值判斷的影響,還受制于算法設計者所置身的環境。由于算法設計者不可能獨立于社會環境,其價值判斷和行為決策不可避免地受到其所處環境的影響,而來自環境的干擾會直接被添加進算法設計之中。在競爭激烈、角逐流量的市場環境中,算法設計者很難不受到流量導向的影響,在算法設計中為低俗劣質的新聞賦予更多權重,并使低俗內容在用戶點擊后反復推薦,不斷賺取點擊量、流量。在“今日頭條”推送色情信息被查處的事件中,企業認為算法推薦完全是根據用戶的偏好來推送信息的,從而得出信息選擇的主動權在用戶手中。實際上,在媒體機構商業利益的驅動下,技術人員很可能遵循“流量至上”的原則,在算法設計的后臺通過設置權重參數,加大低俗新聞的推送概率,推送吸引用戶注意力的信息。而這些信息會誘導用戶不斷接觸大量類似信息,甚至對算法推送的內容產生依賴,喪失理性選擇信息的能力。因此,算法推薦不可排除背后的人工干預,也就不能簡單地說算法推薦技術是完全客觀中立的。對于點擊量高的信息,算法也往往將其作為大多數人愛看的信息優先推薦。雖然這種信息分發方式以用戶的態度和行為為中心,極大地釋放了用戶的傳播權,增強了用戶的主動性和積極性。然而,值得注意的是,這種以點擊量為價值評估標準的算法推薦,極易被人為操縱的信息熱度所蠱惑,因為點擊量很多時候并不能真實地反映用戶的態度和行為。YouTube往往根據信息的熱度起伏向用戶自動推送熱門視頻,而將冷門信息拒之門外,卻忽略了人為刷播放量的行為。因此,在YouTube平臺上,通過公關公司花錢在短時間內維持人氣,就能靠這種虛假流量捧紅一條視頻。可見,算法設計將流量和點擊量作為推薦價值評估標準,意味著由算法推薦技術主導的信息分發也存在較強的傾向性,難以保持絕對的客觀、中立,算法技術的中立性只不過是一個并不存在的“神話”。(二)基于用戶畫像的個性化推薦。在今天的互聯網上,所有的平臺和網站都不會告訴用戶他們搜索到或被推送接收的信息是如何遴選出來的,用戶同樣不知道,算法在背后已經對其進行了全方位的立體畫像。在推薦系統中,用戶畫像是根據用戶的社會人口屬性、生活習慣、消費行為等特征抽取出來的標簽化用戶模型(塔娜、唐錚,2019)。從基于內容的算法推薦機制來看,在運用算法程序推送與用戶畫像相匹配的內容時,一般要經過這一流程:首先,提取信息特征,并將文本結構化和標簽化。利用網絡爬蟲技術自動抓取信息,通過機器學習對海量數據標記,將信息分類。提取文本中的關鍵詞、類型、n元組等特征,并對其進行量化建模,將其結構化后保存在數據庫中(陳昌鳳、師文,2018)。其次,構建用戶興趣模型。分析用戶的基本特征(如年齡、職業、所處位置、使用的設備、接入網絡的環境等)和行為特征(如點贊、評論、關注、轉發、閱讀時長等),建構用戶興趣圖譜,并根據用戶反饋進行動態更新。再次,計算用戶興趣和信息特征二者的相似度。計算每個文本和用戶興趣模型之間的相似度,呈現信息與興趣的相關性指數,相關性較高的信息將置于推薦列表中向用戶優先推薦。最后,對推薦信息進行過濾和消重,并輔以人工編輯,對機器忽略的具有新聞價值的信息進行補充。總之,基于內容的個性化推薦是對用戶數據進行搜集、存儲與分析,形成基于個人特征的用戶畫像,最后生成與當前用戶興趣愛好最相近的推薦內容。個性化推薦的技術局限也會帶來算法偏見,其表現形式是過于迎合用戶興趣、一味地推送與用戶畫像相匹配的信息。在個性化算法推薦系統的應用中,新聞內容與用戶畫像匹配的精準度越高,用戶越容易被圈進一個自己建構的信息閉環。由于算法假設用戶當前的信息需求和其長期的個人興趣相關,因而一旦用戶點擊某類新聞,算法自動認定用戶近期都對該類新聞感興趣,并給用戶推薦此類新聞,而將與用戶興趣、意見相背離的信息排除在用戶的視野之外。用戶接觸到大量相似內容的同時,其點擊量也持續增加,進而帶來推薦系統的持續推薦,最終經過不斷循環往復形成一個頑固的信息閉環。盡管一些用戶具有多元化的閱讀興趣,推薦系統中的海量內容也足以囊括用戶感興趣的信息領域,但持續推送同質化的信息無疑將減少內容輸出的多樣性。算法偏見的存在,使得推送內容過濾了與用戶偏好無關的信息,極易加大用戶陷入“信息繭房”的可能性,讓每個人隔離在信息孤島中,對其他信息一無所知,難以滿足用戶的知情權。
三、算法推薦的倫理設計
算法通常被視為一種單純的技術,在技術中立論的語境下,算法偏見問題極易被掩蓋,從而成為一個“隱性問題”。智能新聞中存在的信息偏向不僅阻礙了用戶自由全面地獲取信息,還損害了新聞的客觀性和公信力。那么,如何規制算法偏見,逐漸成為智能新聞發展中面臨的新挑戰。算法往往處于倫理規制的視野之外,對算法進行倫理約束也常常遭到“技術烏托邦”支持者的排斥。然而,算法偏見給用戶信息權利帶來了種種侵害,這意味著有必要將算法偏見的隱性問題顯性化,讓算法受到倫理的約束和規范,并將其納入倫理規制的范圍之內。馬克思•韋伯在《以政治為業》中提出責任倫理,他認為,責任倫理的遵循者不僅要具有意圖上的善良,還要顧及自己行為的可能后果,并對可能的后果負責(葉笑云,2013)。行動者既要衡量實現其本身直接目的可能直接造成的后果,也應該考慮其行為對其他價值可能直接或間接造成的后果(帕森斯,2003:738)。在算法設計的過程中,責任倫理要求算法設計者具備責任意識,在設計算法程序、編寫代碼之前審慎地選擇方案,防范可預知的不良后果。同時,算法設計者不僅要考慮技術帶來的功能性利益,還要著眼于算法與社會的關系,充分考慮和尊重用戶的個人利益環境,衡量對用戶造成的影響。責任倫理為規制算法偏見提供了一個理論基點,不但適用于算法的倫理約束,而且對保護用戶信息權利、重塑人本主義具有重要意義。基于此,筆者嘗試以保障用戶信息選擇權和知情權為出發點,以算法設計者為責任主體,提出一種基于信息權利的算法倫理原則,以制約算法偏見,確定算法責任,保護用戶信息權利。(一)自主性原則。自主性原則是指個人能夠根據自我意愿自由支配其合法信息的權利,這種信息權利是一系列的權利束,而不是一次性的信息選擇權。自主性原則源自康德的自由理論,康德從人的理性和尊嚴角度來界定“自主”,認為每個人都有絕對的價值和決定自己命運的能力,自主意味著要將他人作為目的而不是手段去尊重(莊曉平、康德,2011)。可見,自主性原則最基本的倫理觀念是在尊重人的基礎上尊重人的自我決定權。2018年12月18日,歐盟委員會公布《可信賴的人工智能道德準則草案》,其列舉的十條需求原則中包括“尊重人的自主性”這一原則,強調推薦系統、導航系統和個人助理等AI必須支持用戶的個人偏好,增強用戶自我決策能力,保護用戶價值觀的多樣性(張雅妮、徐曼,2018)。在智能新聞信息分發過程中,由于算法推薦技術本身存在局限性,再加上其背后隱藏著不少人為干預,干涉了用戶對信息的自由選擇。這種干涉行為說明算法設計并未將用戶當作理性的個體,忽視了用戶具有對自身行為進行理性思考、理性選擇和對行為后果承擔責任的能力,缺乏對用戶的尊重,違背的正是自主性原則。因此,有必要通過自主性原則,尊重用戶的主體性,讓算法技術發揮人本精神,更好地為用戶提供信息服務。自主性原則要求算法設計者在理念上承認用戶擁有信息選擇的權利,并在行動上尊重用戶的自我決定權,不干涉用戶的信息選擇自由。但算法設計者不能只停留在不干涉用戶信息選擇的層面上,而應當設計算法促進和維護用戶自主選擇的能力,盡可能地幫助用戶避免破壞其自主行為的因素。具體而言,算法設計者應增加用戶選擇的功能,讓用戶能夠自行選擇是否、何時以及如何讓算法進行自動化決策。如果用戶拒絕接受算法推薦的信息,可允許其通過點擊某個選項屏蔽算法自動推薦的信息;如果用戶對算法推送的內容產生質疑或不滿,可為其提供自行修改的機會。比如,用戶可以針對其個人的算法運行程序,選擇性地調整相關的算法參數,優化算法推薦模型。自主性原則的實現,既要靠算法設計者充分給予用戶自主選擇的機會,也依賴于用戶自身媒介素養的提高。用戶只有不斷提高信息辨別能力,增強算法素養,主動參與信息選擇,才能更好地維護其自主選擇信息的權利。(二)公正性原則。在新聞領域,公正性原則既是新聞傳播的基本原則和要求,也是針對算法偏見和歧視問題所提出的倫理原則。算法設計應當遵循公正性原則,公平分配用戶獲得信息的利益和機會,保障用戶獲取、選擇信息的公平性,利用算法技術的優勢為社會公平和正義做貢獻。羅爾斯在《正義論》中曾經提出正義的兩大原則,一是自由平等原則,即每個人對與所有人所擁有的最廣泛平等的基本自由體系相容的類似自由體系都應有一種平等的權利。二是差別原則,即社會和經濟的不平等應這樣安排,使它們:在與正義的儲存原則一致的情況下,適合于最少受惠者的最大利益;并且依系于在機會公平平等的條件下職務和地位向所有人開放(約翰•羅爾斯,1997)。根據正義的第一原則,算法設計應當保障用戶平等獲取信息的權利,無論用戶的身份特征如何,都不能受到帶有歧視性的區別對待。在傳播內容上,不能因種族、民族、性別、財富、地位等產生歧視或偏見;在信息獲取機會上,不能因利益需求過濾、混淆受眾搜索內容,更不能協助虛假內容的傳播(袁帆、嚴三九,2018)。在技術條件允許的情況下,算法設計者可以在設計算法的過程中嵌入“機會平等”的概念,構建算法運行應遵守的技術公平原則。目前,國外已經有研究團隊依據約翰•羅爾斯的公平技術定義及其“機會公平平等”的觀念,引入“歧視指數”的概念,提出了設計“公平”算法的構想(許向東,2018)。根據正義的第二原則,在制定算法規則時要兼顧公正和效率,使社會中處境最不利的成員獲得最大的利益。由于算法推薦往往根據用戶的數字痕跡進行決策,而用戶利用媒介資源的素養存在巨大差異,因此,算法決策的過程看似無差別,實際上卻維系著社會的不平等。這一原則要求算法設計者不僅要維護媒介素養較高的信息優勢群體的信息權利,還要將著力點放在媒介素養不足的信息弱勢群體上,設計適用于弱勢群體的算法,為其提供更具針對性的信息服務。(三)最優化原則。最優化原則最早出現在醫療領域,指醫務人員應選擇以最小的代價獲得最大效果的診療方案,是行善原則、最小傷害原則在臨床工作中的具體應用,在醫學倫理學領域普遍應用。最優化原則在本質上是一種技術性原則(江璇,2019),因而對于算法技術而言,最優化原則同樣適用。由于算法技術追求的不是滿足人類基本的、最低層次的需求,而是發展性的、高層次的需求,因此當算法技術在實際中運用時,算法的設計和使用具有較大的選擇空間。正是算法設計和使用這種可選擇性的特點,突顯了最優化原則的重要性。最優化意味著在算法技術利用之前,應對可能出現的風險進行預防,選擇能將損失降到最低的算法設計方案。2019年4月10日,美國參議院參議員Cory和Ronwydan提出《算法問責法》,該法列出的高風險算法中就包括帶有歧視性后果的算法、基于個人的地理位置、個人偏好、行為軌跡而作出的影響個人權利的算法等(朱朱,2019)。可見,算法技術的應用存在不容忽視的風險,算法設計既要滿足當前的新聞生產與傳播需求,更要對未來的算法風險做出合理地預判,降低風險發生的可能性。具體而言,算法設計者應遵循道德標準和設計規則,將社會、道德、環境等因素納入到算法設計環節中,預設算法可能引發的問題。例如,對于給公眾知情權造成困擾的“信息繭房”問題,盡管“信息繭房”是否存在仍然具有諸多不確定性,但算法設計可以通過技術手段不斷評估、調整和優化算法,增強信息的多樣性,避免“信息繭房”的產生。例如,《華爾街日報》在2016年創設了“紅推送,藍推送”,同時向用戶推送臉書上同類內容的自由傾向、保守傾向的信息。這樣一來,算法推薦的客觀性將有所增強。算法技術的應用要最大程度地發揮技術的優勢,避免產生不良后果,必須通過綜合評估與分析進行最優化的算法選擇。制定算法系統的風險評估標準,建立一個算法評估體系,并對算法風險進行日常的實時監測(張超,2018)。一旦發現算法存在缺陷或潛在風險,根據具體情況決定是否中止算法系統及其相關服務。歸根結底,只有增強風險意識,做好預防和監督措施,才能在最大程度突顯算法技術的優勢,降低算法風險,實現算法技術運用的最優化。(四)透明性原則。透明性原則是向公眾公開新聞生產的信源、方法,使其能夠對新聞生產的過程進行監督、審查、批判甚至干預。2013年,凱利•邁克布萊德和湯姆•羅森斯蒂爾在《新聞記者的倫理:21世紀的準則》一書中將原來的“獨立性”準則替換成“透明性”,并提出透明性的價值在于培育公眾的智力獨立,因為這樣可以使報道者的主觀性認知在報道中直接呈現,而不是將報道者的偏見暗含于中立的報道中(牛靜,2019)。算法介入到新聞生產、信息分發領域,由于存在隱蔽性極強的“技術黑箱”,公眾往往難以理解新聞的生產過程,無法對基于算法生產和推送的新聞進行獨立判斷,也就無法有效地監督算法的使用,防范算法帶來的風險。因此,有必要通過透明性原則,提高公眾對算法運作的監督力度,避免算法技術的濫用。透明性原則的推行不能僅僅停留在理念上,應該通過技術設計實施一定的算法披露,增強算法的可解釋性,提高用戶對算法的理解程度。算法披露的內容應當包括算法要素、算法程序和算法背景。算法要素披露,要求媒體公布數據質量、可信度、準確性、誤差范圍、采樣范圍、缺失值等要素,主動披露涉及公共利益的算法的源代碼(張淑玲,2018)。算法程序披露,意味著算法設計可以增加決策說明的模塊,向用戶解釋算法運算和決策過程,讓用戶了解算法的設計目標、運作機制、推薦特定內容的原因以及算法決策中存在的誤差和缺陷。算法背景披露是向用戶提示算法在新聞生產中的參與程度。在算法推薦信息之前,對新聞是否由機器人記者撰寫、是否為算法技術推薦、是否存在人類記者干預等進行提示,并說明算法技術在實際應用中可能帶來的偏見和誤差;當用戶與一個系統進行交互時,應當告知與其對話的是聊天機器人,而不是真人。這些信息的公開,能夠在一定程度上破除算法的“技術黑箱”,滿足用戶對算法運作的知情權,提高用戶對算法運作的判斷力、辨別力和監督效力。
四、結語
智能新聞是人工智能技術的具體應用,而算法技術是智能新聞的核心。盡管我們還處于弱人工智能階段,算法技術仍在算法設計者理解的范圍內,卻已給人類帶來算法偏見問題,給用戶信息選擇權、知情權的實現帶來嚴峻挑戰。隨著弱人工智能階段越來越向強人工智能階段邁進,算法引發的倫理困境將越發凸顯出來,將算法技術納入倫理規制的范圍中將發揮越來越重要的作用。相比于法律的事后救濟,構建算法倫理原則更強調預防的重要性,要求設計者在算法設計階段遵循相關的倫理規則,在算法程序運行之前就考慮算法可能帶來的倫理問題。這種預先主動承擔道德責任的方式,將最大程度地避免算法技術的濫用,有效平衡人與算法的關系以及基于算法的人與人之間的關系。
作者:林愛珺 劉運紅 單位:暨南大學
- 上一篇:測繪地理信息安全監管體系的構建
- 下一篇:行業亂象整治實施方案