智能媒體的倫理風險與規(guī)制路徑

時間:2022-02-18 04:22:33

導語:智能媒體的倫理風險與規(guī)制路徑一文來源于網(wǎng)友上傳,不代表本站觀點,若需要原創(chuàng)文章可咨詢客服老師,歡迎參考。

智能媒體的倫理風險與規(guī)制路徑

人工智能技術的快速發(fā)展,伴隨著一系列的政策、法律、倫理方面的挑戰(zhàn)。智能媒體既存在人工智能的共性問題,也面臨智能媒體的新問題,引發(fā)新聞傳播學界和業(yè)界高度關注。本文從倫理視角,梳理我國智能媒體的相關倫理規(guī)范,審視其存在的倫理風險,由此提出智能媒體倫理規(guī)制路徑

一、智能媒體倫理規(guī)范問題的提出

人工智能技術的應用推動了智能媒體的發(fā)展。目前,國內智能媒體主要有兩類:傳統(tǒng)媒體轉型的智能媒體,如澎湃新聞、界面新聞等;互聯(lián)網(wǎng)企業(yè)所屬的智能媒體,如今日頭條、騰訊新聞等。我國媒體產業(yè)的發(fā)展經(jīng)歷了傳統(tǒng)媒體、互聯(lián)網(wǎng)和數(shù)字媒體、智能媒體三個階段,不同階段媒體產業(yè)的倫理問題呈現(xiàn)迭代遞進的特點。對于傳統(tǒng)媒體而言,媒體從業(yè)人員在生產經(jīng)營活動的整個過程中起著主導作用,傳統(tǒng)媒體的倫理規(guī)范主要表現(xiàn)為從業(yè)人員的倫理規(guī)范,即對信息采集、內容生產、內容傳播等環(huán)節(jié)中所有媒體從業(yè)人員的倫理約束。我國現(xiàn)有的有關傳媒行業(yè)從業(yè)人員的倫理規(guī)范文件如《中國報業(yè)自律公約》《中國新聞工作者職業(yè)道德準則》等,強調媒體從業(yè)人員應恪守道德自律,維護新聞報道的客觀性和真實性。互聯(lián)網(wǎng)和數(shù)字媒體的出現(xiàn)豐富了信息生產和傳播的載體,打破了傳統(tǒng)媒體的職業(yè)邊界及信息流通機制,模糊了新聞信息與廣告信息之間的界限,對媒體產業(yè)的倫理規(guī)范提出了挑戰(zhàn)。智能媒體時代,媒體產業(yè)生產流程進一步重構,人工智能技術及設備成為信息采集、內容生產和內容傳播的重要手段。在人工智能倫理規(guī)范方面,我國已的相關文件主要有《人工智能北京共識》《新一代人工智能治理原則——發(fā)展負責任的人工智能》《人工智能安全發(fā)展上海倡議》等,旨在規(guī)范人工智能的使用,以期實現(xiàn)人工智能的自律、善治、有序。目前,人工智能技術已經(jīng)融入媒體產業(yè)生產經(jīng)營活動的各個層面,媒體產業(yè)朝著技術與內容并重的方向加速變革。人工智能技術重構了媒體生產的整個流程,深入滲透到用戶識別、信息采集、內容生產、內容傳播等各個關鍵節(jié)點,在有效提高媒體產業(yè)生產效率和提升新聞信息精準傳播能力的同時,也帶來了新的倫理風險。

二、智能媒體的倫理失范風險

(一)數(shù)據(jù)不當收集與使用問題。隱私權是公民的一項基本權利,是指公民享有的私人生活安寧與私人信息依法受到保護,不被他人非法侵擾、知悉、收集、利用和公開等的一種人格權。目前,人工智能、大數(shù)據(jù)、云計算等算法科技使得網(wǎng)絡用戶的隱私空間被擠占。從倫理層面來看,用戶有權利在網(wǎng)絡空間中匿名,但是機器算法是冰冷的,它會借助社會公共利益之名采集用戶個人信息并用于商業(yè)用途,這就產生了隱私權與公共利益的沖突。人工智能技術帶來媒體行業(yè)內容呈現(xiàn)方式的變革,5G作為新一代移動互聯(lián)網(wǎng)技術,其所具有的高速度、低功耗、低時延、泛在性、萬物互聯(lián)和重構安全等特性,將使媒體產業(yè)由以文字、圖片和影像為主的“平面信息”傳播,向以VR、AR和全景信息傳播為代表的三維“立體信息”傳播轉變,這意味著媒體傳播的信息會越來越實時化、在場化,用戶隱私侵犯也隨之變得更容易、更隱蔽。為了獲得智能媒體的信息服務,用戶往往不得不選擇接受隱私條款,如同意提供個人身份信息、允許平臺獲取位置定位等,而且用戶無法獲知個人信息的使用范圍,也無法取消授權或減少授權范圍、授權期限。一些互聯(lián)網(wǎng)平臺和智能媒體經(jīng)常過度收集一些非必要的用戶信息,并永久性儲存,這無疑加大了信息泄露和隱私侵犯的風險。(二)機器流量與數(shù)據(jù)欺詐問題。互聯(lián)網(wǎng)流量是指在一定時間內對某網(wǎng)址的訪問量,能夠直觀地反映用戶對網(wǎng)站內容的喜愛程度,已經(jīng)成為衡量網(wǎng)絡文化產品傳播效果的重要指標,也是互聯(lián)網(wǎng)廣告投放的重要考量因素。大數(shù)據(jù)時代,隨著智能媒體的快速發(fā)展,機器流量的學習能力越來越強,在行為表現(xiàn)上越來越趨近于真正的用戶。例如,網(wǎng)絡安全服務商DistilNetworks的《2020惡意機器流量報告》指出,2019年惡意機器流量占比24.1%,惡意機器流量一直潛伏在真實的用戶流量中,伺機搶占網(wǎng)絡資源,牟取暴利[1]。也就是說,許多網(wǎng)站上的訪問者不是用戶,而是自動執(zhí)行的機器程序。為實現(xiàn)某些商業(yè)利益操縱機器流量進行刷量,以此賺取廣告主的廣告費,這種行為實為數(shù)據(jù)欺詐。國際權威研究與咨詢公司Forrester于2018年的《移動欺詐報告:營銷人員的隱藏威脅》也表明,營銷人員承認他們數(shù)據(jù)預算的很大一部分由于廣告欺詐而浪費了。數(shù)據(jù)欺詐是一種非法的和有違社會道德的欺詐行為。當前,由于信息不對稱和數(shù)據(jù)可見性的缺乏,移動廣告欺詐問題愈加嚴重,破壞了智能媒體生態(tài)。機器流量刷量所帶來的只是虛假的繁榮,從短期利益來看,流量造假是對廣告主的欺詐,造成廣告主營銷費用的浪費,加劇廣告主對智能媒體行業(yè)的不信任;從長遠角度考慮,機器流量和數(shù)據(jù)欺詐將會阻礙智能媒體產業(yè)發(fā)展,侵蝕智能媒體產業(yè)鏈上的各方利益。(三)精準推送與信息繭房問題。智能媒體的精準新聞信息推送減少了用戶在選擇新聞信息時的冗余,但基于用戶興趣的新聞推薦本質上會不斷強化用戶固有的立場和觀點,讓用戶困于同質化的信息繭房之中。而長期接觸被篩選的精準信息,會導致“回聲室效應”,即用戶只關注自己感興趣的領域,對其他方面卻一無所知,這種現(xiàn)象會導致用戶喪失批判能力,觀點偏激,對事物不能公正理智地作出判斷。精準推送和信息繭房會導致知識鴻溝的進一步擴大。“知溝”假說的提出者美國傳播學者蒂奇諾認為,假如輸入社會體系的大眾媒介信息增加,社會中擁有較高社會經(jīng)濟地位的人會比社會經(jīng)濟地位較低的人更快地獲取到信息,兩個不同地位的團體之間的差距可能會越來越大,而非縮小。隨著互聯(lián)網(wǎng)媒體的發(fā)展,用戶擁有更大的信息選擇權,但個性化的新聞精準推送,會導致用戶主動選擇將自己困在信息繭房之中,不去拓寬自己的知識面,反而會加劇與其他群體的知識鴻溝。此外,在公共領域中,處于繭房中的人其觀點是偏頗的,如果再與其他繭房中的人產生共鳴,會加劇自己的偏見,從而造成群體極化。社會協(xié)商的基礎是社會公眾具有一定程度的共同經(jīng)驗,在這種共識下人與人才能相互溝通與了解,而在精準推送的算法時代,信息繭房導致社會協(xié)商共同經(jīng)驗的缺乏,最終可能會削弱社會黏性。(四)網(wǎng)絡洗稿侵犯知識產權問題。網(wǎng)絡洗稿是指通過篡改、刪減、調換來重現(xiàn)原創(chuàng)內容的獨創(chuàng)思想,與傳統(tǒng)的著作權侵權中的抄襲和剽竊相對應。智能媒體時代,網(wǎng)絡洗稿變得更為智能,有些互聯(lián)網(wǎng)媒體企業(yè)甚至開發(fā)出專業(yè)的洗稿軟件,只要將原創(chuàng)內容放入其中即可一鍵洗稿。借助大數(shù)據(jù)技術對全網(wǎng)的爆款文章進行抓取,借用人工智能技術對文章進行同義詞替換、語句重置等操作,短時間就能生產出一篇新的爆款文章。由于在形式上很難判定是否構成侵權,原創(chuàng)作者維權困難。網(wǎng)絡洗稿是一種贏得用戶注意力,獲取互聯(lián)網(wǎng)流量的便捷途徑。從短期利益來看,互聯(lián)網(wǎng)媒體平臺的發(fā)展依賴于自媒體的繁榮,嚴厲打擊網(wǎng)絡洗稿,可能導致平臺用戶的流失;但從長遠考慮,網(wǎng)絡洗稿破壞了內容創(chuàng)作生態(tài),打擊了作者的原創(chuàng)積極性,影響平臺的健康發(fā)展和自媒體生態(tài)。因此,對網(wǎng)絡洗稿行為必須加大治理力度。

三、智能媒體的倫理規(guī)制路徑

(一)基于用戶數(shù)據(jù)授權的合理使用。在用戶網(wǎng)絡行為數(shù)據(jù)化的趨勢下,保護用戶的數(shù)據(jù)隱私成為智能媒體時代的難題。為了更好地為用戶服務,實現(xiàn)更高的商業(yè)價值,智能媒體會不斷深入挖掘用戶的行為數(shù)據(jù),從而實現(xiàn)精細的用戶畫像。對于智能媒體而言,用戶數(shù)據(jù)越精準,數(shù)據(jù)價值就越高。但是并非所有類型的個人數(shù)據(jù)都能被用于商業(yè)。智能媒體時代,用戶數(shù)據(jù)要分級保護,涉及用戶高度隱私的敏感數(shù)據(jù)需要特殊的保護[2]。在1980年經(jīng)濟與貿易合作組織(OECD)的《隱私保護與個人數(shù)據(jù)跨國流通指南》(簡稱OECD準則)中,“敏感數(shù)據(jù)”這一概念首次提出,代指所有值得被保護的個人數(shù)據(jù)[3]。2018年5月25日,歐盟正式生效的《通用數(shù)據(jù)保護條例》(簡稱GDPR)界定的敏感數(shù)據(jù)類型為“種族或民族出身,政治觀點,宗教或哲學信仰,工會成員身份,涉及健康、性生活或性取向的數(shù)據(jù),基因數(shù)據(jù),經(jīng)處理可識別特定個人的生物識別數(shù)據(jù)”[4]。在我國,2020年10月1日實施的《信息安全技術個人信息安全規(guī)范》對個人敏感信息的界定:“一旦泄露、非法提供或濫用可能危害人身和財產安全,極易導致個人名譽、身心健康受到損害或歧視性待遇等的個人信息。通常情況下,14歲以下(含)兒童的個人信息和涉及自然人隱私的信息屬于個人敏感信息。”個人敏感信息的類型包括個人財產信息、個人健康生理信息、個人生物識別信息、個人身份信息、網(wǎng)絡身份標識信息和其他信息[5]。《信息安全技術個人信息安全規(guī)范》明確規(guī)定,在使用個人敏感信息時應取得個人信息主體的明示同意,并確保個人信息主體的明示同意是其在完全知情的基礎上自愿給出的、具體的、清晰明確的愿望表示。通過主動提供或自動采集方式收集個人敏感信息前應做到以下兩點:一是向個人信息主體告知所提供產品或服務的核心業(yè)務功能及所必須要收集的個人敏感信息,并明確告知拒絕提供或拒絕同意將帶來的影響。應允許個人信息主體選擇是否提供或同意自動采集。二是產品或服務如提供其他附加功能需要收集個人敏感信息時,收集前應向個人信息主體逐一說明個人敏感信息為完成何種附加功能所必需,并允許個人信息主體逐項選擇是否提供或同意自動采集個人敏感信息。當個人信息主體拒絕時,可不提供相應的附加功能,但不應以此為理由停止提供核心業(yè)務功能,并應保障相應的服務質量[6]。智能媒體數(shù)據(jù)使用的倫理規(guī)范應建立在用戶授權的基礎之上,在授權范圍內對數(shù)據(jù)進行合理的使用。(二)第三方流量數(shù)據(jù)監(jiān)測與行業(yè)規(guī)范。人工智能技術使得數(shù)據(jù)造假的風險加大,也增加了治理的難度。傳統(tǒng)媒體時代,內容質量是媒體關注的核心,也是最重要的競爭力;智能媒體時代,智能媒體平臺的流量機制和競價機制成為贏得用戶和市場的重要因素,一些智能媒體企業(yè)為了獲得經(jīng)濟效益制造虛假數(shù)據(jù),廣告主作為數(shù)據(jù)欺詐的直接受害方,也會加劇對智能媒體企業(yè)的不信任,不利于智能媒體產業(yè)的可持續(xù)發(fā)展。從長遠發(fā)展角度來看,對于智能媒體平臺及其利益相關方進行第三方數(shù)據(jù)監(jiān)測并形成行之有效的行業(yè)規(guī)范,成為智能媒體產業(yè)發(fā)展的保障。一是引入第三方監(jiān)測平臺監(jiān)測流量。與傳統(tǒng)媒體相比,依靠大數(shù)據(jù)成長起來的互聯(lián)網(wǎng)媒體企業(yè)具有技術優(yōu)勢、用戶優(yōu)勢等資源優(yōu)勢,互聯(lián)網(wǎng)媒體企業(yè)既扮演廣告投放平臺的角色,又扮演數(shù)據(jù)監(jiān)測、流量評估的角色,在經(jīng)濟利益的驅動下有可能會進行數(shù)據(jù)造假。媒體和廣告行業(yè)協(xié)會組織、大型廣告主通過引入獨立、公正的第三方監(jiān)測平臺對流量數(shù)據(jù)進行監(jiān)測,并作為廣告主、廣告公司的決策依據(jù),能有效規(guī)避造假這一問題。第三方監(jiān)測平臺專注于流量監(jiān)測,相比于智能媒體本身更具技術優(yōu)勢和行業(yè)公信力,能夠更加精準地排查異常流量,并且打通和整合各個渠道的數(shù)據(jù),為廣告主、廣告公司提供更加精準的監(jiān)測數(shù)據(jù)。目前存在的主要問題是,第三方監(jiān)測平臺發(fā)展尚未成熟,國內一些強勢互聯(lián)網(wǎng)企業(yè),例如阿里巴巴、騰訊、百度等,會以保護商業(yè)機密為由排斥第三方監(jiān)測平臺進行數(shù)據(jù)監(jiān)測,從而對推進第三方監(jiān)測造成障礙。針對這一問題,可以依靠行業(yè)協(xié)會和大型廣告主的力量,建立制度化的監(jiān)測機制,推進互聯(lián)網(wǎng)流量第三方監(jiān)測的實施。二是制定相關的行業(yè)規(guī)范。市場監(jiān)管部門和行業(yè)協(xié)會組織需要發(fā)揮其功能,形成一套操作性強、行之有效的行業(yè)規(guī)范。在數(shù)字營銷領域,一些第三方監(jiān)測平臺率先了與虛假流量相關的行業(yè)報告和標準規(guī)范。例如,精碩科技2016年了《廣告反欺詐白皮書》,對機器人虛假流量、視頻類虛假流量及效果類虛假流量等進行解讀。同年,品友互動聯(lián)合群邑集團旗下的數(shù)字媒體平臺共同了《數(shù)字廣告反作弊最佳實踐白皮書》,提出利用先進程序化技術防止流量作弊。此外,相關行業(yè)協(xié)會也制定了行業(yè)標準,監(jiān)督廣告流量造假行為,如中國無線營銷聯(lián)盟2017年的《移動互聯(lián)網(wǎng)廣告無效流量驗證標準V.1.0》和《移動互聯(lián)網(wǎng)廣告可見性驗證標準V.1.0》兩大標準。從目前來看,智能媒體行業(yè)有關規(guī)范數(shù)據(jù)造假行為的相關制度和標準比較少,且約束力不夠強,治理智能媒體產業(yè)鏈中頻發(fā)的數(shù)據(jù)造假問題,還需要市場各參與主體長時間、全鏈條的合作。智能媒體平臺需要從自身長遠利益出發(fā),促進行業(yè)規(guī)范的制定和落實,塑造誠實可信的平臺形象。(三)公共信息與個性化信息結合推送。針對人工智能技術對用戶進行精準推送可能帶來的信息繭房問題,智能媒體新聞信息推送需要遵循公共信息與個性化信息相結合的原則。個性化推送的目的是貼合用戶興趣愛好,達到吸引用戶注意力、實現(xiàn)商業(yè)價值的目的,其往往通過用戶在社交媒體、搜索引擎等網(wǎng)絡媒體中瀏覽、點擊、分享的信息建立用戶模型。而這些信息是私人化的,與個人的認知、情緒、態(tài)度息息相關,算法可以很好地識別并以此為依據(jù)判斷該用戶的信息接收偏好。與之相對的是客觀、冷靜、具有公共價值的公共信息,或許它們無法為智能媒體帶來明顯的流量提升,但這些信息對于用戶整體環(huán)境的認知建構具有重要意義,因此,智能媒體并不能以無法獲得高點擊量為由拒絕公共信息內容的推送。對于智能媒體而言,需要保證具有公共價值和專業(yè)水準的公共信息的有效傳播,保證用戶能夠有機會接受多方面、多樣化的內容。對于推薦分發(fā)機制而言,需要智能媒體的推薦算法向具有公共價值的信息傾斜,保證用戶在看到個性化信息推薦的同時接收相當比例的公共信息,讓那些關乎個體以及社會長遠利益的公共信息能夠打破各種阻礙,暢通地到達每個個體[7]。(四)加強原創(chuàng)內容知識產權保護和自律。事實上,人工智能技術既可用于網(wǎng)絡洗稿,也可用于原創(chuàng)內容知識產權保護。早在2007年,YouTube就逐步投入巨資建立起ContentID版權系統(tǒng),協(xié)助版權所有者識別平臺上的侵權行為,并讓版權所有者在平臺上能夠選擇直接獲取收益或是直接刪除內容。2017年,阿里巴巴文化娛樂集團聯(lián)合阿里巴巴達摩院共同鯨觀全鏈路數(shù)字版權服務平臺,該平臺通過搭載達摩院數(shù)據(jù)科學技術研究院的人工智能技術,可實現(xiàn)對視頻的智能編輯,讓其在全網(wǎng)范圍可追溯。該平臺在處理視頻時,會對視頻內容進行各個維度的分析,并為之打上兩萬余種標簽,同時利用知識圖譜對標簽進行多維度編目。這樣一來,視頻內容就像擁有了“指紋”,易于搜索和識別,使得盜版內容毫無生存之地。值得注意的是,現(xiàn)在許多網(wǎng)絡洗稿已經(jīng)脫離了單純復制文字內容的低級洗稿行為,而是融梗、融框架、融思路的高級洗稿行為,增加了判斷是否構成洗稿行為的難度。現(xiàn)有的人工智能技術可以通過對比文字選段來判斷復制比例,但對于高級洗稿內容還是難以識別。針對高級洗稿行為,智能媒體平臺在完善原創(chuàng)內容檢測系統(tǒng),用技術手段保護平臺原創(chuàng)內容的基礎上,還應該大力發(fā)展人工智能與人工相結合的內容審查機制,對遭到用戶投訴但機器無法識別的內容進行專業(yè)的人工審查,以此來保護原創(chuàng)內容。同時,智能媒體平臺和行業(yè)從業(yè)者也需要加強知識產權保護自律意識。比如,微信公眾平臺建立的洗稿投訴合議機制,引入由堅持原創(chuàng)且無抄襲記錄的個人作者這一“民間力量”來處理洗稿投訴,就是平臺方提高原創(chuàng)保護力度的有效嘗試。此外,平臺方還應主動標注作品來源及作品中借鑒片段的版權歸屬,樹立尊重版權、維護原創(chuàng)的正面形象。平臺要加大對原創(chuàng)作品的獎勵制度,比如給信譽良好的作品增加曝光、發(fā)放獎勵等,激發(fā)作者的創(chuàng)新動力,并嚴厲打擊洗稿、融稿行為,提高作者原創(chuàng)積極性,增強平臺用戶對知識產權的保護意識。(五)完善智能媒體行業(yè)進入和退出機制。完善智能媒體行業(yè)的進入和退出機制,提高智能媒體傳媒行業(yè)倫理失范成本,有利于維護智能媒體行業(yè)良性競爭的市場環(huán)境,促進智能媒體行業(yè)健康發(fā)展。媒體行業(yè)的進入機制是國家規(guī)制媒體產業(yè)的重要措施之一。完善智能媒體行業(yè)的進入機制,一是支持和鼓勵具有創(chuàng)新能力的智能媒體進入市場,二是提高智能媒體行業(yè)的準入門檻。2017年,國家新聞出版廣電總局《新聞出版廣播影視“十三五”發(fā)展規(guī)劃》,明確提出打破層級和區(qū)域限制,加快圖書、報刊、廣播、電影、電視資源聚合、產業(yè)融合,鼓勵支持傳媒企業(yè)跨地區(qū)跨行業(yè)跨所有制兼并重組,培育一批主業(yè)突出、具有創(chuàng)新能力和競爭力的新型骨干傳媒公司[8]。同時規(guī)劃又指出,支持符合條件的新聞出版廣播影視企業(yè)通過資本市場上市融資、再融資和并購重組做大做強。既支持傳統(tǒng)新聞出版廣播電視媒體控股或參股互聯(lián)網(wǎng)企業(yè)和科技企業(yè),同時也向社會資本敞開了大門,允許非公有制廣播影視企業(yè)以控股形式參與廣播影視制作機構改制經(jīng)營。除此之外,對于申請進入媒體市場的新型智能媒體企業(yè),政府主管部門需要加大資格審查力度,將履行社會責任作為智能媒體準入的必要條件,嚴把智能媒體市場準入關。媒體行業(yè)的退出機制是媒體生態(tài)自我調節(jié)與優(yōu)化的有效手段,有利于淘汰不良媒體,凈化媒體生態(tài),在媒體行業(yè)管理中不可或缺。完善媒體行業(yè)退出機制問題在傳統(tǒng)媒體時代就有討論,政府相關部門制定了諸如《報紙出版管理規(guī)定》《期刊出版管理規(guī)定》等相關法規(guī),明確規(guī)定傳媒行業(yè)退出規(guī)則和一些法律問題。由于我國媒體行業(yè)的雙重屬性,其退出機制也應由市場和政府雙重把控。當智能媒體平臺違反倫理規(guī)范,比如傳播違法違規(guī)內容、侵犯用戶隱私、侵犯知識產權等,應加大規(guī)制懲罰力度。完善智能媒體行業(yè)的退出機制,首先需要政府出臺相應的法律法規(guī)和行業(yè)規(guī)章制度,在進入機制、過程機制等已有制度的基礎上,明確智能媒體行業(yè)退出的標準和程序,形成制度化、規(guī)范化的智能媒體行業(yè)退出機制;其次要充分發(fā)揮市場這一“看不見的手”的操控力量,提升市場力量在智能媒體行業(yè)資源配置中的重要作用;最后還要完善智能媒體退出的補償機制。

四、結語

人工智能技術在媒體行業(yè)的應用,在提升智能媒體生產經(jīng)營效率的同時,也帶來了新的倫理風險,如數(shù)據(jù)不當收集與使用問題、機器流量與數(shù)據(jù)欺詐問題、精準推送與信息繭房問題、網(wǎng)絡洗稿侵犯知識產權問題等,這些倫理風險問題亟須予以有效規(guī)制,進而為智能媒體發(fā)展創(chuàng)造健康有序的市場環(huán)境。對于智能媒體倫理風險的治理,建立基于用戶數(shù)據(jù)授權的合理使用規(guī)范,是最為重要的規(guī)范路徑,也是確保用戶權益得到保護的必要途徑。數(shù)據(jù)欺詐作為困擾互聯(lián)網(wǎng)行業(yè)和智能媒體行業(yè)發(fā)展的核心問題,需要通過制度化的機制來規(guī)范智能媒體企業(yè)平臺的數(shù)據(jù)行為,構建第三方流量監(jiān)測機制,提高智能媒體企業(yè)數(shù)據(jù)欺詐的風險成本。無論是互聯(lián)網(wǎng)企業(yè)所屬的智能媒體,還是傳統(tǒng)媒體轉型的智能媒體,都應承擔社會責任,尋求個性化信息與公共信息的平衡[9]。同時,要加強原創(chuàng)知識產權保護和自律,發(fā)揮智能媒體平臺在原創(chuàng)知識產權保護中的關鍵作用,提升智能媒體平臺和從業(yè)人員的自律意識和能力。由于媒體行業(yè)的意識形態(tài)特性,智能媒體行業(yè)并非一個完全開放的市場,需要政府完善進入與退出機制,加強對智能媒體平臺的科學管理。

作者:廖秉宜 姚金銘 余夢莎 單位:1.武漢大學新聞與傳播學院 2.武漢大學媒體發(fā)展研究中心