數(shù)據(jù),數(shù)字廣告行業(yè)不可或缺的能源,也可以理解為發(fā)展的“石油”。

在算法機制下,平臺在獲得用戶授權后,可以通過收集用戶在互聯(lián)網(wǎng)上的相關行為數(shù)據(jù)了解其特征和偏好,并結合商品或服務的特征,為其投放更適合的廣告。這一定程度地提高了商品與用戶的匹配效率,為用戶提供決策便利。

而另一方面,在《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)出臺之前,個性化廣告為了實現(xiàn)精準推送,會盡可能多地獲取用戶信息,帶來潛在風險。受訪專家在采訪中表示,《個人信息保護法》落地后有效遏制了個人信息超采、濫用等現(xiàn)象,但法律實施僅是邁出了第一步,企業(yè)在實踐中仍面臨“左右為難”的情況,亟需厘清合規(guī)邊界。

個性化推薦具有兩面性,需要以辯證思維看待。正如傳播學學者波茲曼所說:“每一種技術既是包袱又是恩賜,不是非此即彼的結果,而是利弊同在的產(chǎn)物。”站在行業(yè)發(fā)展的十字路口,如何尋求商業(yè)利益和用戶權益的平衡成為亟待回應的問題。監(jiān)管、企業(yè)、公眾需要協(xié)同發(fā)力,在保護個人信息權益的同時促進數(shù)據(jù)有序、公平、合理利用。

合規(guī)是大勢所趨 難點在于厘清邊界

“《個人信息保護法》是個人信息保護領域的第一部專門法律,實施一年以來,企業(yè)在收集、使用個人信息的過程中更加注重合規(guī)問題,過去非法收集、濫用個人信息的行為得到有效規(guī)制?!敝袊ù髮W數(shù)據(jù)法治研究院教授張凌寒表示。

具體到數(shù)字廣告領域,《個人信息保護法》的落地帶來了哪些影響?

“主要影響之一在于企業(yè)的數(shù)據(jù)來源方面。”對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任許可表示,平臺企業(yè)對于用戶個人信息了解得越全面,描繪出的用戶畫像就越精準,所以往往需要從多方匯聚數(shù)據(jù)。但《個人信息保護法》要求個人信息處理者向第三方提供個人信息應當取得個人的“單獨同意”,這對涉及眾多參與方的數(shù)字廣告行業(yè)提出了嚴格的合規(guī)要求。

其次,《個人信息保護法》要求個人信息處理者通過自動化決策方式向個人進行信息推送、商業(yè)營銷時,需向個人提供便捷的拒絕方式,這也會對行業(yè)產(chǎn)生較大影響,可能導致用戶使用個性化廣告服務的比例下降。

許可還指出,《個人信息保護法》賦予了用戶對個性化廣告說“不”的拒絕權,但大部分用戶對于平臺的算法機制和隱私保護規(guī)則缺乏了解,不一定能在完全理性的狀況下做出決定,僅依靠個人的感性認知去進行個性化推薦的合理性判斷是不夠的,需不斷健全個人信息保護的綜合治理體系,同時通過多種渠道增強用戶對個性化推薦的理性認識。

“合規(guī)已然成為行業(yè)發(fā)展的大勢所趨,但企業(yè)在實踐中依然存在左右為難的情況,最主要的難點在于厘清合規(guī)的邊界?!痹S可補充道,個性化廣告是互聯(lián)網(wǎng)經(jīng)濟的重要組成部分,適度合規(guī)的個性化廣告對大眾、社會和經(jīng)濟而言都具有正向價值。如何在個人信息的“利用”與“保護”之間尋求平衡是關鍵核心,而這恰恰需要監(jiān)管、企業(yè)和社會公眾一起去探討。

解鈴還須系鈴人 以技術化解風險

值得注意的是,由于技術知識差異、信息不對稱等原因,用戶容易對互聯(lián)網(wǎng)平臺的算法規(guī)則產(chǎn)生不理解和不信任感,仍存在如“App監(jiān)聽”等誤解,甚至有人將算法視為洪水猛獸,將其放在了對立面。

“其實,用戶接受個性化服務,并不會以犧牲隱私為代價?!睆埩韬硎?,平臺往往是為了方便了解用戶類型而設定用戶畫像,如果僅僅是針對用戶的行為特征和消費習慣,而不具有可識別性,則不構成《個人信息保護法》第4條所定義的個人信息。此外,平臺也可以通過隱私計算技術實現(xiàn)用戶個人信息保護,如安全多方計算、聯(lián)邦學習、可信計算等等。

“當一個新的技術進入社會,它會召喚出新的組織、經(jīng)濟和社會模式,這反過來會引發(fā)新的問題,新問題的解決又需要更新的技術,這就是信息科技的演進。”許可表示,“解鈴還須系鈴人”,因技術進步帶來的個人信息風險,也可以通過技術進步來化解。

在技術層面,企業(yè)應將個人信息保護作為主動設計,將保護延伸到個人信息整個生命周期。建立用戶友好型環(huán)境,即便用戶沒有特地采取自我保護的行為,其個人信息權益也不會受到侵害?!皬漠a(chǎn)品或服務開發(fā)前期就應保障合規(guī)團隊與開發(fā)、設計團隊合作,在設計伊始即考量產(chǎn)品、服務涉及的個人信息保護問題?!?/p>

她指出,目前平臺算法治理已基本建立算法問責制框架,走向了“技術之治”,但仍存在一定的模糊地帶,相關配套規(guī)則亟待進一步細化,否則可能面臨技術發(fā)展乏力、積極影響受挫等問題。其次,需要不斷完善算法綜合治理體系,加強各監(jiān)管部門之間的聯(lián)動,同時在公眾、企業(yè)和監(jiān)管之間建立有效的溝通反饋機制。

個性化廣告發(fā)展與用戶個人信息保護的動態(tài)平衡

國家統(tǒng)計局在2021年發(fā)布的《數(shù)字經(jīng)濟及其核心產(chǎn)業(yè)統(tǒng)計分類》中將數(shù)字廣告列為數(shù)字經(jīng)濟的核心產(chǎn)業(yè)。數(shù)字廣告在促進消費、推動中小企業(yè)發(fā)展、激發(fā)市場活力等方面發(fā)揮了重要作用。值得思考的是,行業(yè)發(fā)展離不開對數(shù)據(jù)的利用,如何尋求用戶個人信息保護和行業(yè)發(fā)展的平衡?

今年8月,杭州互聯(lián)網(wǎng)法院將“郭某某訴某網(wǎng)絡有限公司個人信息保護糾紛案”作為“個人信息保護十大典型案例”之一發(fā)布,該案正是與自動化推薦應用有關。

原告郭某某在注冊、使用被告公司運營的某購物App過程中發(fā)現(xiàn),打開案涉App時,App會彈窗顯示《隱私權政策》《用戶協(xié)議》等,要求其選擇“同意”或“拒絕”,若其選擇“拒絕”,則不能繼續(xù)使用該App。郭某某認為《隱私權政策》中的算法推薦廣告相關內容違反了《個人信息保護法》的規(guī)定,侵犯了其個人信息權益。

法院表示,案涉App在《隱私權政策》中采取了首次運行時、用戶注冊時均提示用戶是否同意隱私政策的事前概括同意機制,對用戶基本知情同意權進行了保障。同時,通過在App內部設置便捷的拒絕自動化推薦選項,對用戶個人信息權益保障提供了事后選擇機制,利用個人信息進行自動化決策具有合法性基礎。因此判定被告公司未侵害原告?zhèn)€人信息權益,依法駁回原告的訴訟請求。

法院認為,在《個人信息保護法》出臺后,個性化推薦與用戶個人信息保護之間還缺少明晰的邊界。互聯(lián)網(wǎng)時代,更貼近用戶的個性化服務代表著用戶的普遍需求,如果認定其推送廣告的行為構成侵權,將極大阻礙互聯(lián)網(wǎng)新興技術和業(yè)務的正常健康發(fā)展。

“數(shù)據(jù)保護法治應當兼顧數(shù)據(jù)主體權益保護與數(shù)據(jù)合理利用?!睆埩韬硎?,監(jiān)管部門應當協(xié)調數(shù)字化技術發(fā)展與數(shù)據(jù)安全保護,同時按照平臺特點進行分類監(jiān)管,促進數(shù)字經(jīng)濟高質量發(fā)展。

“個性化推薦已成為互聯(lián)網(wǎng)時代的潮流,監(jiān)管方面應認識到它的兩面性,看到其優(yōu)勢和潛力,而不是將其當作天然的侵害個人信息權益的行為?!痹S可表示,監(jiān)管思路應貼合社會經(jīng)濟發(fā)展的方向,了解新的技術和商業(yè)模式,實現(xiàn)個人信息保護和利用的平衡。

“對于企業(yè)而言,則應高度重視個性化推薦面臨的風險,形成既能滿足監(jiān)管需求,又能實現(xiàn)個人信息合理利用的最佳實踐。”許可說。

張凌寒認為,目前大部分企業(yè)都設置了算法退出機制,有利于實現(xiàn)用戶“個人自治”。但實踐中只有少數(shù)用戶會直接關閉個性化推送,且很多人會選擇再次打開,因為關閉該功能后,用戶所接收到的信息與其興趣相關度降低,會影響用戶體驗。

她表示,企業(yè)應在目前的退出機制基礎上,提供更靈活的個性化推薦管理方案,以平衡用戶體驗與個人信息保護。此外,還應建立有效的數(shù)據(jù)保護機制,通過展示平臺保護數(shù)據(jù)的能力來化解用戶顧慮,實現(xiàn)數(shù)據(jù)利用的目標。

“平衡永遠是動態(tài)的,而不是在某一個局部就能達到。因此,監(jiān)管、企業(yè)和公眾需要發(fā)揮各自角色的作用,通過有效的溝通對話形成合力,在保護個人信息權益的情況下,促進個人信息更加有序公平合理利用。”許可表示。

來源:21世紀經(jīng)濟報道