![]() 有時(shí)候,當(dāng)你看到的視頻太完美、太震撼或太符合你原本的想法時(shí),不妨問問自己:“這是我的選擇,還是演算法的選擇?”不要讓演算法替我們決定看什么、想什么。我們可以信任科技,但更要懂得查證。 今年2月至3月,亞洲六個(gè)國(guó)家展開為期五周的聯(lián)合行動(dòng),包括新加坡警方在內(nèi)的執(zhí)法機(jī)構(gòu),逮捕了400多名涉嫌網(wǎng)絡(luò)兒童性剝削的罪犯。在更遠(yuǎn)的地方,英格蘭和威爾士每月約有850名男性因網(wǎng)絡(luò)虐童罪被捕。這些罪犯來自各行各業(yè),包括教師、警察、公務(wù)員等。他們最初接觸的往往是一些可以輕易在線觀看的普通成人內(nèi)容,但后來卻一步步陷入網(wǎng)絡(luò)中的黑暗角落,接觸到更極端的素材。 其中一些犯罪者尋求極端的內(nèi)容,另一些則被引向他們自己本不會(huì)涉足的網(wǎng)絡(luò)空間。雖然網(wǎng)上的兒童性剝削和性虐待的內(nèi)容,對(duì)我們?cè)S多人來說是令人發(fā)指、不能觸碰的,但你是否發(fā)現(xiàn),自己在YouTube或抖音上看到的視頻內(nèi)容,越來越夸張,甚至帶有偏見? 例如,你可能一開始只是看看健康小貼士、退休理財(cái)建議,或新聞?wù)]想到過了幾天,推薦內(nèi)容卻變成各種“神奇療法”“經(jīng)濟(jì)崩潰預(yù)警”,甚至陰謀論。 這并非偶然,而是一種名為“演算法漂移”(algorithmic drift)的現(xiàn)象——視頻平臺(tái)為了讓你多看幾段影片,延長(zhǎng)用戶的停留時(shí)間,會(huì)悄然引導(dǎo)你接觸不同類型的內(nèi)容,從原本中立實(shí)用的信息,逐漸轉(zhuǎn)向更加情緒化、更加極端的方向。這種變化往往不容易察覺,卻會(huì)在無形中扭曲我們的判斷與思維方式。我們?cè)撊绾伪Wo(hù)自己,抵御演算法漂移,奪回網(wǎng)上接收到的信息的主動(dòng)權(quán)? YouTube、抖音、臉書等這類平臺(tái),都通過人工智能系統(tǒng),根據(jù)用戶興趣推薦內(nèi)容。這些系統(tǒng)分析用戶的點(diǎn)擊、觀看時(shí)長(zhǎng)與互動(dòng)數(shù)據(jù),然后進(jìn)一步推送相似的視頻。聽起來很方便,但這些推薦機(jī)制的真正目標(biāo),并不是提供最真實(shí)或最全面的信息,而是盡可能延長(zhǎng)你在平臺(tái)上的停留時(shí)間。越是情緒強(qiáng)烈、標(biāo)題夸張的視頻,越容易吸引注意,因此系統(tǒng)自然會(huì)不斷強(qiáng)化推送這類內(nèi)容。 久而久之,原本多元理性的內(nèi)容生態(tài),就可能逐漸被單一、重復(fù)甚至誤導(dǎo)性的信息取代。這種逐步變化的過程,就是所謂的“演算法漂移”。 我們都可能陷入其中以下這些情境,許多新加坡人可能都感同身受: 你今年60多歲,對(duì)最近暴發(fā)的流感感到擔(dān)憂。你首先觀看了一段關(guān)于增強(qiáng)免疫力以改善睡眠的草藥療法視頻。幾天后,你的推薦頁(yè)面上出現(xiàn)的幾乎全是質(zhì)疑西醫(yī)、鼓吹傳統(tǒng)療法的視頻。你并沒有刻意去尋找這些內(nèi)容,而是算法根據(jù)你的瀏覽習(xí)慣,逐步引導(dǎo)你走向更極端的方向。 你是一名職業(yè)人士,正開始考慮退休后的養(yǎng)老問題,接著推薦的是有關(guān)全球貿(mào)易沖突如何影響個(gè)人儲(chǔ)蓄的內(nèi)容。再過幾天,你看到的視頻不斷強(qiáng)調(diào)只有投資黃金、加密貨幣或海外資產(chǎn)才能保值。本來是理性實(shí)用的理財(cái)內(nèi)容,慢慢演變成充滿焦慮情緒的恐慌性投資建議,而這些理財(cái)專家是否具有專業(yè)知識(shí),往往難以核實(shí)。 你是幼兒的家長(zhǎng),正在搜索如何管理兒童屏幕時(shí)間的視頻,隨后卻接連看到“藍(lán)光對(duì)大腦有害”“電子設(shè)備會(huì)長(zhǎng)期損傷神經(jīng)系統(tǒng)”等說法的內(nèi)容。幾天之內(nèi),你的視頻頁(yè)面充斥各類宣稱“電磁波危害被掩蓋”“須要購(gòu)買能量護(hù)盾”等內(nèi)容。原本合理的關(guān)切,逐漸被演算法引導(dǎo)至虛假甚至牟利的偽科學(xué)信息鏈。 在最近的大選中,你是首投族,想從一個(gè)片段開始了解如何查閱選民名冊(cè),或了解所在選區(qū)的候選人。隨后,系統(tǒng)推薦了針對(duì)本地政策的評(píng)論視頻,例如對(duì)房?jī)r(jià)或公積金制度的批評(píng)。接下來,你看到的內(nèi)容變得越來越情緒化,頻繁出現(xiàn)“選誰都沒用”“制度不會(huì)改變”這樣的言論。有些視頻甚至來自國(guó)外,對(duì)新加坡實(shí)際情況缺乏了解,但演算法依然會(huì)持續(xù)推薦這類內(nèi)容。你從一開始的理性關(guān)注時(shí)事,慢慢被帶入一種對(duì)政治的無力感。 信息繭房、回聲室與“深偽”陷阱對(duì)許多年長(zhǎng)者來說,這些平臺(tái)已成為日常生活的一部分,不僅是獲取資訊的渠道,也是娛樂和社交的工具。但如果我們對(duì)背后的推薦機(jī)制缺乏了解,就很容易在不知不覺中受到影響。 這些演算法的本意不是誤導(dǎo),而是最大化“用戶黏性”,加長(zhǎng)用戶在平臺(tái)上的逗留時(shí)間。但長(zhǎng)期反復(fù)接觸同類內(nèi)容,可能會(huì)逐步改變我們對(duì)現(xiàn)實(shí)的理解,甚至影響行為。這種現(xiàn)象也被稱為“回聲室效應(yīng)”,即人們只接收到與自身觀點(diǎn)一致的信息,逐漸排斥異見。 更令人擔(dān)憂的是,一些看似真實(shí)的視頻,其實(shí)可能是由人工智能合成的深度偽造(deepfake)視頻。這些偽造內(nèi)容在圖像、聲音上難以分辨真假,容易誤導(dǎo)公眾,甚至被用來操縱輿論或攻擊特定群體。面對(duì)這類技術(shù)帶來的新型風(fēng)險(xiǎn),我們更須要具備基本的辨識(shí)能力。 我們能做什么?從主動(dòng)查證開始我們并非束手無策。用戶可以主動(dòng)采取一些行動(dòng):不要完全依賴推薦系統(tǒng),而是嘗試主動(dòng)搜索來自不同信息來源的內(nèi)容;當(dāng)你發(fā)現(xiàn)自己的視頻內(nèi)容越來越單一或情緒化時(shí),不妨按下暫停鍵,反思是否陷入了演算法所制造的信息繭房;多與親友分享觀看心得,傾聽不同角度的意見;也可以關(guān)閉自動(dòng)播放功能,避免在不知不覺中被系統(tǒng)牽引得越來越遠(yuǎn)。 在社會(huì)層面,我們也要進(jìn)一步強(qiáng)化數(shù)碼素養(yǎng)教育,尤其是針對(duì)年長(zhǎng)用戶,不只是教他們?nèi)绾问褂檬謾C(jī),更要幫助他們理解信息是如何被推送的。 我們應(yīng)推動(dòng)平臺(tái)提高透明度,說明推薦機(jī)制的運(yùn)作方式,同時(shí)賦予用戶更大的控制權(quán),例如調(diào)整偏好、重置推薦等功能。 目前,Instagram等平臺(tái)已為用戶提供屏蔽特定內(nèi)容和更新廣告偏好的選項(xiàng)。但是,并非所有用戶都知道或了解這些功能。我們應(yīng)互相幫助,從身邊的人開始,選擇安全設(shè)置,減少演算法的推薦。 在新加坡,我們一向重視理性思考和多元聲音。在信息時(shí)代,這份理性同樣必須應(yīng)用在對(duì)平臺(tái)機(jī)制的清醒認(rèn)知。有時(shí)候,當(dāng)你看到的視頻太完美、太震撼或太符合你原本的想法時(shí),不妨問問自己:“這是我的選擇,還是演算法的選擇?”不要讓演算法替我們決定看什么、想什么。我們可以信任科技,但更要懂得查證。正如一句話所說:“信任,但要核實(shí)。”在這個(gè)信息真假難辨的時(shí)代,這是一個(gè)值得我們深思的警示。 作者周瀚毅是新加坡政策研究所高級(jí)研究員 孫婉婷是新加坡國(guó)立大學(xué)傳播與新媒體系實(shí)踐副教授
您查看的內(nèi)容可能不完整,部分內(nèi)容和推薦被攔截!請(qǐng)對(duì)本站關(guān)閉廣告攔截和閱讀模式,或使用自帶瀏覽器后恢復(fù)正常。
|
|