困在演算法裡的鐘睒睒與他們

鍾睒睒又語出驚人了。
前幾天,他在江西贛州考察當地臍橙產業園,談起持續至今的網路暴力時,直接向平臺開炮:“請平臺不要以任何所謂‘避風港’原則進行搪塞,立即撤除對我個人名譽權的侵害言論、圖片,並向我個人和我家屬道歉,這時間已經不短了。”
今年2月起,農夫山泉和鍾睒睒本人持續受到大量嚴重的網路攻擊。
相關謠言漫天亂飛,從水質安全,到品牌形象,再到創始人的私人品行,甚至還有最敏感的,關於農夫山泉背後有沒有“境外勢力”的問題。
三人成虎。謠言說多了,也會被誤認為是真相。
於是不單單是鍾睒睒個人名譽受損,品牌銷量也損失慘重,一時間,網上見農夫就罵。
很多次,農夫山泉都選擇正面硬剛,公開闢謠。
輿論正盛的3月,他們發文澄清,並追究了對方的法律責任。
5月時,他們彙總了網路上傳播的所有謠言,林林總總共20條,針對每一條寫出真相,提供相關證據,也進行了報案處理。
直到昨天,農夫山泉再次釋出了這篇舊文,想將真相廣而告之。
如今,鍾睒睒更是敏銳地點出了問題核心——平臺演算法對演算法的監督缺失,助長了謠言傳播,造成了使用者更深的偏見。
而使用者不過是被利用的受害者。
那些每天活躍在網路上痛罵他的人,可能只是被虛假的、狹隘的資訊誤導了,以為自己可以透過這種方式來伸張正義、為民除害,殊不知自己早已是“演算法受害者”。
他希望揭開這個真相 :“當你開啟這些平臺,看到的總是同樣的內容。有人在利用技術手段,這些人造成的傷害遠遠超過普通人所造成的傷害。”
剛好最近看了赫拉利教授的新書《智人之上》。談論AI技術對於人類社會的影響時,他說:“演算法覺得自己發現了世界的客觀事實,事實上,它只是內化並且強制落實了偏見。”
恰好與鍾睒睒的觀點不謀而合。
赫拉利說,如今的社交媒體領域,演算法已經無處不在。
甚至我們可以大膽宣稱,大家都活在演算法的世界裡。
每天開啟各種APP,靠前的內容永遠是被演算法推薦的那些。我們自己做內容,也會發現很多內容並不能直接推送給我們的粉絲,而要等待平臺去篩選。
符合演算法邏輯的內容才能獲得更多支援和推薦,甚至獲得某些獎勵。
這種做法在一定程度上助長了某些使用者的氣焰。為了獲益,那些營銷號利用話術和輿論煽動公眾情緒,讓別人衝鋒在前,自己背後數錢。
結果讓很多情緒化的謠言或陰謀論,越傳越廣。
幾乎每個平臺都聲稱自己有一套專業的演算法,可以幫使用者獲得他們更感興趣的內容。
我今天給一部電影點過贊,明天首頁就會充斥著誇這部電影的言論;你剛剛搜尋了去日本滑雪的攻略,下一秒好像全部網友都要去日本滑雪了。
但背後的問題是,我之所以看到這部電影,也是因為演算法把電影推薦給了我。
也就是說,使用者不能自己選擇要看什麼,是演算法決定使用者能夠看到什麼。
演算法的出現,把行為和情緒簡化為可量化的東西。
人們透過粉絲量去評價一個人,透過點贊和觀看次數來判斷內容受不受歡迎。
所以我們看到某個播放量很高的內容,會下意識認為它是被廣為關注的,但很有可能只是因為演算法把影片推薦給了所有人。
結果就是,只要演算法願意,哪怕只是一個垃圾,也可以憑藉這種推薦機制獲得流量。演算法賦予了某些內容遠超自身的“價值”。
表面上看,演算法的出現是為了提高使用者體驗;實際上,它的終極目的只有一個——延長使用者留存時間,增加參與度,最終轉化為商業價值。
為此,演算法充分利用了人性。
有心理學家統計過,文章包含的負面詞彙越多,內容被分享的頻率就越高。“每增加一個負面情緒詞,分享次數就會增加5%-8%;每增加一個正面情緒詞,分享次數就減少2%-11%。”
演算法的邏輯是自主學習的結果。它們發現那些充滿負面情緒的、容易引發恐慌和對立的內容,更容易得到傳播,於是拼命推薦,導致網路上謠言和陰謀論橫行。
《智人之上》裡提到過一個極端案例。
2016年,某個緬甸穆斯林恐怖組織發動了恐怖襲擊,綁架並殺害了幾十名平民。隨後,訊息在臉書上大規模傳播,並摻雜著大量假新聞和陰謀論。後來,緬甸政府軍與佛教極端分子發動了針對本土穆斯林的大規模種族暴力事件,殺害了7000-20000名平民。
聯合國調查後認為:“臉書在事件中扮演了‘決定性的角色’——人工智慧演算法主動在臉書平臺上強化、推廣的那些內容,煽動了針對緬甸穆斯林族裔的歧視、仇恨和暴力。”
我們可以從中看到很多事件的影子。
之前日本小孩在深圳被害身亡,網路發酵了大量關於民族仇恨的負面訊息,最後甚至演化到有人要代表全體中國人向日本道歉,十分荒唐。
人們以為自己受益於演算法,殊不知演算法反過來操縱了人類。
放在農夫山泉事件中也一樣。
“紅色瓶蓋關聯日本國旗”、“農夫山泉的山是富士山”的話題雖然低智,但無一不能挑起人們最原始的仇恨情緒,結果就是它們獲得了更多平鋪直敘的推薦。
惡性迴圈之下,關於“農夫山泉”和“鍾睒睒”的內容都被附加上對應的負面情緒,或是憤怒,或是仇恨,或是對立。於是情緒越來越劇烈,雪球也就越滾越大。
闢謠在此刻顯得蒼白無力。
因為正面的事實不夠有挑逗性,沒辦法戳中人們被謠言無限提高的情緒閾值。
此時此刻,使用者的情緒和價值觀已經被塑造成型,不允許旁人對他們的真理有所質疑,也絕不允許旁人持有他們所認為的謬論。
伴隨著演算法的加持,使用者會進一步強化已有的偏見,走進狹隘的資訊繭房。
這就是當下的網際網路。
網路時代,邏輯被無限簡化,只留下情緒感染,砸得人頭暈目眩,顧不上思索太多。
事實和道理靠後,情緒和立場先行。人們的大腦已經被演算法改造成新的模樣,總喜歡透過抵制一些什麼東西顯擺自己,彷彿不抵制點什麼,好像沒活過,沒法讓人記住。
結果抵制來抵制去,沒有人能獨善其身。
縱觀過去一次次輿論風暴,結果總是,網暴者終將被網暴。
之前有位女士請外賣小哥幫忙給家人送物資,事後給了200元感謝費,還把故事分享在網路上,本意是感謝對方的體諒和友好。
明明挺讓人感動的一件事,到了網友眼裡就變味了。他們覺得這位求助人給的打賞錢太少了,“至少要給500塊”,完全在“精明地算計外省人”。
聲勢浩大的攻擊聲湧來,這位女士承受不住,選擇結束自己的生命。
血的代價沒有喚醒任何人,反而讓事情愈演愈烈。又有人將先前提出質疑的那些微博整理出來,新一波人湧向他們,發起了新一輪網暴。
槍響以後,沒有贏家。
除了平臺。
人們常說,“演算法沒有價值觀”。但演算法卻會為了達到目的,不擇手段。 
赫拉利在《智人之下》中,也表達了這種擔憂。
OpenAI曾對ChatGPT-4進行過識別視覺驗證碼的測試。可怕的是,ChatGPT-4本身沒有這種能力,卻透過任務轉嫁,聯絡到外包工作人員。它以“我不是機器人,只是視力有點問題,看不清楚這些圖”為理由,說服了對方,最終透過測試。
這就是人工智慧的可怕之處,它沒有撒謊、偽裝等概念,只想著完成目標。
演算法也一樣。
赫拉利說:“演算法如今已經能夠獨立決策,能夠學會工程師沒寫程序序裡的東西,可以決定公司高管決策之外的事情。這種獨立決策能力使得演算法可以影響、引發重大歷史事件,而人類則面臨著對人工智慧、對未來失去掌控的可能。”
不知不覺,演算法裹挾了身處其中的每個人。
當然,這並不意味著平臺應該置身事外。
網際網路的出現擴充套件了資訊來源,但問題在於“資訊並不等於真理與真相”,所以平臺應該對資訊的真實性起到稽核的作用,不該假裝看不到那些有問題的內容。
至少應該管控演算法推薦的內容,讓那些虛假的謠言、容易產生對立的言論,得到及時控制。
緬甸種族暴力事件發生後,臉書釋出公告,將散播仇恨言論的責任轉移到平臺使用者身上,只表示自己沒能有效監管使用者生產的內容。 
很多平臺也會在輿論風波後,對跳得格外激烈的賬號進行封禁。
他們熟練運用“避風港原則”,認為平臺接到通知後及時刪除侵權內容就無需承擔責任。
但覆盤農夫山泉的風波,大量攻擊、謠言和陰謀論像“紅旗一樣飄揚”在平臺上。
此時此刻,平臺不能夠假裝自己看不見、不知道。  
“紅旗原則”或許才是更適用這種情況的法則。當侵權事實顯而易見,像“紅旗一樣飄揚”時,網路服務提供者不能假裝看不見,或者以不知道侵權為由推脫責任。
在這種情形下,即使權利人沒有發出刪除通知,網路服務提供者也應當承擔侵權責任。
當你買到一瓶劣質的牛奶,超市和生廠商都要承擔責任,這是天經地義的。
而現在,謠言就是那瓶劣質的牛奶,謠言釋出和傳播的平臺也應該負起自己的責任。
用鍾睒睒的話來說,“任何一項在盈利平臺上釋出的謠言,平臺都應該承擔法律責任,這就像我一個製造企業,生產假貨和銷售假貨同罪。”
商人固然要考慮流量和利益,但一味追名逐利,不是長久之計。
“如果我們不付出額外的努力,讓天平向有利於真相的方向傾斜,隨著資訊增加得越來越多、越來越快,就可能讓相對稀少而昂貴的真實資訊被淹沒在相對常見而廉價的資訊之中。”
畢竟那些負面的垃圾資訊看多了,只會讓人覺得疲憊和抗拒。
久而久之,大家只會抗拒這個虛假的網際網路世界,平臺反而會失去它的使用者。
最好是,讓平臺考慮如何發揮自己的優勢,讓健康資訊得到擴散,讓垃圾資訊被抑制,才能真正實現網際網路最初的意義,“要讓世界更開放,更有創造力,並最終變得更好。”
我們渴望看到的,永遠是不同觀點的自由碰撞,而非不同立場的隔閡、對立與撕裂。
(免責宣告:本文為經濟學教授據公開資料做出的客觀分析,不構成投資或者購買建議,請勿以此作為投資或者購買依據。)


相關文章