社群媒體的出現曾被寄予厚望,成為促進全球溝通與知識交流的橋樑。但今日的現實卻是這座橋樑被一套套看不見的演算法掌控,決定我們在螢幕上看見什麼、忽略什麼,甚至在不知不覺間形塑了我們對世界的理解與情感反應。這些演算法看似中立,只是根據使用者偏好排列內容,但實際上,它們被設計來最大化「停留時間」與「互動率」,目的並非促進知識或公共利益,而是為了廣告收益與平台黏著度。
Facebook、TikTok、X(前Twitter)等社群媒體的核心邏輯驚人地一致,透過加權計算各種互動行為的發生機率與其價值分數,得出一個專屬於每位使用者的內容排名分數,然後依分數高低決定顯示順序。表面上,這種方法只是在「推薦你可能喜歡的東西」,但其中的價值權重由平台單方面設定,例如按讚可能只有一分,留言卻高達三十分,因為留言代表更深層的參與。這意味著,即使你只是想糾正一則錯誤訊息,你的評論反而可能讓該內容獲得更高曝光,並被更多人看到。
這種互動加權的機制,會在無形中放大情緒化、爭議性和煽動性的內容。因為憤怒與爭辯往往比平靜與理性更能驅動互動分數。當演算法發現你會對陰謀論留言,它不會理解你是在反駁,而只會判斷「這類內容能讓你花更多時間在平台上」。於是更多類似的內容湧入你的動態牆,形成一種資訊迴音室效應。久而久之,你的數位環境變得越來越單一化,而不同觀點的聲音被過濾掉。
影片的評分公式同樣依賴觀看時間與互動權重,許多創作者利用「等到最後」、「你不會相信接下來會發生什麼」等誘餌手法,刻意延長觀看時間,即便內容空洞,也能藉此提升排序。對使用者而言,如果不刻意控制點擊與停留,演算法便會將更多類似的短影音推送到你的頁面,讓你陷入重複消費相似內容的循環。
這種機制的危險不只在於資訊單一化,更在於它對情緒與行為的長期塑造。正如心理學所指出,頻繁接觸特定類型的刺激,會改變人的情感基調與價值判斷。如果一個人的動態牆長期充斥恐懼、憤怒或獵奇內容,那麼即使現實世界並非如此,他的情緒狀態也可能被塑造成對立與焦慮。這種影響雖緩慢卻持久,且比明顯的假新聞更難防範,因為它不一定是假,而是選擇性呈現的「真」。
還好平台並非全權控制一切,雖然它們設定了互動分數的權重,但使用者的行為仍取決於自己。換句話說,我們無法改變演算法的規則,但能透過改變互動方式來影響結果。刻意減少對不想看到內容的點擊、留言與停留時間,增加對高品質內容的互動,雖然效果緩慢,卻能逐步調整演算法對我們的預測模型,這是一場持久戰,需要自覺與耐心。
問題在於這種「自我管理」極為困難,平台設計本就利用人類心理弱點,將內容安排得像高熱量速食一樣方便、即時和令人上癮。你以為自己是自主選擇,其實只是被餵養的結果。就像一間速食店每天搬得離你更近,你若不刻意抵抗,最後它會搬到你家隔壁,成為你日常的一部分。
要打破這種循環,除了個人意識的覺醒,還需要更高層次的制度介入。透明化演算法的運作邏輯、提供使用者更細緻的控制選項、甚至要求平台對演算法造成的社會負面影響負責,都是必要的改革方向。當前已有部分國家與地區嘗試立法,要求平台公開推薦機制的核心原則,並賦予使用者選擇「非個人化排序」的權利,這或許能在一定程度上減少演算法對公共討論空間的操控。
不過制度改革往往慢於技術發展,生成式AI、沉浸式影音與更精準的情緒分析技術正在被納入演算法中,未來的內容推送將更加貼合個人心理弱點。這意味著若不提前建立防護機制,演算法對人類認知的影響力將進一步加深,甚至可能影響選舉結果、社會共識與文化走向。
演算法不是魔鬼,但它是放大器。它會放大我們最常接觸、最願意回應的事物。如果我們的互動行為被情緒化內容牽引,演算法就會為我們建造一個情緒化的數位世界。反之若我們能以更有意識的行動選擇互動對象與內容,它也能放大正向的知識、理性的討論與多元的觀點。真正的關鍵,不只是「平台要不要改變」,而是「我們願不願意改變自己與演算法互動的方式」。
唯有如此,我們才能從演算法的隱形之手中奪回部分主動權,讓數位空間成為知識交流與社會連結的助力,而不是情緒操控與認知偏差的溫床。
*作者為台北商業大學前校長暨叡揚資訊顧問/鑫友會前瞻政策顧問,本文由鑫友會提供,授權刋載
(相關報導:
統一東亞大戰略5》從商品、數據到演算法:通路平台戰已進入不可見的技術決勝場
|
更多文章
)





















































