📝📝:社群媒體演算法的推薦圈套

1 / 1

透過演法算讓社會變得更極端

那麼,誰又該為此負責呢?Tristan 在聽證會時特提到:

“The polarization of our society is actually part of the business model.”
(社會的極端化也是這商業模式的一部分。)

為了在平台上留住最多的用戶,科技巨頭們不斷修改平台的設計,試圖在使用者所經過的每一處創造最大的參與度。2018年,美國麻省理工學院 (Massachusetts Institute of Technology)資訊科學家 Sinan Aral以 2006 至 2017 間真/假資訊作為分析的數據庫,針對假新聞在推特(Twitter)上的傳播模式做了研究。Aral 團隊發現假消息(假新聞)的傳播速度、深度以及廣度,在這三個構面上都比真消息來得快速,假消息傳播的速度甚至為真消息的六倍。

Sinan Aral 於演講公布的研究結果,縱軸為真假消息所附帶的情緒分類 橫軸座標則為用戶的參與度,數值越高代表參與度越高 (來源:TED.com

-

而在針對不同情緒的統計上,如:信任、喜樂、期待、難過、憤怒、害怕、噁心、驚喜,發現在「噁心、驚喜」的構面上,假消息的互動(回覆)比真消息還要高得多(上圖紅色框框所示),接續下來的則是「期待、憤怒、害怕」,真假消息的互動皆差不多。從 Aral 的研究可以發現,相比於正面情緒(信任、喜樂)置入負面情緒的內容(噁心、憤怒、害怕),Twitter 的使用者互動率反而比較高。

在 The Verge 的報導也提到,臉書的演算法所投放的高互動內容也鑲嵌著憤怒、仇恨、正義魔人的言論,而浸泡在演算法黑洞裡的使用者反而會因此變得更加極端化。該報導中也提到 2016 年的一份網路調查發現,臉書約有 64% 的使用者加入極端主義傾向的社團,全因臉書演算法的推薦所致。

此外,Tristan 在聽證會上提到, YouTube 的推薦影片前 15 名的關鍵字也有負面情緒的痕跡:

  • 仇恨(hates)
  • 揭露(debunk)
  • 殺死(destroy)
  • 抹滅(obliterate)

Tristan 形容這是一場直衝腦幹的競爭(a race to the brainstem),演算法的推薦機制試圖勾出人類本能的不理性衝動,而在背後的科技巨頭則大把地收割使用者的注意力貨幣。監控資本主義的商業模型損害了民主社會的言論環境,更糟的是,無法自拔的使用者甚至因此失去了性命;然而,真正該究責的並非是檯面上的執行長、創辦人、程式設計師,而是禁止這一套不擇手段獲取利益、榨取網路使用者數據的商業模式。

我是廣告,請往下繼續閱讀

質疑使用數據的代價

也許有些人會提出疑問:

反正 YouTube, Facebook, Google, Twitter 這些公司都沒跟我收錢,我貢獻一點個人數據做為交換應該很合理吧?

事實上,表面上聽起來很合理的使用條款卻不是等價的交換。而這疑問背後可能的原因在於,使用者對於數位個資的用途仍不夠理解,而輕易地交出了自己的個人數據。

試想,醫生、律師、保險公司都有你的個人資料,但是,你會因此接受他們在提供你服務之餘還銷售你的個人資料嗎?若是上述的從業人員銷售客戶的個人資料,將會面臨法律上的制裁;同樣的,科技巨頭對於個人數據的強取豪奪,進而建立個人行為預測模型再銷售給商人,也應該被究責、懲罰。

Molly 的父親歷經了長達五年(2017~2022)的訴訟後,終於讓法院說出他的訴求「必須主動監管社群媒體上的內容」。他的努力無法再度喚回照片裡 Molly 的燦笑,但是敦促著司法界以及公民大眾必須更有意識地使用社群媒體,必要時更需要放大檢視。畢竟,這些科技巨頭所允諾我們「自由」的承諾,若是真的如此唾手可得,那將會付出極大的代價。