英國廣播公司報道,多個社交平台巨頭的演算法懷疑容許,透過暴力內容推高用戶參與度,導致更多有害內容出現在用戶動態消息中。報道引述多名不同公司的告密者指,Facebook和Instagram母公司Meta鑑於公司股價持續下跌,加上為了與TikTok競爭,允許更多涉及女性貶抑或陰謀論等的邊緣內容,出現在動態消息;而TikTok就被揭發為了保持與政治人物的牢固關係,免受監管或禁令威脅,而優先處理涉及政治人物的舉報案件,之後才處理一系列涉及兒童的有害內容,被批評是無視用戶面對的風險。
報道引述Facebook內部研究指,公司早就意識到演算法造成的問題。告密者批評,是犧牲受眾福祉來達至利潤最大化;而Instagram 2020年推出的Reels功能,亦缺乏足夠安全保障措施,負責的團隊亦欠缺保護兒童等方面的專員。
Meta回應報道時說,任何暗示公司為了經濟效益而故意放大有害內容的說法,都是錯誤;TikTok亦批評有關指控捏造,強調公司已投資開發技術,以防用戶瀏覽到有害內容。