来源:IT之家
北京天数 10 月 4 日消息,英国该地天数星期四,外泄大量外部文档曝出 Facebook 性丑闻的“造假者”发布了他们的身分。她叫艾格尼丝・豪根 (Frances Haugen),曾是一位 Facebook 商品副经理,在 Facebook 组织工作近几年后在今年 5 月份离任。
检举是为的是纠偏 并非惹怒
豪根则表示,她发布大量 Facebook 文档曝出子公司存有的难题,是为的是帮助 Facebook 迅速做出改变,而并非招来外间对 Facebook 的愤慨之情。
她指出,Facebook 对于网络平台上存有的潜在性危害性难题不如诚恳,心怀不满化解其严重不足,这让她越来越感到懊恼。她原先对重新加入 Facebook 打入冷宫,期望能化解 Facebook 的优点。但,她迅速就开始揣测他们的项目组是否能产生影响,他们拥有的资源极少。
最终,她认为执政者、市场监管机构应该知道她在 Facebook 发现的事情。于是,她向英国债券交易理事会 (SEC) 外泄了 Facebook 外部研究副本,期望 Facebook 被更快地市场监管。
子公司利润率低于使用者福利
豪根在 CBS《60 两分钟》电视节目上指,Facebook 十分热衷商品强化,以致于他们拒绝接受了扩大憎恶论调的演算法。
“这是在拿我们的安全可靠换回他们的利润率。”豪根称。她则表示,他们不坚信他们愿做出必要性的投资来让 Facebook 避开脆弱。
豪根曾在数家子公司组织工作过,包括Google、Pinterest,但 Facebook 的难题“要严重得多”,因为 Facebook 期望将子公司利润率放于使用者福利其内。
“对 Facebook 好,还是对公众好,这里存有矛盾,”豪根则表示,“Facebook 一次又一次地选择为子公司利益强化商品,例如赚更多的钱。”
尽管 Facebook 则表示这种商品强化有助于阻止憎恶论调,至少在其商品上,但豪根外泄的 Facebook 外部文档显示,“我们预计我们 (的强化) 可能只会对 Facebook 上 3% 至 5% 的憎恶论调、大约 0.6% 的暴力和煽动内容产生作用,尽管在这一点上我们已经做到世界上做好了”。
另一份 Facebook 文档则更为直言不讳。“我们从一系列来源得到的证据显示,Facebook 及其家族应用上的憎恶论调,引起分歧的政治论调、虚假信息正在影响全球社会”。
根源在演算法 拿憎恶换网络流量
豪根认为,难题的根源在于 Facebook 在 2018 年推出的演算法,它主导了使用者在 Facebook 上看到的内容。她指出,这个演算法旨在提高 Facebook 上的使用者参与度。Facebook 发现,提高参与度的最好方法就是向使用者灌输恐惧和憎恶。“和其它情绪相比,惹怒人们更容易实现。”豪根称。
当时,Facebook CEO 马克・扎克伯格 (Mark Zuckerberg) 曾积极评价演算法调整,“我们感觉我们有责任确保让我们的服务不仅用的有趣,还要有益于人们的健康”。
背叛民主
豪根指出,Facebook 演算法是该网络平台向使用者推送虚假信息的因素。她则表示,Facebook 意识到了虚假信息对 2020 年大选构成的风险,因此增加了安全可靠系统来降低风险。但在选举结束后,Facebook 迅速放松了这些安全可靠措施。
“选举一结束,他们就放弃了这些安全可靠措施或者说把设置恢复到了之前的样子,将增长放于安全可靠至上,”豪根称,“对于我来说,这真的感觉就像对民主的背叛。”
<!--