奥尔奈!前不久Facebook不仅险遭无法访问该事件,还被前老总揭露出黑历史!
这不是Facebook第一次无法访问,却是近几年规模最小,消极影响最严重的一次。受无法访问该事件的消极影响,Facebook的公司股价昨天大跌了近6%,刷新年内单周最小涨幅,总市值一瞬间熔化约473万美元,创办人扎克伯格个人资产预计今年经济损失高达70万美元。
虽说公司股价一路上下跌,扎克伯格和Facebook的社会财富以裸眼由此可见的速度熔化。这回在这个当口上,Facebook的前老总又跳出来踩上踹,看上去似乎一马当先。这到底是怎么一两件事?
(一)前老总揭露出不可思议内幕消息
周三,这位有“packaging人”之称的前Facebook老总Frances Haugen公开接受了著名访谈电视节目《60两分钟》的访谈。她在电视节目里揭露出了Facebook一直以来不肯宣称的犯罪行为——用「弱化憎恶论调的演算法」牟取利益。
虽然该公司屡次宣称,至少在自己的产品上,它已经开始帮助制止憎恶论调,但从Haugen外泄的这份 Facebook内部文档看来更像一场段子:「他们预计今年,他们的强化可能只会对Facebook上3%-5%的憎恶论调、大约0.6%的暴力行为和鼓动文本产生作用。」
另这份文档甚至更加隐晦:他们从听友获得的确凿证据表明,憎恶论调、桑利县政治论调以及Facebook及母公司其它插件的原始数据已经开始消极影响全世界的社会。
(二)演算法服贸:紧紧抓住本性的软肋
Haugen宣称问题的根本原因在于「2018年推出的演算法控制了你在网络平台上看到的东西」。该演算法根据你过去碰触最多的文本类型来发送信息,通过参与程度强化文本。
她表示,Facebook为了提高使用者的参与程度,发现最好的参与方式即是向使用者宣扬绝望和憎恶。因为唤起人们的愤慨比唤起其它焦虑更容易。
(三)演算法带来的负面消极影响
Facebook编写演算法的方式已经开始改变欧洲主要政党领导国家的方式。Haugen获得的这份2019年的内部报告称,对演算法的改变迫使他们在Facebook上的沟通中产生负面消极影响,导致他们采取更加极端的政策立场。
除了Facebook,其危害也带到了Instagram上。一项研究表明,13.5% 的青少年说Instagram让自杀的想法更糟糕; 17% 的青少年说Instagram让饮食失调更糟糕。就在上周,Facebook表示,它将推迟为更小的孩子创建Instagram的计划。
人类将实验开发得到的模型直接运用在商业中,常常会遇到一些问题,现实中的很多问题是没有理论解的,因而需要通过采用不同的方法寻找更好的模型。
随着技术的发展,演算法也越来越多样化,如何开发出本性化的演算法让发送文本更优质,而不是像滚雪球一样大量宣扬负面焦虑,需要更加引起重视!