不,豪根不是 Facebook 的 “吹哨人“,这一误解很危险 - iYouPort

2021-11-08 原文 #iYouPort 的其它文章

不,豪根不是 Facebook 的 “吹哨人“,这一误解很危险

  • 仅仅批评 Facebook 是不够的。必须知道它为什么会这样做。

Facebook 的问题或监视资本主义的问题并不是任何新问题,但值得注意的是 —— 此次事件后政府和几乎所有企业媒体异口同声地鼓吹更严格的言论审查作为所谓的解决方案的恐怖。我们必须从刀山进火海吗?

Frances Haugen 于 10 月 5 日在参议院委员会上作证。DREW ANGERER/GETTY IMAGES

您一定注意到了,标题中有一个引号。

首先必须说明,弗朗西斯·豪根(Frances Haugen)并不是 “吹哨人”,或者说不是您所应该理解的吹哨人。虽然所有主流媒体都称其为 “吹哨人”。

这也是一个很好的机会,以强调 “吹哨” 究竟意味着什么。

这非常重要,因为搞错的后果将很危险 —— 在豪根的故事之后,欧洲迅速借助美国企业媒体对审查作为 “解决方案” 的推崇, 要求美国硅谷巨头加强审查他们想要遏制的内容 。中国有 GFW,中国人不被允许使用 Facebook 等硅谷巨头的平台,但您也能看到,中国网络对豪根的故事的 “热情” —— 很简单, 统治阶级在把控审查大权的渴求方面,有绝对的共同利益。

污染吹哨人的概念正是统治阶级对抗透明度革命的最惯用手段 —— 还记得 中国的故事 吗?

豪根事件再次暴露了许多人对吹哨概念的理解模糊不清。这非常糟糕,容易被当权者所操纵。

有线索表明,豪根的 “吹哨” 可能并不完全是人们假设的那样,这是完全不同于吹哨的另一种行动。

第一条线索是,豪根告诉人们的东西似乎并没有什么是人们不知道的 —— 要么是基于人们自己使用社交媒体的个人经验(难道真的还有人不明白 Facebook 通过算法操纵我们能看到什么信息 吗?),要么是从《社交困境》那样的纪录片中听闻到来自硅谷的各种难民对社交媒体引领社会的方向提出的可怕警告。

我们已经讨论过那部纪录片为什么很愚蠢,甚至是危险 的,并且, 绝对不会 将其中许多谈话者称为 “吹哨人”,那么为什么豪根突然获得了那些人都不配拥有的地位?

将豪根称为 “吹哨人” 的真正问题在于,她立即被推到了党派政治争论的中心 —— 这是部落政治的又一个例子,已经成为 后特朗普时代 的一个特点。

民主党人认为豪根是个英雄,她揭发了霸道的科技公司,这些公司正在占有我们的孩子的思想,颠覆社会团结,而且还助长了危险的特朗普式妄想,为1月份国会大厦的骚乱 铺平了道路

相比之下,共和党人认为豪根是一个民主党的党徒,试图为自由派的阴谋论注入活力 —— 关于共和党人的阴谋论。在他们看来,她正在支持左翼的 “ 取消文化 ”,导致保守派价值观被赶出网络公共广场。

让我们暂时把这种部落主义放在一边(之后很快就会回到这个问题上),首先考虑我们想象中的吹哨所应当涉及的内容。

豪根确实利用她作为一个权力极大的公司 —— 横跨全球的科技公司Facebook —— 的前雇员的身份,将本应对全世界隐瞒的事情曝光。

这符合大多数人对吹哨人的基本定义。

但是,重要的是, 吹哨人正在与比他们强大得多的机构对抗。这些机构将试图反击,并且在其核心利益受到威胁时以最肮脏的方式进行反击。吹哨人几乎肯定会因为他们所处的位置与他们试图追究的机构的关系而面临惨重代价。

这在最勇敢的吹哨人和协助他们的人所遭受的待遇中非常明显。一些人被起诉、入狱并几乎破产(你知道的, 切尔西·曼宁 约翰·基里亚库、克雷格·默里 ),另一些人则被驱逐流亡,随时担心被暗杀( 爱德华·斯诺登 ),而最不幸的人则 被联合诋毁 并消失在地牢中,面对 175年监禁 的威胁( 朱利安·阿桑奇 )。

正是由于他们所遭受的待遇,可以毫不怀疑所有这些人都是吹哨人。 正是因为他们告诉全世界那些当权者决心隐瞒的秘密,他们才被迫经历了如此可怕的磨难。

甚至可以说,作为一条经验法则,吹哨人面临的惩罚越严重,他们在揭露本应永远处于黑暗中的东西方面对统治阶级所构成的威胁就越大。

将豪根视为吹哨人的一个问题是,她是否已经或将要为她的披露付出任何形式的代价?还不清楚。

也许更重要的是,当她求助于《60分钟》帮助她 “揭发” Facebook 时,她知道自己会有强大的盟友 —— 一直到占据白宫的那些人 —— 为她提供保护,使她免受 Facebook 的任何有可能的影响。

如果报告可信的话,她已经与代表白宫发言人珍·普萨基的公关公司签约了。

当然,豪根得到的支持并不意味着她没有引起对重要事项的关注。但这确实意味着,“吹哨” 这个概念是否是描述她所做事的一个有用的术语,值得怀疑。

这不仅仅是一个语义问题。很多事情都取决于我们如何使用这个词。

一个真正的吹哨人正试图揭示最有权势的人的隐秘,以实现问责制,并使我们的社会更加透明、安全、公平。真正的吹哨人试图在统治者和被统治者之间建立公平的竞争环境。

在国家和国际层面上,吹哨人揭露国家、公司和主要组织的罪行和不端行为,以便公民能够追究他们的责任, 从而使人民能够得到授权 ,并使日益空洞的民主制度获得更多的民主内容。

但豪根做了一些不同的事。或者说, 至少她已经被那些反对问责、反对赋予普通人权力、阻碍巩固民主体制的建制派人士所收买,不管她本人是否愿意。

为了澄清这一点,我们需要了解,在我们的社会中,有两种方式可以挑战权力:从主宰我们生活的机构、权力结构之外;或者从其内部。

这是两种不同的活动,有不同的结果 —— 对吹哨人和我们来说都是如此。

学者们经常提到 “ 精英 ”,而不是一个单一的机构,以更好地把握权力的本质。而作为外部观察者,人们常常错过这一重要的观察。

机构,事实上任何主要的组织,都有可能在其内部至少有两个主要的竞争集团,除非它是完全独裁的。(即使如此,独裁政权的领导人也 不得不担心阴谋和政变

对于该组织 —— 或国家 —— 应该做什么,如何最好地管理其利益并使其成功或利润最大化,以及如何最好地保护其自身不受监督或改革的影响,都有不同的看法。 组织内部的人在维持其权力的动机上是完全一致的,他们仅仅是在如何最好地实现这一目标上存在分歧。

在西方社会,这些对立的愿景通常围绕着与自由主义和保守主义价值观相关的想法。在国家的情况下,这种简单的二元对立往往被鼓励两党、两种政治选择、两套价值观的选举制度所强化。民主党与共和党;工党与保守党;等等。

当局的成功 —— 它维护其权力的方式 —— 是它可以把这两种选择说成是有意义的。

但实际上,这两种选择在很大程度上 都是对现状的支持 无论你投给哪个政党,你都是在为同一个意识形态系统投票 —— 目前是新自由主义版本的资本主义。无论你如何投票,都是同一批精英继续掌权,有同样的公司资助他们,政治、媒体和商业机构之间有同样的 旋转门

那么,这与豪根有什么关系?

这位 “Facebook 吹哨人” 并没有像曼宁和斯诺登那样,帮助揭发权力结构本身的特征,或其隐藏的罪行,或其民主赤字。

她并没有背弃体制,没有揭露其最黑暗的秘密。 她只是 在体制内 改变了忠诚度,在精英们为争夺统治权而不断变化的战斗中结成新的联盟。

这正是她被《60分钟》节目和其他所谓的 “自由派” 企业媒体如此敬重、并被民主党政客奉为圭臬的原因。她帮助他们的精英派别战胜了敌对的精英派别。

曼宁和斯诺登挑战了社会组织的根本基础,他们向作为人们生活的意识形态背景的平静的湖面投掷了一块巨石。

曼宁揭露了支持贪婪的 战争工业的精英共识 —— 这些工业决心以 可怕的人命为代价 控制他人的资源,并打击人们口口相传的道德价值观。

同时,斯诺登表明, 最终这些精英 —— 无论民主党还是共和党正式执政 —— 都把公民视为敌人,秘密监视所有人,以确保人们永远无法组织起来取代他们

曼宁和斯诺登都威胁到了统治精英的稳固,并因此被两派人马共同诋毁。

豪根与权力的关系是不同的,只有通过了解 Facebook 是什么,才能对其有所了解。

这个科技巨头站在一场主要的精英斗争的中心:旧媒体和新媒体之间;传统的企业权力和新的数字企业权力模式之间; 从不受监管的 “自由” 市场中受益的精英和从监管中获得权力的精英之间。

在 Facebook 内部,也有一些争斗:一些人坚持其最初的雄心壮志,将一个无止境的互联世界货币化,让所有人都有一个在线扩音器;另一些人则希望该平台更深入地嵌入统治精英集团,为其服务。

这不是一个简单的民主党与共和党的分歧。Facebook 和其他巨头社交媒体平台 —— 以其对公共话语的喧嚣影响和放大非精英声音的能力 —— 已经产生了跨越通常的左-右界限的两极化影响。

精英之间的复杂争斗因当前共和党建制内越来越多的自由主义、自由市场的冲动(与右翼传统上对保守和家庭价值观的关注形成矛盾)和当前民主党建制内 “大政府”、身份政治的冲动(与左翼传统上对更自由、言论自由价值观的依恋形成矛盾)而进一步复杂化。

硅谷的精英们也同样跨越了这一鸿沟,有些人赞成从网上的自由竞争中获利,有些人则赞成严格监管。

豪根在 Facebook 上的所谓 “吹哨” 仅仅是她在公开表示她在这场精英竞争中偏向一方而不是另一方。她不是在为我们这些公众服务,而是在协助一组精英对抗另一组精英。

那些希望对社交媒体平台进行 更多监管审查 以阻止独立声音和批判性思维的政客、那些希望重新确立其对科技新贵的媒体把关权力的亿万富翁、那些希望将其数字工具深入所有人生活的硅谷幻想家,都在豪根身上找到了盟友。

她并没有威胁现状,这种现状继续 掠夺地球上的有限资源 ,使其枯竭,在全球范围内发动无休止的资源战争,将我们的物种推向灭绝的边缘。不,她是在维护一种现状。

这就是为什么豪根不是一个真正的吹哨人,不管是勇敢的还是其他什么的。因为为真相、为人类、为生命站出来是要付出代价的。而她只是在为一个精英阶层提供支持。

📌【注】 统治阶级污染吹哨人概念的常用手段有三种:

1、将揭露曝光抹黑为 “盗窃”(参见阿桑奇的引渡 听证会 );

2、将吹哨利用为权力斗争,即 将泄漏限制在避免威胁精英集团基本利益和统治阶级权力稳固的范围内,限制泄漏的内容,有选择地 “泄漏”,甚至伪造泄漏的内容,将其变为武器以对抗内部竞争对手(参见豪根,甚至 被怀疑的潘多拉文件 ,这也是 中国最有可能使用 的方式);

3、当上述方法都无法使用时,统治阶级还可以通过伪造泄漏信息抢先一步制造混乱 —— 借助其控制的大型媒体机构,抢在吹哨人公开真正的泄漏文件之前,先公开一套假的泄漏文件;待到真正的吹哨人公布真实信息时,大众已经被虚假的信息先入为主,这时候统治阶级再一次操纵大型媒体对真正的泄漏 “表示质疑”,从而在大众舆论中制造冲突。

上述列举的这些手段可能不是完整的,但它们是最有可能被使用的。请随时警惕这些手段 —— 尤其是请记得, 并不是所有 “泄漏” 都是吹哨,真正的吹哨人完全在为了您的利益服务,您的利益永远与统治阶级的利益相悖。

📌 推荐Glenn的详细说明,关于,民主党和企业媒体并没有打算削弱 Facebook,只是想要拿走 Facebook 所拥有的强大审查权力《 Democrats and Media Do Not Want to Weaken Facebook, Just Commandeer its Power to Censor

IYP的 原网站 分类列表 中对于 Facebook 有单独的板块,但是, 下面的文字想要说明的绝非只有 Facebook 一家,而是希望通过本月这场吹哨热门事件, 再一次 提醒您关于 监视资本主义算法暴政 的危害,即 “定制人” 如何威胁民主

Facebook 的算法是如何工作的?

人们在使用 “Facebook的算法” 这个词时好像该算法只有一个,而事实上, Facebook 是根据数百个、也许是数千个算法来决定如何定位广告和对内容进行排序的。 这些算法中,有的能找出用户的喜好,并将相关内容提升到用户的新闻提要中;其他算法则是为了检测特定类型的所谓不良内容,如裸体、垃圾邮件或点击率高的标题党,对其删除、或降低其可见度。

所有这些算法都被称为机器学习算法:

与工程师硬编码的传统算法不同,机器学习算法对输入数据进行 “训练”,以学习其中的关联性。经过训练的算法,被称为机器学习模型,然后可以使未来的决策自动化。例如,对广告点击数据进行训练的算法可能了解到,女性比男性更经常地点击瑜伽紧身裤广告。然后,由此产生的算法模型将向女性提供更多此类广告。

由于 Facebook 拥有大量的用户数据,它可以:

开发的模型不仅能推断出 “女性” 和 “男性” 这样的大类别,还能推断出 “喜欢 Facebook 瑜伽相关页面的25至34岁女性” 这样的细化类别,并向她们投放广告。定位越细,点击的机会就越大,这将给广告商带来更大的收益。

同样的原则也适用于新闻提要中的内容排名:

正如算法[可以]被训练来预测谁会点击什么广告一样,它们也[可以]被训练来预测谁会喜欢或分享什么帖子,然后给这些帖子更多的突出地位。例如,如果机器学习模型确定一个人非常喜欢狗,那么朋友们关于狗的帖子就会出现在该用户的新闻提要中的较明显位置。

这就是为 “定制人” —— 即 您不是在获取信息,而是仅仅强化了您的固有认知、偏好和偏见 。具体见《 算法暴政:定制人如何终结民主 》。

在 Facebook 开始使用机器学习算法之前,其团队使用设计战术来提高参与度。他们会试验一些东西,如按钮的颜色或通知的频率,目的就是维持用户始终能回到其平台上。但机器学习算法创造了一个更强大的反馈循环。它们不仅可以个性化每个用户能看到什么东西,而且,还会随着用户不断变化的偏好而继续发展,永远向每个人展示能让他们最容易投入的东西。

谁掌管着 Facebook 的算法?

在 Facebook 内部,没有一个团队负责这个内容排名系统的全部工作。工程师们根据自己团队的目标,开发并在其中加入自己的机器学习模型。例如,专注于删除或降级所谓不良内容的团队,被称为 “诚信团队”,将只训练检测不同类型的所谓不良内容的模型。

这是 Facebook 早期做出的决定,是其 “快速行动,打破常规” 文化的一部分。它开发了一个被称为 FBLearner Flow 的内部工具,使没有机器学习经验的工程师也可以很容易地开发出他们所需要的任何算法模型,供他们使用。根据一项数据,在2016年,已经有超过四分之一的 Facebook 工程团队在使用它。

许多现任和前任 Facebook 员工说,这就是为什么 Facebook 似乎无法掌握它在新闻源中向用户提供的内容的部分原因。不同的团队可能有相互竞争的目标,而且这个系统已经变得如此复杂和笨重,以至于没有人能够跟踪其所有不同的组成部分。

因此,该公司的主要质量控制过程是通过实验和测量:

团队在 FBLearner 上训练一个新的机器学习模型,无论是为了改变帖子的排序,还是为了更好地捕捉违反 Facebook 社区标准的内容。然后他们在 Facebook 的一小部分用户身上测试新模型,以衡量它如何改变参与度指标,如点赞、评论和分享的数量,2016年至2018年担任新闻源工程经理的克里希纳·盖德说。

如果一个模型减少了太多的参与,它就会被丢弃。否则,它将被部署并持续监测。 在 Twitter 上,盖德解释说,当点赞或评论等指标下降时,他的工程师会每隔几天收到通知,然后,他们会解读是什么导致了这个问题,以及是否有任何模型需要重新训练。

Facebook 的内容排名如何导致了虚假信息和仇恨言论的传播?

在证词中,豪根反复提到 Facebook 的算法煽动了虚假信息、仇恨言论,甚至是种族暴力。

“Facebook …… 知道 — — 他们已经公开承认 — — 如果没有诚信和安全系统,基于参与的排名是危险的,但随后却没有在世界大多数语言中推出这些诚信和安全系统”,她告诉参议院说,“它正在将家庭分离;在埃塞俄比亚这样的地方,它实际上是在煽动种族暴力”。

以下是MIT之前关于这个问题的内容:

使参与度最大化的机器学习模型也有利于制造争议、错误信息和极端主义:简单地说,人们只是偏好猎奇而喜欢离谱的东西。

有时,这将激化现有的政治紧张局势。迄今为止最具破坏性的例子是缅甸的情况,在那里,关于罗兴亚穆斯林少数民族的病毒性传播的假新闻和仇恨言论使该国的宗教冲突升级为全面的种族灭绝。Facebook 在多年淡化其作用后,于2018年承认,它没有做得足够 “帮助防止我们的平台被用来煽动分裂和煽动线下暴力”。

正如豪根提到的,Facebook 也知道这一点有一段时间了。之前的报道发现,至少从2016年开始,它就一直在研究这一现象。

在《华尔街日报》审阅的一份当年的 内部报告中 ,该公司研究员 Monica Lee 发现, Facebook 不仅托管了大量的极端主义团体,而且还向其用户宣传这些团体。“64%的极端主义团体加入是由于我们的推荐工具”,文件中说,主要是由于 “你应该加入的团体” 和 “发现” 功能背后的机器学习算法模型。

2017年,Facebook 长期以来的首席产品官克里斯·考克斯(Chris Cox)成立了一个新的工作组,以了解 Facebook 上用户参与度的最大化是否导致了政治极化。它发现确实存在相关性,而减少两极分化就意味着在参与度上受到打击。在一份2018年中期的文件中,该特别小组提出了几个潜在的解决方案,例如调整推荐算法,为人们加入的团体提供更多样化的建议。 但它也承认,其中一些想法是 “反增长的”。大多数建议没有取得进展,该工作队也解散了。

在MIT的采访中,Facebook 员工也证实了这些发现:

一位2018年加入的前 Facebook 人工智能研究员说,他和他的团队进行了 “一项又一项的研究”,证实了同样的基本想法: 最大化参与度的算法模型会增加两极分化。他们可以很容易地跟踪用户对不同问题的同意或不同意程度,他们喜欢参与什么内容,以及他们的立场如何因此而改变。不管是什么问题,这些机器学习模型都学会了向用户提供越来越极端的观点 。他说:“随着时间的推移,用户可衡量地变得 更加两极化 ”。

在她的证词中,豪根还反复强调,由于 Facebook 对不同语言的覆盖不均, 这些现象在不讲英语的地区要严重得多。

“就埃塞俄比亚而言,有1亿人口和6种语言。而 Facebook 只支持其中两种语言的诚信系统”,她说,“这种专注于特定语言、特定内容的系统让人工智能来拯救我们的策略注定要失败”。

她继续说,“因此,投资于不基于内容的方式来减缓平台的速度,不仅可以保护我们的言论自由,还可以保护人们的生命”。

MIT在今年早些时候的另一篇关于大型语言模型,即 LLM 的局限性的文章中对此进行了更多探讨:

尽管 LLM 有这些语言学上的缺陷,但 Facebook 还是非常依赖它们来实现其全球范围内的内容审核自动化。 当埃塞俄比亚提格雷[Tigray]的战争在11月首次爆发时,人工智能伦理学研究员 Timnit Gebru 看到该平台在处理大量错误信息时陷入困境。这体现了研究人员在内容审核中观察到的一种持续模式。 使用不被硅谷优先考虑的语种的社区遭受最恶劣的数字环境。

Gebru 指出,这也不是危害的终点。 当假新闻、仇恨言论、甚至死亡威胁没有被审核出来时,它们就会被作为训练数据被抓取,以建立下一代的算法模型。而这些模型,鹦鹉学舌,最终在互联网上重新传播这些危害性的语言模式。

Facebook 的内容排名算法与青少年心理健康有什么关系?

该杂志的 Facebook 档案中更令人震惊的启示之一是 Instagram 的内部研究,发现其平台正在恶化年轻女孩的心理健康。“32%的少女说,当她们对自己的身体感觉不好时,Instagram 让她们感觉更糟”,研究人员在2020年3月的一份幻灯片演示中写道。

豪根将这一现象与基于参与的内容排名算法系统联系起来,她告诉参议院,“这导致青少年接触到更多的厌食症内容”。

“如果 Instagram 是这样一种积极的力量,那么在过去10年里,我们是否看到了青少年心理健康的黄金时代?并没有,我们看到的是青少年的自杀率和抑郁症率不断上升”,她继续说,“有广泛的研究支持这样的观点,即 社交媒体的使用放大了这些心理健康伤害的风险”。

在MIT报告中,一位前人工智能研究员说,他也看到这种影响延伸到了 Facebook:

该研究人员的团队 …… 发现有发布或参与忧郁内容倾向的用户 — — 这可能是抑郁症的迹象 — — 很容易陷入消费越来越多的负面材料,有可能进一步恶化他们的心理健康。

但与豪根一样,研究人员发现,该公司领导层对做出根本性的算法改变并不感兴趣。

研究小组建议调整这些用户的内容排名算法模型,不再仅仅是最大限度地提高参与度,因此他们将可以被显示更少的令人沮丧的东西。“领导层的问题是,如果你发现有人处于脆弱的心理状态,我们是否应该对参与度进行优化?”,他回忆说。

但任何降低参与度的做法,即使是出于不加剧某人的抑郁症这样的重要原因,都会导致该公司领导层的大量犹豫。 由于他们的绩效考核与工资和项目的所谓成功完成挂钩,员工们很快就学会了放弃那些受到反对的项目,而继续从事那些由高层下达的工作….

与此同时, 那位前雇员不再让他的女儿使用 Facebook。

  • 技术曾经是为富人服务的。现在富人正在付钱以避免技术。如果您错过了《 穷人的屏幕

如何解决这个问题?

豪根反对拆散 Facebook 或废除美国《通信礼仪法》第230条,该条款保护科技平台对其传播的内容负责。

相反,她建议在第230条中为算法排名划出一个更有针对性的豁免,她认为这将 “摆脱基于参与的排名”。她还主张恢复 Facebook 的按时间顺序排列的新闻源。

研究社交媒体排名算法系统及其对人权影响的非营利组织 “数字权利排名” 的项目主任埃勒里·罗伯茨·比德尔(Ellery Roberts Biddle)说,第230条的例外规定需要仔细审查:“我认为这将有一个狭义的含义。我不认为它能达到我们所希望的效果”。

她说,为了使这种例外规定具有可操作性,政策制定者和公众需要对 Facebook 的广告定位和内容排名系统的运作有更大的透明度:“我理解豪根的意图  — — 这很有意义。但这很难实现。 我们实际上并没有回答围绕算法的透明度问题。还有很多事要做”。

尽管如此,豪根的揭露和证词至少可以使人们重新关注许多专家和 Facebook 员工多年来一直在说的话: 除非 Facebook 改变其算法的基本设计,否则解决方案不会对该平台的问题产生任何有意义的影响。

仅仅批评 Facebook 所做的事是不够的,必需强调它为什么会这样做

思考 Facebook 以及如何处理它意味着要处理两组相互冲突的事实。一个是 Facebook 是一个很有用的交流、新闻发布、经济活动等目的的平台,全世界有数十亿人依赖它;另一个是,Facebook 是一个高度成瘾的、追求利润的实体,它利用和 操纵人类心理来赚钱 ,给社会其他部分带来可怕的结果。

该公司再次成为新闻焦点,现在正处于地狱般的一周结束之际,这要归功于一名前雇员的爆炸性披露,该雇员心灰意冷,向公众泄露了大量的内部文件。吹哨人弗朗西斯·豪根一事的关键在于此: Facebook 很清楚其平台的各种危害和危险,但一直没有纠正这些问题,因为这与公司的持续增长和利润相冲突。

如前文所显示的,该公司的研究人员自己认定,Facebook 旗下的 Instagram 对少女有心理上的伤害;另一项研究发现,该公司在2018年对其算法进行了 调整 ,声称促进 “有意义的社会互动”,即MSI,这反而激励了基于愤怒、社会分裂、暴力和胡说八道的帖子和内容。还有人指出,Facebook 故意以儿童为目标 ,想方设法让孩子尽早上钩,而且它在删除明知是贩毒集团和人贩子所发布的帖子时 拖拖拉拉

为了解决 Facebook 的问题,人们提出了许多解决方案,比如利用反垄断法将其瓦解,修改第230条,允许科技公司因其平台上发布的内容而被起诉,或者如豪根向国会建议的那样,要求该公司提高透明度并建立一个监管委员会。但是,这些文件中披露的大部分内容,为该公司和其他类似的事实上的垄断企业应该被视为公用事业、甚至被纳入公有制的论点增加了砝码。

这些文件清楚地表明,正如豪根告诉国会的那样,当 Facebook 遇到其利润和人们的安全之间的冲突时,它 “一直在以支持他们自己的利润为唯一目标解决这些冲突”。 Facebook 知道它的平台对孩子不好,但为了继续发展,它需要吸引这些孩子,让他们在成年后成为其用户群的一部分,并让这些孩子把他们的父母带入其中。“他们[孩子们]是有价值但尚未被开发的受众群”,2020年的一份内部文件中提到了青少年,该公司研究青少年,策划新产品以抓住他们,并讨论了 “把玩伴作为增长杠杆” 的想法。

Facebook 很明白,提升 MSI 可能会助长用户之间的分裂、谩骂和各种不健康的行为,但不这样做意味着参与度降低,因此,可能会减少该公司的利润。当一位员工建议通过取消算法对热门用户发布内容的优先级来处理错误信息和愤怒时,她写道,马克·扎克伯格不会这样做的,“只要是对MSI利润有实质性影响的提议都不会被采纳”。当研究人员建议该公司调整其算法,以便算法不会将用户送入更深、更极端的偏执,比如对健康食谱的兴趣很快就会导致厌食症的内容,高层由于担心限制用户参与而忽略这些建议。

“我所说的很多变化并不会使 Facebook 成为一家不赚钱的公司”,豪根在国会说,“它只是不会像今天这样成为一个荒唐的盈利公司”。

就像技术公司通过制造几年后就会坏掉的设备来推动销售一样,正是 Facebook 对增长和更大利润的渴望,促使它不愿意负责任地行事。

【注:这里讽刺的是以苹果为代表的电子设备制造商。如果您错过了《苹 果卖的究竟是什么?这个时代最关键的不是技术,而是心理学 》】

将这些激励因素从等式中剔除似乎是不费吹灰之力的,特别是在这些平台 具有 像铁路和电信一样的 “自然垄断” 地位的情况下。

如果一个公司是公有的,或者仅仅是一个受到严格监管的公用事业公司,它就不需要在资本主义的增长和过度追求利润的逻辑下工作,而这种逻辑助长了这些问题。如果其用户群不再需要它或关心它,它也就不需要继续生存了。

对于 Facebook 的私人所有者马克·扎克伯格(Mark Zuckerberg)来说,该公司在年轻人中已经过时,主要由30岁以上的人使用,这可能是一个问题,但对于一个政府不情愿地将其国有化的公用事业来说,这并不是什么问题,因为其用户是多么依赖它。事实上,这听起来像是一个现成的解决方案,因为大多数人都同意,这个平台充其量是令人上瘾和不健康的。

如果年轻一代 不关心 Facebook 的生存,我们为什么要强迫他们有其他想法?如果人们在被劝说取消所有关注并清空他们的新闻源时会更加快乐,我们为什么要进行报复,就像 Facebook 最近对相关 工具创建者 所做的那样?

当然,还有许多实际问题需要解决。首先,Facebook 可能是一家美国公司,但其类似于公用事业的服务是向全球提供的,因此,关于一个公有的或受监管的 Facebook 究竟会是什么样子,确实存在一些问题  — — 比如 “哪些公众?” 或 “由谁监管?”

同样,任何这样的计划都必须有严格的监督和民主控制,以免该平台进行的剥削和操纵大权只是从私营部门转移到了政府  — — 但请记住,通过其监控计划和网络行动,全世界很多政府都已经在使用 Facebook 这样的平台来收集和存储全世界用户的数据,并 操纵 人们能看到什么样的信息 。【在我们的 列表-2 “公私监控伙伴关系” 中看到更多具体内容】

也许到最后,正确的前进道路将是所有这些解决方案的某种组合,包括打破这些垄断和将它们的一部分置于公共所有权之下。

但是,如果确切的解决方案还不清楚,那么可以肯定的是,目前的状况是无法维持的。除了豪根泄密事件所强调的问题外,人们早就知道该社交媒体平台和其他科技创新对我们来说是不健康的, 它们被故意设计成令人上瘾,以至于负责它们的 软件工程师 科技大亨 都避免自己和自己的孩子使用自己的作品。 【更多见《 穷人的屏幕 》】

也许有一种方法可以将社交媒体及其最有用的功能保留在我们的生活中,同时摆脱其最恶毒的特征;或者整个社交媒体将被证明是一个错误,从根本上不符合人类大脑的工作方式。但要找出答案,我们至少要尝试一些不同的东西。

可悲的是,这 并不是 《华尔街日报》系列的大部分文章、国会的大多数人、以及 其他新闻机构 在对这一泄密事件作出反应时所指向的解决方案。可以预见的是,这条新闻只是产生了要求这些科技公司加强 “内容审核” 的呼声,也就是鼓吹审查制度,以此来防止各种虚假信息的传播,或阻止平台 “促成危险的社会运动”,正如豪根指责他们的那样。

具有讽刺意味的是,尽管这些文件本身表明审查制度作为解决这些问题的方法是极为愚蠢的。该系列的 第一个报道 是关于 Facebook 如何创建了一个由数以万计的高知名度账户组成的 “白名单”,使他们在发布会让其他普通用户受到审查、暂停或被永久禁止的内容时不受审查。与此同时,该公司的审查员还对低知名度级别的用户下手,删除完全无害的帖子或那些被审查员误解的信息,包括今年早些时候以色列镇压巴勒斯坦人期间被封锁的阿拉伯语新闻机构和活动家。这些平台已经多次表明,他们不能被信任可以准确和负责任地调节内容,就在本周,人权观察关于其压制巴勒斯坦内容 的报告中 记录了这一点。

这种反应是 Olivier Jutel 所称的技术简化主义的长期趋势的一部分:认为科技公司及其产品不仅对我们有害和不健康,而且对过去几年中发生的 每一件你能想到的坏事 都负有责任。 在决定如何处理这个问题时(并选择审查制度作为前进的方向),我们有可能忽略了推动我们当前世界动荡的更广泛的政治、经济和社会因素,而将其归咎于社交媒体近乎神秘的力量。 Facebook 真的是对1月6日国会大厦骚乱的唯一责任者吗?还是说它只是众多有用的工具中的一个,使参与者能够为该事件组织起来,而这些参与者是被经济失调和大部分精英和主流媒体兜售的关于选举的谎言所驱使?

豪根 告诉华尔街日报 ,她站出来的动机是看到她的一个自由派朋友在花了 “越来越多的时间阅读在线论坛”(奇怪的是,不是Facebook)之后,被描述为 “混合了神秘主义和白人民族主义” 的邪恶妄想所笼罩,最终导致了友谊的结束。然而,人们经常遇到或消费宣传品、更不用说简单地使用社交媒体和互联网,从而走上类似的道路。不幸的是,我们从未发现豪根的朋友被吸入这种谎言的瘴气中的根本性因素是什么,我们也没有发现是什么导致他后来放弃了这些信念。 虚假信息一直在世界范围内泛滥;找到这些问题的答案将有助于我们理解为什么它在这个时代似乎特别强大。

必须拒绝大规模审查的解决方案并不意味着我们无能为力。对 Facebook 的算法、设计、中心任务和资源配置可以做出明显的改变,使其更接近于它所 宣称的 “真正的公共服务 ”,而不是像虚无主义、以盈利为目的的巨无霸,而且这些改变都不会威胁到我们自由发言的权利,也不会扰乱我们与亲人保持联系、组织活动或使用此类平台的其他有用功能。谁知道呢,我们甚至可能偶尔会觉得想要注销。⚪️

📌 尤其推荐阅读 The Intercept 的这篇文章,它提供了之前隐藏的细节,说明了 Facebook 如何将无政府主义团体与武装民兵组织等同起来 —— 以及 Facebook 的政策如何不成比例地针对已经被边缘化的人群 。《 REVEALED: FACEBOOK’S SECRET BLACKLIST OF “DANGEROUS INDIVIDUALS AND ORGANIZATIONS”

The Facebook whistleblower says its algorithms are dangerous. Here’s why.

Facebook Harms Its Users Because That’s Where Its Profits Are


文章版权归原作者所有。
二维码分享本站