维基百科真的靠谱吗 - iYouPort

2019-04-15 原文 #iYouPort 的其它文章

维基百科真的靠谱吗

  • 通过支付金钱给自由职业者、公关公司和维基百科”专家”就可以对某些文章进行修改 ……内容贡献者的行为符合某一方的利益 - - 而不是分析消息源的纯粹准确性  ——会扭曲维基百科文章的偏见、

从表面上看,维基百科网站将自己宣传为在线的、基于事实的百科全书。但喜剧演员 Stephen Colbert 在2007年的一集“Colbert 报告”中对该网站有 不同的定义 ,他称之为:“即使你不知道自己到底在说什么,你也可以成为权威的百科全书。 ”

Colbert 在对维基百科的批评中,创造了“ wikiality ”一词,以说明它对我们所有人的影响:即 “当维基百科成为我们最信任的参考资料来源时,大多数人就会同意它作为现实。”不管它究竟是不是事实。

为了证明维基百科对事实造成的脆弱性影响,他在 2006年 要求观众编辑该网站关于大象的文章,并写道大象在过去六个月中增加了两倍。观众接受了这项任务,并用错误的陈述更新了文章。促使编辑锁定文章,阻止任何进一步的编辑,甚至阻止他们认为是 Colbert 观众的用户继续编辑任何其他维基百科文章。

Colbert 的实验远非一个孤立的案例。维基百科由 Jimmy Wales 和 Larry Sanger 于2001年创立,此后一直稳步发展,涵盖 301种语言超过4000万篇文章 ,是世界上访问量排名第五的网站。虽然它作为在线仲裁者和信息提供者拥有强大的权力,但推动其影响的力量 — — 如人们创建和编辑文章 — — 是一个庞大的志愿者网络。

Samantha Lien 在维基媒体基金会工作,该基金会是维基百科的非营利组织。她说,每天约有25万人编辑维基百科。 Lien 补充说,维基媒体基金会没有为维基百科制定任何编辑政策。

“每个人都可以编辑,人们可以通过各种不同的方式进行编辑,”她说。 “有些人喜欢发现语法错误或拼写错误,他们会进去解决这个问题。有些人喜欢写整篇文章。“

这种集中式和基于志愿者的结构 — — 任何人都可以对网站上的任何文章进行更改或添加信息 — — 可能会让那些担心在线信息的准确性和可验证性的人感到担忧。如果几乎任何人都可以成为一个强大的在线百科全书的贡献者,那么谁来判断这些信息是否正确?

然后就是 Colbert 提出的文章和编辑的审查过程的问题:如果维基百科的信息被认为是事实真相的话,那么是否可以认为仅仅是因为大多数志愿者编辑和作家都这样说了它就是真的?

Lien 说维基百科有一个可验证性政策,旨在分析源材料的特征和质量。她说,该网站上的一条严格的规则是原始研究不被接受为可验证的来源。

“例如,这个来源是否是以发布更正而闻名的来源?”Lien 说,“也会参考出版商,关于消息来自哪里,维基百科上实际上有一个完整的公告板,可以审查和评估来源以及网站上可以使用哪些来源。它还会关注这项工作本身:例如它是一篇报纸文章还是一本书?是第三方、中立的来源吗?“

尽管该网站的目的是保持真实和准确,但其基于志愿者的结构确实存在缺陷。例如,因为任何人都可以对维基百科文章进行更改,所以可能会发生故意破坏。一个值得注意的维基百科错误是退休记者 John Seigenthaler 暗杀 John F. Kennedy, Robert Kennedy 的声明。 Seigenthaler 撰写了 一篇关于这一虚假指控的社论 ,并表示在被撤下之前已经在网站上发布了四个半月。

一位维基百科的编辑菲利普·克罗斯(Philip Cross)就曾因为不公平地编辑维基百科页面而被批评,例如,Cross 的编辑历史显示他从专栏作家 Oliver Kamm 的维基百科页面中删除了有关因骚扰和诽谤而针对他的法庭案件的信息。Cross 此前曾表示认同支持伊拉克战争的 Kamm。 Cross 还删除了专栏作家 Melanie Phillips 否认气候变化的信息。

一些维基百科的文章也受到“保护”,不受任何形式的编辑,包括2004年美国在俄亥俄州选举投票中的争议、古巴、伊斯兰恐惧症、科索沃和中国的人权问题文章;还有“半保护文章” — 只能由已经在维基百科注册至少四天的用户编辑 — 包括巴勒斯坦难民、迈克尔杰克逊、同性恋、犹太人、上帝、三K党、9/11袭击、阿富汗、无政府主义和更多。

过去的报告还表明,维基百科的文章还可能会受到愿意花钱购买特权的事关利益冲突的影响。

the Atlantic 的一篇文章 发现,通过支付金钱给自由职业者、公关公司和维基百科“专家”就可以对某些文章进行修改。当然,任何更改仍然需要通过可验证性测试,但内容贡献者的行为符合某一方的利益 — — 而不是分析消息源的纯粹准确性 — — 仍然会扭曲维基百科文章的偏见。

2006年,该网站的高层管理人员加强了减少故意破坏的努力,从而加强了网站对准确性的承诺。Jimmy Wales 告诉纽约时报 ,维基社区将优先考虑文章的质量而不是数量。现在,该网站还 依靠机器人 形式的人工智能来区分故意破坏性编辑和文章的可靠性变更。

来自维基媒体基金会的 Aaron Halfaker 在2016年发表的一篇文章中告诉 Wired,在此之后,维基百科志愿者通过更加努力的事实检查和分析文章,并对新用户申请变得更加谨慎。

但是,正如 Wired 写道

随着网站管理员努力保持质量,他们创造了一个环境,导致维基百科志愿者社区的规模稳步下降。最具讽刺意味的是,随着越来越少的人编辑维基百科,我们所有人正冒着一小群人弯曲现实以适应他们的特定观点、态度或动机的风险。

此外,为了应对假新闻的潮流,Wales 推出了 WikiTribune ,一个充当混合体的新媒体组织,将开放的维基百科社区与传统新闻媒体相结合。

创建近两年后,WikiTribune 正在运营,其结构在更传统的数字媒体中脱颖而出。在其 主页 上,WikiTribune 将自己描述为一个致力于“中立、事实、高质量新闻”的信息平台。

“来与我们合作,”该网站的横幅写道,“因为事实真的很重要。”

但是,其问题也类似于维基百科,在 WikiTribune 上,任何志愿者都可以在网站上实时添加新故事或编辑当前故事,无论是关于委内瑞拉政治骚乱的故事还是事实上检查政治家的陈述。因此,正如 Colbert 十多年前指出的那样,如果任何人都有权决定什么是事实、什么不是事实,那么事实究竟有多重要?

尽管新的努力强调准确性,但维基百科关于验证源信息的指导方针并非没有缺陷。 Rosie Stephenson-Goodknight 自2015年7月开始编辑并撰写维基百科文章时表示,该网站最大的一个问题是撰稿人和编辑社区继续遵循21世纪初编写的可靠来源准则。

“2001年可靠来源的定义是否在2018年仍然准确?答案是否定的”,她说。“我们已经意识到这是有偏见的,如果我们继续忍受这种偏见,将会有一个非常偏颇的百科全书,导致忽略掉那些被认为是值得注意的内容”。

此外维基百科内容的性别倾向问题也反映在其内容创建者的性别比例不均衡中,英语维基百科上只有9%的编辑是女性。这种严重的性别差异会影响制定的政策及其实施方式。


文章版权归原作者所有。
二维码分享本站