大快人心!维基百科利用AI标记网络恶意评论,键盘侠请好自为之

  • 日期:09-22
  • 点击:(615)


维基百科社区是一个免费的百科全书,建立在开放,可编辑内容的模型之上,但由于其恶意评论而为自己赢得了名声。这个问题非常严重,导致活跃的贡献者或编辑者每月撰写一篇社论的人都是0年,年8月份下降了40%。维基媒体基金会(VIP)支持维基百科,决定使用人工智能来更多地了解这个问题,并考虑如何解决它。

与维基媒体基金会和Jigsaw合作阻止恶意评论

为了阻止这些恶意攻击,维基媒体基金会与Jigsaw(技术孵化器,以前称为Google Ideas)合作推出了一项名为“排毒”的研究项目,该项目使用机器学习技术来标记可能的人身攻击。评论。该项目是Jigsaw计划创建开源人工智能工具以帮助对抗社交媒体平台和网络论坛上的骚扰的一部分。

该项目的第一步是使用来自维基百科谈话页面的100,000个恶意评论来训练机器学习算法,该评论由4,000人组成的团队确定,每个评论由10位不同的人类评论者评论。这个带注释的数据集是有史以来最大的网络滥用数据集。这不仅包括直接的人身攻击,还包括第三方和间接的人身攻击(“你很可怕”,“鲍勃很可怕”,“莎莉说鲍勃很可怕”)。在训练之后,这些机器可以确定评论是否是关于人身攻击的评论。

然后,在2001年至2015年的14年间,项目团队对维基百科上的6300万条英语评论进行了算法评估,以识别恶意评论的模式。他们的研究结果概述发表在《Ex Machina》论文名称《个人攻击大规模出现》:

1.在被称为恶意的所有评论中,超过80%的评论是由超过9,000人发表的,他们在一年内发表了少于5条滥用评论。

2.近34%的攻击性言论由34位用户发布。

3.匿名用户占所有维基百科评论的34%。

4.超过一半的个人语音攻击是由注册用户执行的,尽管匿名用户发起人身攻击的可能性是注册用户的六倍。 (注册用户是匿名用户的20倍。)

目标修订评估服务(ORES系统)

维基百科编辑数量急剧下降的另一个原因被认为是该组织复杂的官僚机构和要求严格的编辑策略。对于第一个贡献者/编辑者,通常会在没有任何解释的情况下销毁已完成的作业。他们希望使用ORES系统来对抗这种情况:这台机器就像一个编辑系统,由训练有素的算法支持,用于评估修改和编辑的质量。维基百科编辑使用在线工具来标记过去编辑的示例,即教授算法以识别错误的严重性。 ORES系统可以指导人们查看最具破坏性的编辑器并确定错误的严重性。新手错误更适合被认为是无辜的。

AI写维基百科文章

Google Brain中的一个团队教授软件来汇总网页上的信息并撰写维基百科文章。事实证明,文本摘要比我们大多数人认为的更难。谷歌大脑使机器的内容总结略好于以前的内容,但在机器像人类一样有节奏和有才能之前还有很多工作要做。事实证明,我们还没准备好让机器自动生成维基百科条目,但我们正在努力实现这一目标。

尽管维基百科操作中的人工智能用例仍在进行优化,但机器无疑可以帮助组织分析他们每天生成的大量数据。更好的信息和分析可以帮助维基百科制定成功的战略,消除其社区的负面影响,并解决其贡献者的招聘问题。