首页 > 业内资讯 > 恶意篡改词条问题严重,维基百科祭出人工智能

恶意篡改词条问题严重,维基百科祭出人工智能

时间:2015-12-02 | 来源:新浪科技 | 阅读:68

话题: 维基百科 人工智能

北京时间12月2日上午消息,维基传媒基金会正在对软件进行训练,使之可以区分无心错误和恶意篡改之间的差异,从而降低人们编辑维基百科时所遭受的心理伤害。

该项目的一大动机在于,英语版维基百科的活跃贡献者数量出现了大幅下滑:过去8年间,这一数字萎缩了40%,目前仅为3万人。研究表明,该问题源自维基百科复杂的官僚体系,以及他们对新人所犯错误的苛刻态度——由于半自动工具的存在,使得删除新的改动变得非常容易。

维基传媒基金会高级研究员阿隆·哈尔法克(Aaron Halfaker)帮助该组织发现了这一问题,他目前还在领导一个算法开发项目,以应对这一问题。这套名为“客观修正评估服务”(ORES)的系统可以通过训练对维基百科上新增的改动进行评估,并判断某项改动究竟是善意还是恶意。

维基百科的编辑有很多工具可以查看最近的修改,并且只需要点击一下即可驳回这些修改。这些工具的初衷是希望在维基百科广受欢迎后,能够更好地控制内容质量。但却引发了很多意想不到得后果。例如,新编辑发现自己贡献的第一条内容被删除了,但却得不到任何解释。哈尔法克之所以发明ORES,就是希望能够改进这些工具。

ORES可以引导人们去评估最具破坏性的修改。该软件还可以帮助编辑用更加得体的方式对待一些无心的错误。“我认为,维基百科的员工之所以在控制质量时采取偏激的措施,是因为他们下判断的速度太快,而且没有通过人性化方式展开互动。”哈尔法克说,“这款工具可能会提醒编辑,‘如果你要驳回这项修改,或许应该谨慎一些,并向进行修改的人发送一条消息。’”

ORES正在英语、葡萄牙语、土耳其语和波斯语等多个版本中进行测试。想要判断内容的质量,并区分破坏性编辑和无心的错误,就必须从维基百科编辑之前使用的工具中收集数据。负责维护编辑工具的维基百科员工已经开始测试该系统。


湘ICP备2022002427号-10湘公网安备:43070202000427号
© 2013~2019 haote.com 好特网