在进行一些互联网研究时,维基百科通常是首选。但是,尽管许多人可能将每一个陈述都视为事实,但重要的是要记住,任何人都可以添加或编辑在线百科全书。这意味着有时会遇到错误。
为了防止文章中出现错误的编辑或虚假信息,Wikipedia最近开始使用训练的机器学习软件,该软件经过培训,以了解诚实的错误与互联网破坏者之间的区别。
人工智能引擎由Wikimedia Foundation的高级研究科学家Aaron Halfaker建造,标识了某些单词,单词的变体或特定的键盘模式,以检测网站上的故意破坏案例。
由于AI可以确定作者进行了恶意编辑,因此该网站可以打击这些特定的破坏者而不会惩罚或吓到其他编辑。
这很重要,因为在过去的八年中,维基百科英语版本的主动贡献者数量下降了40%。一个Halfaker和其他研究人员的研究发现作家回避贡献的主要原因之一是因为该网站对新移民有一系列规则,以防止对文章的破坏行为,这使他们很难成为常规编辑。
虽然许多人可能担心AI会替换网站上编辑的工作- 由于Wikipedia确实会众包文章,因此Halfaker的AI旨在增加贡献编辑的数量。
AI被称为“客观修订评估服务”(ORES),通过像编辑的助理一样,可以帮助Wikipedia对新编辑变得更加友好。以前,编辑者会收到一条自动消息,该消息不允许他们进行一定的更改。他们可能还发现,他们的贡献是在没有解释的情况下被删除的,因为他们违反了该网站的规则之一而没有意识到。
现在,编辑可以使用AI服务查看最新的编辑,并仅单击一键即可撤消任何不生气中的编辑。该软件还可以帮助编辑人员识别,然后解决无辜或恶性错误。进行更改时,该软件还具有一个工具,该工具通知编辑器,如果他们进行一定的更改,他们可以向先前进行编辑的人发送消息。
矿石的目的是让更多的编辑贡献,同时放松新手的规则,同时仍阻止该网站上的破坏。
来源:有线
照片:Pedro Verdugo |Flickr