Facebook拥有者元平台公司宣布周二,它将民主化其大型语言模型的访问,以推进人工智能研究。

根据META的说法,该模型将是最大的AI研究社区可以访问的1750亿参数模型。
关于Opt-175b
梅塔说,大型语言模型是由超过1000亿个参数组成的自然语言处理(NLP)系统。这些模型经过了大量文本的培训,配备了创造性的能力来生成文本,并可以解决基本的数学问题。
公众只能通过付费的应用程序编程接口(API)访问这些模型,并且由于限制了全面的研究访问,Meta认为这种限制正在阻止AI研究的进度。
因此,Meta致力于通过共享开放审计的变压器(OPT-175B)来提供开放科学,这是一种1750亿个参数模型,其中包含公开可用的数据集。
该模型将包括验证的型号和训练和使用它们所需的代码。为了确保完整性并防止可能的滥用或滥用,Meta将在非商业许可下启动OPT-175B,以仅用于研究目的。
特别是,学术研究人员,政府工作者,民间社会成员,学者以及来自世界各地不同行业实验室的研究人员将可以使用这种语言模型。
该公司在博客中写道:“我们相信整个AI社区 - 学术研究人员,民间社会,政策制定者和行业 - 必须共同努力,鉴于他们在许多下游语言应用中的中心地位,尤其是一般而言,尤其是负责任的AI,尤其是负责任的大型语言模型,”该公司在其博客中写道。
“增加声音的多样性”
人工智能技术在世界范围内广泛使用。随着时间的流逝,它成为各种社交媒体平台的研究和开发领域。研究人员还专注于AI如何围绕性别和种族等问题延续社会偏见。
他们还担心,由于有限的AI访问权限,尤其是没有其操作员和制造商的多元化,它可以通过大型语言模型反映偏见和伤害。
梅塔(Meta)旨在解决这一问题,并说“希望增加定义此类技术道德考虑的声音的多样性”,例如语言模型。
这家科技巨头已经采取了几项开放科学计划,以解决AI上的问题,例如DeepFake检测挑战, 这图像相似性挑战和仇恨的模因挑战。 Meta希望通过这种合作,AI社区将迎来“负责任的AI技术”。
该公司表示:“为了提高AI的研究,更广泛的科学界必须能够与尖端模型一起工作,以有效地探索其潜力,同时还可以同时探索其脆弱性。”
通过此,可以访问开源代码和小规模预处理的型号关联,一起请求访问表格和完整的纸。
本文由技术时报拥有
由华金·维克多·塔克拉(Joaquin Victor Tacla)撰写