语言选择: 中文版line 英文版

新闻中心

Anthropic 公司 CEO 但愿正在 2027 年完全揭开 AI 模子

  Anthropic 公司 CEO Dario Amodei 于周四颁发了一篇文章,指出研究人员对于全球领先 AI 模子内部运做的领会很是无限。为领会决这一问题,Amodei 为 Anthropic 设定了一个雄心壮志的方针,即到 2027 年可以或许靠得住地发觉大大都 AI 模子的问题。Amodei 认可前充满挑和。正在 The Urgency of Interpretability 一文中,这位 CEO 暗示,Anthropic 曾经正在押踪模子若何获得谜底方面取得了晚期冲破——但他强调,跟着系统变得愈加强大,需要进行更多研究来解读这些系统。正在没有更好地舆解其可注释性之前,我很是担心摆设这种系统, Amodei 正在文章中写道。 这些系统将对经济、手艺和起到绝对焦点的感化,而且具有如斯高度的自从性,以致于我认为人类对它们的运做道理一窍不通是完全不成接管的。Anthropic 是正在机械可注释性范畴的公司之一,该范畴旨正在揭开 AI 模子黑箱,理解它们为何做出特定决策。虽然科技行业的 AI 模子正在机能上快速提拔,但我们对这些系统若何做出决策仍知之甚少。例如,OpenAI 比来推出了新的推理 AI 模子 o3 和 o4-mini,正在某些使命上的表示更超卓,但它们发生虚构内容的环境也比其他模子更多。该公司尚未弄清晰缘由所正在。当一个生成式 AI 系统施行某项使命时,例如总结一份财政文件,我们正在具体、切确的层面上完全无释它为何会做出这些选择——为什么它会选择某些词语而不是其他词语,或为何正在凡是精确的环境下偶尔呈现错误, Amodei 正在文章中写道。正在文章中,Amodei 援用了 Anthropic 结合创始人 Chris Olah 的概念,他认为 AI 模子是 更多是发展出来而非被建制的。换句话说,AI 研究人员曾经找到提高 AI 模子智能的方式,但他们并不完全大白其华夏因。Amodei 正在文章中暗示,正在不领会这些模子若何运做的环境下,达到 AGI——或者如他所称的 数据核心中的天才国家——可能会带来。正在之前的一篇文章中,Amodei 曾声称科技行业无望正在 2026 或 2027 年达到这一里程碑,但他认为我们正在完全理解这些 AI 模子方面还有很长的要走。从久远来看,Amodei 暗示 Anthropic 但愿根基上可以或许对最尖端的 AI 模子进行 脑部扫描 或 MRI 查抄。他称,这些查抄将有帮于发觉 AI 模子中普遍存正在的问题,包罗它们撒谎、实现这一方针可能需要五到十年,但他弥补道,这些办法对于测试和摆设 Anthropic 将来的 AI 模子将是需要的。Anthropic 已取得了一些研究冲破,使其对 AI 模子的工做道理有了更深切的领会。例如,该公司比来找到了一种方式,可以或许通过所谓的 circuits (电) 逃踪 AI 模子的思维径。Anthropic 识别出了一条电,帮帮 AI 模子理解哪些美国城市位于哪些美国州内。但它估量 AI 模子中可能存正在数百万条雷同的电。Anthropic 一曲正在投资于可注释性研究,而且比来初次对一家专注于该范畴的草创企业进行了投资。虽然目前可注释性大多被视为平安研究的一个范畴,Amodei 指出,最终注释 AI 模子若何得出谜底可能会带来贸易劣势。正在文章中,Amodei 呼吁 OpenAI 和 Google DeepMind 加大该范畴的研究力度。除了这一敌对的鞭策外,这位 CEO 还呼吁 light-touch (轻触式) 监管,以激励可注释性研究,例如要求公司公开其平安和保密办法。Amodei 正在文章中还暗示,美国应对向中国出口芯片实施管控,以削减全球失控 AI 竞赛的可能性。Anthropic 一曲以对平安的关心正在 OpenAI 和 Google 中脱颖而出。当其他科技公司对有争议的 AI 平安法案 SB 1047 持否决立场时,Anthropic 对该法案赐与了适度支撑并提出了。该法案旨正在为前沿 AI 模子开辟者设定平安演讲尺度。正在这种环境下,Anthropic 似乎正在鞭策整个行业配合勤奋,以更好地舆解 AI 模子。




栏目导航

联系我们

CONTACT US

联系人:郭经理

手机:18132326655

电话:0310-6566620

邮箱:441520902@qq.com

地址: 河北省邯郸市大名府路京府工业城