首页 > 软件资讯 > 苹果AI新发现:大型语言模型推理“不靠谱”?

苹果AI新发现:大型语言模型推理“不靠谱”?

2024-10-17 11:16:05 编辑:nannan

近日,苹果的人工智能研究团队在 arXiv 上发表了一项重磅研究,揭示了大型语言模型在推理能力上的致命缺陷。这项研究对一系列领先的语言模型进行了深入评估,包括来自 OpenAI、Meta 等知名公司的模型,结果却发现这些模型在处理数学推理任务时竟然如此脆弱。

研究发现,问题措辞的细微变化就能导致这些语言模型的性能出现巨大波动。这意味着,在需要逻辑一致性的场景中,这些模型的表现将变得极不可靠。苹果团队通过测试发现,在问题中添加一些不相关的信息,竟然能导致模型给出完全不同的答案,这一结果让人大跌眼镜。

image

值得注意的是,这一问题并非个例,而是普遍存在于所有测试的模型中。无论是较小的开源版本如 Llama,还是专有模型如 OpenAI 的 GPT-4,在面对输入数据中看似无关紧要的变化时,都表现出了显著的性能下降。这一发现无疑给人工智能领域带来了新的挑战和思考。

针对这一问题,苹果团队提出了一个可能的解决方案:将神经网络与传统的基于符号的推理(神经符号人工智能)相结合。这一建议为未来的研究提供了新的思路,也让我们对人工智能的未来发展充满了期待和想象。

以上就是苹果AI新发现:大型语言模型推理“不靠谱”?的全部内容了,ll22手游网精心打造,旨在为您呈现一个满载精彩纷呈资讯的宝库,全球前沿资讯、深度剖析行业动态、汇聚热门话题与独特视角,力求为您带来一场场知识与娱乐并重的盛宴。

相关应用

更多

相关文章

更多

热门软件

更多