近期,外媒披露了一则令人瞩目的消息,谷歌在推进其聊天机器人产品Gemini的性能提升上遭遇了前所未有的挑战。尽管公司倾注了大量算力和训练数据,但Gemini的性能提升速度却并未如预期般突飞猛进,这一困境与OpenAI近期的遭遇不谋而合。
谷歌在AI领域的雄心壮志一直备受瞩目,特别是在算力资源上更是拥有压倒性的优势。然而,这种优势却并未能如愿以偿地转化为Gemini模型性能的显著提升。据报道,研究人员在投入更多数据和算力后,惊讶地发现过去版本的Gemini大模型在改进速度上反而更胜一筹。这一现象不仅令人大跌眼镜,更引发了业内对scaling law(缩放定律)这一传统观念的深刻反思。
scaling law曾被视为AI模型性能提升的“万能钥匙”,许多研究人员坚信,只要拥有更专业的AI芯片和更多的数据,模型就能以惊人的速度不断进化。然而,谷歌和OpenAI的遭遇却无情地打破了这一神话。谷歌内部人士坦言,公司在开发Gemini的过程中发现,用于训练的数据中充斥着大量的重复信息,这些冗余数据不仅未能助力模型提升性能,反而可能对其造成了损害。
为了应对这一严峻挑战,谷歌正在积极调整其数据处理策略,并在数据质量上加大投资力度。同时,公司还在加速模型的响应速度,这对于谷歌这一全球科技巨头而言至关重要。此外,谷歌还效仿OpenAI的做法,在Gemini部门内组建了一支精英团队,致力于开发类似OpenAI推理模型的能力。
这支新团队由DeepMind的首席研究科学家Jack Rae和前Character.AI联合创始人Noam Shazeer领衔,他们正以前所未有的热情探索新的技术路径,以期突破传统scaling law在模型训练阶段导致的性能提升瓶颈。与此同时,开发Gemini的研究人员也在对模型进行精细的手动调整,包括更改超参数等关键变量,以期实现性能的微弱提升。
然而,谷歌在尝试使用AI生成的数据(合成数据)以及音视频数据作为Gemini的训练素材时,却并未取得显著的成效。这一结果无疑再次凸显了当前AI技术发展的困境和挑战。
随着OpenAI和谷歌这两大AI巨头相继陷入模型性能提升缓慢的泥潭,业内对AI技术未来发展的悲观情绪开始悄然蔓延。一些人担忧地指出,如果技术瓶颈长期无法得到有效突破,可能会引发一场前所未有的“AI泡沫”,即市场对AI技术的过度乐观预期与实际技术进展之间的巨大鸿沟将不断扩大。
以上就是谷歌AI遇阻!Gemini性能提升陷困境,AI泡沫隐忧浮现的全部内容了,在深入了解了这篇资讯新闻的全部内容后,我们诚挚地邀请您继续关注ll22网。这里汇聚了众多行业动态、热点话题和独家报道,让您随时随地掌握最新资讯。加入ll22网的大家庭,与我们一起见证世界的变迁与发展!