AI导读:

科技巨头们正不遗余力地打造更大、更昂贵的人工智能模型,但近年来,更小、更精简的小型语言模型(SLM)受到关注。SLM具有部署成本低、能源消耗少等优势,未来将与大型语言模型(LLM)协同工作,共同助力人类发展。

 多年来,谷歌、OpenAI等科技巨头一直在利用海量在线数据,打造更大、更昂贵的人工智能(AI)模型,如ChatGPT等聊天机器人背后的大型语言模型(LLM),能协助用户完成从编写代码到创作诗歌等多样任务。然而,随着AI技术的快速发展,科技公司逐渐关注起更小、更精简的小型语言模型(SLM)。

自ChatGPT面世以来,AI模型在变大变强的道路上持续前进。然而,喧嚣过后,业界开始认识到SLM的潜力。这类小巧的模型不仅专注于特定领域,而且部署成本更低,能源消耗更少。未来,LLM和SLM将协同工作,共同助力人类发展。

随着AI技术突飞猛进,AI模型的“块头”与日俱增。ChatGPT背后的GPT-4模型拥有约2万亿个参数,能回答多领域的问题。然而,对于只需解决特定问题的公司或机构来说,GPT-4等LLM可能过于庞大,SLM反而更适用。

SLM的优势在于其小巧轻便,可以安装在智能手机上,反应速度快,能同时响应更多查询,且部署成本低,能源消耗少。此外,SLM还可直接安装在设备上运行,确保数据的安全性。因此,美国《福布斯》双周刊网站将SLM称为AI领域的“下一个大事件”。

谷歌、微软、元宇宙平台公司以及OpenAI等科技巨头纷纷推出各种SLM。微软公司发布了Phi-2、Phi-3系列模型以及最新的Phi-3.5-mini-instruct,这些模型性能优越,能在笔记本电脑或移动设备上运行。英伟达公司也开源了Nemotron-Mini-4B-Instruct,这款SLM特别适合边缘计算和设备端的应用。

OpenAI发布了GPT-4o mini,称其为最智能和最实惠的SLM。此外,亚马逊公司也允许在其云平台上使用各种规模的AI模型。其他公司也在积极开发更适合自身需求的SLM,如美国制药巨头默克公司与波士顿咨询集团合作开发的探究疾病对基因影响的SLM。

虽然SLM在效率等方面具有独特优势,但LLM在解决复杂问题、提供更广泛的数据访问方面仍然具有极大优势。未来,LLM和SLM将相互协作,共同解决用户提出的问题。当遇到复杂问题时,一款SLM会先理解问题,再根据问题的复杂性将相关信息发送给几个大小不一的AI模型,共同为用户解决难题。

目前市面上的AI模型存在过大、过贵或处理速度过慢的问题。而LLM和SLM的协同工作或是解决这些问题的最佳方案。

(图片来源:网络,文章来源:科技日报)