当前,人工智能领域正在尝试开发更小型、成本更低的AI模型,这可能会使AI技术更加普及和易于使用。
上周,Deutsche Bank(德银)的由Jim Reid and Luke Templeman领衔的研究团队发布了他们的主题展望报告,报告显示,德银把AI纳入了2024年度前十大主题并指出,大型AI模型可能将逐渐被更小型、更高效、成本更低的模型所取代。
有人工智能专家预测,预计到2024年,小型语言模型将在特定任务部署AI的公司中发挥更大的作用。
大模型的局限性
当前大模型在成本和计算需求方面有局限性。
德银指出,过去五年来,AI领域通常以参数的数量来衡量一个模型的能力。参数越多,通常意味着模型能处理更复杂的任务,展示出更强的能力。
例如,最大模型的参数数量每年增加了十倍或更多,每次增加都带来了意想不到的能力扩展,如编程和翻译能力。所以大型神经网络模型通常被认为性能更优。
这些大模型使用的参数数量极多(有的超过1000亿个),每个参数都需要计算资源来处理。尽管大模型(如GPT系列)在技术上领先,但这些模型往往规模庞大且对计算资源的需求极高。每当大模型在能力上有显著提升时,它们的训练和运行成本也急剧上升。即便这些模型是开源的,许多研究者和小型企业也难以承担其所需的昂贵计算成本。
不仅如此,许多AI研究者在这些模型的基础上进行迭代开发,以创造适用于新工具和产品的自己的模型,但大模型的复杂性也让其变得困难。
德银称,监管对大模型也有所担忧,并且对大型LLM的监管趋于严格。例如,美国政府在去年10月底发布的一项行政命令要求对制造“双用途”基础模型的公司,如那些拥有“数十亿参数”的模型,实施更高透明度要求。
小模型的优势
在某些特定任务上,小型、高效的AI模型可能比大模型更适用。
虽然大模型在处理复杂任务上有优势,但并不是每个任务都需要这样强大的计算能力。
小语言模型的优势数不胜数。
更低的资源需求。小模型通常需要更少的计算资源来训练和运行,这使得它们更适合在计算能力有限的设备上使用,例如,小模型可以直接安装在用户的电脑或智能手机上,这样就不需要与远程数据中心连接。
更低的成本。小模型在训练和部署时需要的计算资源较少,这直接导致了较低的运行和维护成本。
更好的隐私保护。小模型可以在本地设备上运行,而无需将数据发送到云端服务器,这有助于提高数据处理的隐私性。有助于提高数据安全性。
更快的处理速度。由于参数较少,小模型在处理请求时的响应时间通常更短,这对于需要实时反应的应用尤其重要。
研究人员正在努力开发出更小、更高效的AI模型,缩减它们的参数数量,同时保证它们在特定任务上能够达到甚至超越大模型的表现。
一种方法是“知识蒸馏技术”,与传统的预训练不同,“蒸馏技术”的意思是使用一个大型的“教师”模型来指导一个小型的“学生”模型的训练。用“蒸馏”方式训练小模型,不再直接从训练大模型时会用到的那些巨量数据中学习,而只是在模仿。就像一个学生不会学到老师的全部知识库,但在针对性的领域,ta可以获得和教师差不多水平的考试表现。
Neubig教授和他的合作者在一个实验中开发了一个比GPT模型小700倍的模型,并发现它在三项自然语言处理任务上的表现超过了大型GPT模型。
小模型表现出色的例子有很多。
例如,微软的研究人员最近也发报告称,他们能够将GPT模型缩减成一个参数仅略超10亿的小模型。这个小模型能够在某些特定任务上与大模型相媲美。
再者,德银指出,今年7月,Meta的开源Llama 2,推出了三个版本,参数范围从7亿到70亿不等。还有,为金融应用设计的BloombergGPT只有50亿参数。尽管这些模型的参数数量相对较少,但它们在多项任务上的表现都优于类似模型,显示了小模型的潜力。
小型语言模型的局限性
然而,这些优势通常是以牺牲一定的性能为代价的。一些研究显示,但小型“学生”模型可能只在一定范围内的任务上表现出色。大型“教师”模型由于其庞大的参数数量和复杂的结构,通常在理解和生成语言方面更为精准和强大。因此,在更广泛或复杂的任务上,选择小模型还是大模型取决于特定应用的需求和限制。
此外,由于“模仿”本身存在一定的风险,因此“蒸馏技术”在法律上目前还属于灰色地带。
原创文章,作者:Xaiat,如若转载,请注明出处:https://www.xaiat.com/2024%e5%b9%b4ai%e6%a8%a1%e5%9e%8b%e5%88%86%e6%b0%b4%e5%b2%ad%ef%bc%9a%e5%a4%a7%e6%a8%a1%e5%9e%8b%e4%b8%8e%e5%b0%8f%e6%a8%a1%e5%9e%8b%e7%9a%84%e8%be%83%e9%87%8f%ef%bc%8c%e8%b0%81%e5%b0%86%e4%b8%bb/