大型语言模型的未来会怎样?我们的专家做出了2025年的预测

科技界最炙手可热的候选人下一步会做什么?我们的专家对ChatGPT和其他LLM在2025年及以后的发展方向进行了预测。

发表
2024年十一月十一日
通过
UneQ工作人员
What will the future hold for large language models? Our experts make their 2025 predictions

大型语言模型(LLM)是目前的热门话题,考虑到ChatGPT,Claude和许多其他人已经吸引了公众的注意力,这并不奇怪。

但即使在当前的LLM炒作周期全面展开之前,我们的团队也在进行实验,并试图挖掘这项技术的潜力。

这意味着我们多年来一直在与数字人类中的LLM合作:构建像Synapse这样的工具,以帮助使对话更加品牌安全和相关,以及Synanim使对话更容易访问和有趣。

因此,我们认为我们应该请我们的一些内部专家来研究他们的水晶球,并预测2025年及以后LLM的下一步。

以下是他们认为这些生成式AI模型将如何演变:

LLM必须超越数学才能创造性

泰勒梅里特,现场首席技术官

LLM在很大程度上仍然局限于逻辑部门。这意味着我们试图用数学和数字解决一切问题。但我们对人类大脑还有很多不了解,我很清楚数学不是描述怀旧或创造过程等感觉的正确语言。

当我们将经验与新的见解相结合时,创造力就会产生,激励我们以前所未有的方式思考问题。所以语言模型不可避免地会遇到困难,如果它们只是简单地使用数学来描述我们已经知道的东西。我们将如何提出一个可以复制创造力的模型?

也许我们需要的是随机性的注入。开始抛出模型曲线球,看看结果是什么。例如,如果我们在不同的点将随机的、分离的内容输入到模型中,会发生什么?它们会开始表现得好像它们有自己的想法一样吗?模特们会更有创造力吗?

可以说,让我们开始恶搞机器吧。在这样做的过程中,我们可能会偶然发现一些看起来和感觉上更像人类的东西。

不会有一个模式来统治他们所有人

Jason Catchpole,AI负责人

在未来几年内,LLM可能会有各种形状和大小。

我们将看到频谱的两个极端-在更多地方运行的较小模型,例如在智能手机上,以及只有最大的公司才有资源训练的大型模型。这意味着我们将有不同的模型专注于不同的事情,而不是一个模型来统治它们。

我怀疑还会有更多来自英语/西方国家以外的训练数据,这将有助于模型克服某些类型的偏见。然而,模型的开源将继续下去,小型企业和初创企业可能会在其他公司的基础模型上建立模型。

从长远来看,特别是LLM和AI系统,随着它们变得越来越大,越来越复杂,将需要新的,更具数据和能源效率的方法。另一方面,这应该会降低对所需数据量的要求,为较小的公司更容易地训练模型打开大门。

AI是周期性的,但LLM将继续存在

Paul Haggo,平台团队负责人

60多年来,人们对人工智能可以实现的目标感到兴奋。通常会看到早期的炒作,然后当技术与最初的炒作不太匹配时会感到失望。最终,资金和研发又开始流动,循环重新开始。

这种情况可能会继续发生。然而,LLM已经设法克服了一个棘手的驼峰,这是以前很少有人工智能技术能够做到的-它们具有明确的实用性。ChatGPT在如此短的时间内成为一个家喻户晓的名字,这一事实充分证明了这一点。换句话说,我认为LLM会留下来。

这并不意味着它们不会像其他被大肆宣传的技术一样面临幻灭的低谷。人们对法学硕士有很高的期望,要满足所有的期望是很困难的。尽管如此,我们已经看到一些公司(如UneeQ)正在利用这项技术来实现现实世界的效用。

至于功能,我预计音频和视频将成为未来人们与LLM交互的主要方式。一个很好的例子是使用手机的视频流到人工智能模型,为您提供关于如何组装家具或维修产品的视觉和口头指示。

法学硕士将有一张脸,声音和个性

阿什利约翰逊,高级营销总监

像保罗一样,我认为人们与LLM互动的方式将会改变。很快,它将更多地基于语音。这正是大多数人更喜欢的互动方式,尤其是在长篇内容方面。

人类渴望真实的互动和对话。我还注意到,Siri现在有时会在我感谢她时说“不客气”。

人们希望能够拿起手机,就某个话题进行真正的语音对话。再以Siri为例,我最近问她,你怎么知道哈密瓜什么时候可以摘下来了。这是一次令人沮丧的经历!

她回答说,如何知道什么时候在商店里成熟,而不是什么时候园艺。因此,我最终不得不脱下我的花园手套,使用谷歌和YouTube找到我需要的信息。我更希望有一个友好的声音,a)知道我在说什么,B)当我在花园里的时候可以和我聊天。

这就是为什么我希望像ChatGPT和Llama这样的LLM很快就会开始有独特的声音和名字,使它们更加个性化。在那之后,我们将开始看到LLM有着面孔、个性和他们自己的习惯,就像数字人类一样。

更好的知识注入将变得至关重要

Gus Matheson,技术解决方案总监

到目前为止,每个人都有很多很棒的谈话要点,其中大部分我同意!另一个探索的角度是,当我们接近LLM能力的上限时,需要进行哪些技术变革。

像ChatGPT这样的平台很容易产生“幻觉”,这意味着如果它们难以回答超出训练数据的问题,它们就会产生错误的信息。因此,知识注入技术,如检索增强生成(RAG),被用来提高LLM的准确性和可靠性。

这使他们能够实时检索外部信息,以提供更好,更具体的答案。然而,随着LLM的增长,运行时的真正知识注入越来越重要。因此,传统技术很快就会过时,因为它们的局限性被发现。

最终,我预测我们控制LLM的方式将变得比开发更先进的培训模型更重要,尤其是当我们达到极限时。

Mark Hattersley,高级内容经理

我每天都使用ChatGPT来回答我认为Google无法更快回答的问题。就在这周,我想知道在一个意大利调味饭里要用多少水--这是我过去害怕问谷歌的问题,我被迫翻阅某人的生活故事和arborio大米的历史,只是为了得到答案。

我当然不是唯一一个把我日常问题的大部分从谷歌转向生成式人工智能的人。但是,预测到2025年,更多的人将开始做同样的事情,这太容易了。

因此,我预测很快就会有一个新的动词来执行生成式人工智能搜索-就像你可能会说“让我们Uber”而不是“让我们采取乘车共享服务”。

目前,没有什么东西能在公共词典中找到。“我要去ChatGPT它”。有点拗口。

“我去拿。”不可能

也许谷歌自己会推出一个令人印象深刻的搜索产品,我们继续说:“我谷歌它”。

我的猜测是,在某个时候,一个主要的法学硕士公司的营销人员将负责并创造一个动词,这是如此不可抗拒,我们都将开始说它。这些营销人员将值得大幅加薪。

哦,如果有人想知道的话,那就是每三杯水就有一杯米饭。

LLM将有助于创建更好的数字角色

维克托袁,高级技术动画师

LLM在收集大量非结构化信息并以对我们有用的方式提供信息方面令人难以置信。随着我们越来越熟悉LLM,我们将能够更好地应用它们。

我们已经经历了一个尝试LLM的阶段,我相信我们会看到一些令人难以置信的技术应用,为我们提供巨大的效用。我们已经有了用于编码的Copilot,还有可能出现其他有趣的事情,比如有一个个人专家烹饪导师,或者游戏中的角色没有脚本,他们的行为很紧急。

在我的动画和行为的特定领域,我们想看看我们如何能够表现出像LLM这样的工具的个性。我们感兴趣的是模拟一个动态的和微妙的个性,然后从中产生行为。

为了对刺激做出反应,技术需要理解或感知事物。多模态LLM在这方面很有趣,因为它们在分类和解释图像中发生的事情方面表现出了相当好的能力。

这些能力为我们创造数字角色提供了机会--包括我们自己的角色--这些角色可以在真正身临其境的环境中工作。

返回博客