继工业时代、电气时代、信息时代之后,真正意义上的智能时代正在呼啸而来。在大模型的牵引下,这次变革改变了此前的“造工具”模式,且不断涌现出“新物种”“新伙伴”。
“2024年一定是大模型应用爆发的一年。”在接受证券时报记者专访时,腾讯云工业AI解决方案总经理郑海清如是判断。云天励飞董事长陈宁也预判,“未来三年将是AI(人工智能)关键阶段,全球可能80%的企业会运行在大模型之上;可能五年,机器人和数字人的数量会超过人类的数量。”
以行业应用为支点,大模型从“上新品”向“强应用”阶段嬗变,加速了大模型走进百业千家的节奏。随着国产大模型的开发应用步入深水区,始于技术、强于应用、惠于生态的发展路径已经成形。
大模型 “向下”扎根
国内某头部航空航天企业,此前结构仿真都是利用软件和算子去做一些数学或者是物理的模型,要想算出结果需要极大算力。如今,这个计算过程已经可以省略,只需用大模型,就能把结果预测出来,测试结果至少实现一到两个量级的提升。
这是腾讯大模型“扎根”行业的一次落地。郑海清介绍,除了高端制造业之外,在工业质检、传统行业等不少领域,腾讯云从去年下半年开始都陆续落地。
无独有偶。科大讯飞的星火大模型也持续在行业应用领域落地生根。
科大讯飞AI工程院院长潘青华介绍,最初启动大模型攻关的时候,公司就明确了“1+N”的路线,“1”为基础模型,“N”指的便是行业应用,即让大模型在教育、医疗、汽车、办公、工业、智能硬件等多个领域落地。截至目前,“讯飞星火”已陆续在教育、办公、汽车、金融、工业、医疗等行业推进真实可见的应用落地案例。
大模型向下扎向产业的根须越发茂密。
阿里云日前在发布通义千问大模型新版本的同时,推出八大行业大模型;华为云发布了盘古医学大模型;百度去年也发布国内首个“产业级”医疗AI大模型——灵医大模型。继“AI For Science”之后,大模型已然开始步入“AI For Industries”新阶段。
“扎根”产业的大模型,有望给不少产业带来颠覆式影响。以创新药为例,传统药物研发存在耗时十年以上、耗费十亿美元的“双十定律”,但是大模型落地后,随着对蛋白质结构等越来越准确的预测,药物研发的周期或大大缩短。
大模型向下扎根,演绎出不同以往的新趋势。2023年上半年大模型赶潮推出之际,市场关注点主要集中在大模型的参数数量和效果优化上。从下半年开始,已经将关注重点转向如何实际进行应用,以及企业怎样利用其带来革命性提效。
这加速了大模型向通用与垂直两大路径的分野。通用大模型和垂直大模型针对或解决问题的目标不尽相同,通用大模型需要具备更强的泛化性,凭借语言理解、逻辑推理、知识问答、文本生成等通用能力,这些大语言模型产品一经推出,用户规模不断扩大,并向图片、视频等多模态形式深化演绎;而垂直大模型则必须要在垂直行业内的应用中保持高准确度,实体经济是大模型应用的“大赛道”。
与通用大模型相比,B端客户在数据安全、精准性、成本等方面更为关注。这给大模型厂家提出了更高的要求。
比如,针对大模型在面对某些输入时,会生成不准确、不完整或误导性的输出,出现“幻觉”问题,腾讯优化了预训练算法及策略,通过自研的“探真”技术,让混元大模型的“幻觉”相比主流开源大模型降低了30%—50%。同时,还通过强化学习的方法,让模型学会识别陷阱问题,通过位置编码的优化,提高了模型处理超长文的效果和性能。在逻辑方面,腾讯提出了思维链的新策略,让大模型能够像人一样结合实际的应用场景进行推理和决策。
潘青华预测,最终能够走出来的通用大模型可能只有几家,“未来国内可能就是几个底座,大家各自选择合适的底座去做自己上层的应用”。
终端部署多元化
大模型不仅被“引入”产业,还被“带入”终端,并呈现多元化布局特点。
PC(个人电脑)被视为通用人工智能普惠到每个人的首选终端。业内普遍将2024年视为AI PC爆发元年。1月17日,包括联想拯救者、联想小新在内的多款AI PC新品发布,同时明确,个人AI Agent也将于3个月后正式与用户见面;在今年CES期间,戴尔、惠普、宏碁等PC企业也发布了多款基于人工智能的全新设备和解决方案。
按照联想集团构想,每个个体都可以拥有一个专属于自己的AI PC,运行属于自己的“个人大模型”。个人大模型能够继承公共大模型强大的能力,又能够为个人所有、提供个性化专属服务。机构预计,2024年起,将陆续有多款AI PC产品问世,2027年出货量有望超1.75亿台,将占整体PC市场份额的60%,成为PC市场的主流产品。
作为重要个人终端,大模型新变局也开始席卷手机行业。韩国三星公司1月17日发布了首款AI手机系统集成了AI大模型Galaxy AI,可实现通话实时翻译、AI组织优化笔记、照片、视频等功能。在此之前,国产主要手机品牌已经纷纷布局大模型,无论是小米自研大模型MiLM,还是vivo的蓝心大模型以及华为的盘古大模型,手机端AI大模型俨然成为新一轮的竞技重点,吸引主流玩家悉数到场。
有接近小米的产业人士认为,目前大模型手机还在起步探索阶段,未来哪家厂商能够决胜千里,还要取决于模型、应用和产品的迭代创新。同时,苹果iPhone如何让大模型发挥所能,答案依然悬而未决。
产业化终端之外,一些尚未完全步入商业化之旅的“未来终端”也借助大模型,向通用人工智能最理想的载体晋级;基于大模型的大脑,具备感知、记忆、规划和使用工具的能力的AI Agent(人工智能助理)的演进也备受关注。
CES期间上,初创公司Rabbit发布了其手持式AI硬件产品——R1,定位为用户个人助理,能够帮助用户完成打车、订餐、放歌等日常任务,目前第一批设备已售罄,第二批预订预计交货日期排到2024年4月至5月。
“类比移动互联网的智能手机类产品,人工智能时代的产品就是AI Agent,预计未来五到十年的时间,我们每个人都会有三台机器人。”云天励飞董事长陈宁预测,未来三年将是人工智能关键阶段,全球可能80%的企业会运行在大模型之上;可能五年的时间机器人和数字人的数量会超过人类的数量。
机器人成为AI Agent的典型代表之一。
日前,科大讯飞发布业内首个集成全自主国产星火认知大模型的具身智能人形机器人。科大讯飞硬件中心机器人产品总监季超表示,短期内,人形机器人将以实际应用场景为牵引,各行业也会为不同的任务推出不同型号的机器人产品;长期看,未来人形机器人将会在各行各业充分打磨,本体上下游产业链和任务数据积累会日益完善。伴随着通用AI的“奇点”降临和机器人硬件成本不断降低,人形机器人有望走进千家万户。
夯实底层技术架构
大模型从“上新品”向“强应用”的嬗变,影响万千产业,也会关乎“百模大战”竞逐的终局。
底层技术底座自主可控愈发重要。其中,算力视为大模型发展的重要推手。以英伟达为代表的人工智能训练芯片当前垄断着全球AI算力市场供应,但在业内人士看来,算力是一整套生态体系,相关芯片布局充满机遇和挑战。
“算力是一整套生态体系。”云岫资本合伙人兼首席技术官赵占祥介绍,从AI芯片分类来看,目前中国在训练芯片方面与国际领先水平还有差距,但发展迅速,预计到2024年年底,许多场景将开始使用国产训练芯片;推理芯片方面,划分为云端推理和边缘端推理(如智能手机上的AI功能),尤其是在低功耗环境下实现高效能边缘侧AI,对模型轻量化的需求提升。中国正积极利用新型架构如存算一体来提高整体算力,并通过光电互联等新技术手段增强算力表现。
2023年10月,科大讯飞发布了基于华为昇腾生态的自主可控算力平台“飞星一号”,并在此技术上开展更大规模的模型训练。在推理人工智能芯片领域,2023年11月的深圳高交会上,云天励飞发布了基于国产的14纳米工艺Chiplet技术的大模型边缘推理芯片,可拓展支持千亿级大模型部署。
“AI训练不是目的,大模型在千行百业的推理应用才是产业化落地的最终目标。我们预计未来5到10年的人工智能推理芯片需求量会到万亿颗。”陈宁介绍,尤其是Chiplet D2D工艺可以实现一次设计流片、多次封装,生产多颗不同计算规格的芯片,能降低成本,满足市场在各个领域对不同规格的大模型推理芯片的需求。
潘青华也指出,未来大模型的普及程度一方面取决于算法的创新,另一方面取决于硬件的进步,即如何在单位芯片功耗相同的情况下,实现更强的计算能力。以语音识别为例,初始使用成本非常高,现在语音识别算法集成到本地硬件上,不需要构建云端的算力,已经可以支持每天几十亿次的语音识别的访问。
目前主流的云端大模型,参数量都在千亿级别,对于内存、算力、功耗的需求庞大。相比较,手机厂商自研的端侧大模型体量都比较小,将参数压缩到了数十亿到百亿左右,以便在手机端运行。为了实现大模型体验和手机性能的平衡,厂商们目前普遍采取了“端云协同”的策略,同时部署端侧和云端两种模型,根据不同的应用场景和需求来进行选择。
除了算力系统升级,算法的创新要求也将“水涨船高”。“基于现有算法框架,仍然看到模型(参数)越大,越能带来能力提升,但无限堆算力可能不是最优路径,预计很快就会进入算法层面的创新比拼阶段。”潘青华表示。
这意味着随着大模型等通用人工智能应用的进一步发展,对底层产业链的自主可控程度要求进一步提升。
陈宁介绍,结合当前国际环境和中国市场需求以及产业链成熟情况,公司致力于打造中国的算法芯片化技术平台,即面向算法计算加速定制处理器设计。同时,推动多模态大模型技术的逐步突破、成熟,以及国产工艺的人工智能芯片的进步。
应对通用人工智能时代发展,数据也亟需治理和升级。
陈宁表示,过去物联网沉淀的海量数据,并不能直接反哺到人工智能,还需要消耗大量的成本来做数据治理,才可以真正去训练人工智能的算法,推动AI应用的落地。
对于大模型的产业模式,百度集团副总裁吴甜认为可以类比芯片代工厂,“大模型平台是价格昂贵的大算力系统,可以把大数据、大算力、大算法都封装,并且可以建设自动化、数字化、标准化的的生产模式。应用方只需定义好问题,把对AI模型的能力要求交给大模型平台,由大模型平台进行生产,这样才有可能实现产业应用遍地开花”。
不过,大模型在快速发展过程中,也引发了各界对于数据保护、合规风险及隐私泄露等问题的担忧。潘青华表示,从算法原理来看,大模型距离形成自主意识还为时尚早。而从大模型本身的安全性来看,如何防止生产有害的、错误的信息,这是必须引起重视的,可以从数据源头、训练方法、算法等技术层面建立配套的鉴伪等机制;与此同时,还需要从政策法规层面进行引导,在不影响技术迭代的前提下,避免技术滥用。
“还是需要鼓励实事求是的精神,对人工智能技术不要过度包装,让市场能够客观理性认识技术。”潘青华说,希望更多的人能够参与到人工智能生态,以更积极的心态拥抱技术,促进生态繁荣,推动社会进步。