大模型-从基础到实质-深度揭秘人工智能中的庞然大物 (模型基础)
专访黄铁军:大模型时代下,人工智能如何连接技术和产业?
人工智能发展至今,已经成为全球新一轮 科技 革命和产业变革的核心驱动力。 当前,利用大数据加大算力、加强算法形成超大规模智力模型,已成为新一代人工智能生态的核心,将是我国人工智能发展的重大应用基础设施,是实现我国2030人工智能总体领先战略的基础平台。 以“大变局下的经济安全与可持续发展”为主题的博鳌亚洲论坛全球经济发展与安全论坛首届大会,将于10月18日-20日在湖南长沙举行,旨在探讨应对全球经济风险和结构性问题,将就智能制造、技术革命等议题共商共议。 北京商报:大模型被称为新一代人工智能生态的核心。 能否简单介绍一下,什么是大模型?将解决哪些问题? 黄铁军:大模型是把智力赋予各种应用的一个基础性共性模型。 总的来说,是从海量大数据中学到蕴含在数据中的知识、规律,凝练到神经网络上变成大模型,为各种通用智能任务提供服务的基础性平台。 比如移动互联网上,云服务厂商可以有很多服务能力,但是如果没有App这样一个载体,用户就很难得到各类云服务。 这么来看,App本身就是一个产业生态。 其实大模型目前也需要解决类似的问题。 大模型是辐射性很强、技术性很强的公共性服务。 各行各业将来都会有一些特定的需要,中间需要一些企业开发大模型的转化和定制的接口。 北京商报:大模型将如何连接人工智能技术生态和产业生态?人工智能下一个信息领域的应用方向将会是什么? 黄铁军:很多行业对人工智能的认识和应用还处在一个 探索 的阶段,这中间存在一定的距离。 如何把这个接口接上,其实需要有一批企业,能把大模型的能力转化成各行各业所需要的内容。 要预测下一个信息领域的应用是什么,难度很大。 我觉得现实中,文案、信息处理等工作将要被人工智能所替代,或者大部分被人工智能的大模型所解决,这会带来一个极大应用的可能性。 搜索引擎的各种应用,归根结底是信息组织挖掘使用。 比如收集资料做一些信息处理,个人可以通过搜索引擎,而现在大模型解决了收集海量数据的问题,它的数据不是任何一个人或者群体人力所为的,而是把所有数据收集进来,并且反过来服务各种文案的信息处理应用。 可能最后的出口还是人,但是背后大部分任务由人工智能完成。 这个应用方向的可能性是巨大的。 北京商报:人工智能技术是如何发展到大模型时代的?相比以往有哪些区别? 黄铁军:人工智能发展到大模型,是人工智能技术发展的基本规律所决定的。 人工智能有两派观点。 一派认为,人工智能背后的科学机理、理论、数学、算法,这个东西很重要;另一派认为,人工智能总的来说是一门技术,构造一个智能系统,再理解智能系统的机理。 后者是人工智能的主流观点。 构建人工智能的过程中,一开始是少数科研人员的工作,后来有企业逐步参与进来,未来,则将由产学研、全 社会 力量共同构造一个模型。 为什么要这么做?其实道理很简单,一个人工智能系统或者模型,如果学习的数据不够全、不够及时,很难相信它的智能模型能力很强。 所谓大模型,就是把 社会 可能的各种数据资源,最强的算法以及算力整合在一起变成公共的,大家都能用的基础平台,这是我们构造人工智能系统必然要走的一个方向。 在这个过程中,大模型的能力强了,反过来就会对 社会 方方面面发挥作用。 发挥了作用,就有更多人建设它,它是良性迭代作用。 实际上,人工智能的潜力决定于它能获得的数据,就像人“读万卷书行万里路”,人工智能也类似。 物理世界乃至宇宙如此广阔,如果都能转化为数据、变成信息,让人工智能来学习,这个空间将会非常大。 大模型的能力会否超出所有人,我不敢说,但至少任何一个人没有获取过这所有的信息,对于发现背后规律就更无从谈起。 我们每个人的肉体和生命周期决定了我们能获取的数据还是相对有限的。 北京商报:大模型发展过程还存在哪些挑战需要克服?未来的发展路径是怎么样的? 黄铁军:训练大模型现在已经有一套技术和算法,但是是否有更好的算法,学界和业界还在不断的寻找和 探索 中。 目前来说,需要很大的碳排放才能训练出一个智能模型,将来则可能需要更少的碳排放就能训练出一个模型。 我认为有一天,人工智能训练的代价可能比人还要少,这就是另一个里程碑。 所以说,随着人工智能接触的数据越来越多,随着学习、训练效率越来越高,它的结果就是一个大模型,未来则可能是超大模型、极大模型,并不断迭代下去,这条路径已经很清楚了。 但它的上限到底在哪里,现在还没有任何依据。 目前来说,越大越好是对的。 可能扩大到一定地步之后就不会是简单的线性提升了,也有可能到一定程度之后,增长就开始变缓了,但是这些目前还都是猜测。 北京商报:在大模型的研发过程中,如何考虑一些安全和伦理问题?将如何去避免? 黄铁军:人工智能的安全和伦理问题不是一蹴而就的。 比如信息安全问题是随着信息的发展不断出现的,出现之后我们就要去解决。 在大模型的发展过程中,也存在一些本身就存在的风险,比如模型学习的知识有哪些是不符合伦理和原则的,这些风险可以预先控制;但也存在一些风险,是技术不断进步所带来的,那它的解决方式也需要通过技术手段来不断地解决,“解铃还须系铃人”。 如果因为存在潜在的一些问题就不发展这个技术了,是不符合 科技 发展规律的。
华为云正式发布盘古大模型3.0,这会带来怎样的科技革命?
华为开发者大会2023上,华为就狠狠的秀了一把,将近三个小时的发布会总结下来,其实也就突出了一个主题,盘古大模型3.0的发布。
盘古大模型3.0到底是什么?
不得不说,在一众花里胡哨、掌声雷动的人工智能企业里,也只有华为是人间清醒。首先定位目前的人工智能本质就是超级算力,而不是什么思考和学习。盘古大模型的基础逻辑不是创新,也不是学习,而是整合和优化,从而实现外数的提升和纠错。通过华为自有的庞大的数据库以及各行业积累的数据,经过整合后形成更好的、更有效率行业生产方式,从而帮助行业客户提升产业效率。
现在通过盘古大模型,时间的消耗以毫秒计,庞大的数据库储存着大量的案例,最大程度确保不会出错,这样就为企业节约了大量的时间和金钱,从而达到提升企业效率的目的。
华为的这个盘古大模型,它究竟有什么独特之处呢?
1、不是单纯的发布模型,连同应用案例一并都发布了。
华为在国内经营这么多年,已经在各行各业积累了大量的落地的信息化,智慧化的案例,现在有了盘古可以说是如虎添翼,只要能够找到合适的场景,在自己原有的智慧化的产品基础之上,盘古的能力一植入,立刻就有了落地的场景。所以这次的发布,不是单纯的发布模型,连同政务、制造业、铁路、金融、气象行业的具体的应用案例一并都发布了。
2、硬件软件都是咱华为自己,底层的操作系统核心全部都掌握在自己手里。
由于众所周知的原因,华为在硬件在软件上都受到了很多的限制,这样就逼着华为不得不从头做起,软件硬件都要一手抓,但是正所谓福祸相宜,软件硬件算法算力都自己搞的,好处就是集成度更高,配合度也更高,就像苹果手机一样,软件硬件都是自己搞,所以它虽然看起来硬件参数比不上那些安卓的顶级手机,但是用起来就是更流畅。
那么华为的升腾AI芯片是自己的,支持AI全站跟技术的升腾云底座也是自己的,易构的计算架构看也是自己的,全场景I框架也是自己的,以及AI的开发生产线model这些都是他自己的。据说整体的表现现在还不错,并不比那些主流的GPU算力平台差,而且,华为现在这些不光是自己用,它也已经开放出来,可以给其他的AI企业去使用AI的大模型,就像是互联网、移动互联网一样,是一个新时代的底层操作系统,把这个底层的操作系统核心全部都掌握在自己手里边,那么这反而可能是一件好事情,
使用这个盘古大模型3.0到底会带来什么?
这个如果说科学术语的话,我可能也说不明白,你可能也听不懂。咱就举例子吧。据说加入了盘古大模型,气象预测的速度提高了1万倍以上,几秒钟就能出结果,台风从哪来,几点来,啥时候走都能给预测的明明白白的,这波操作让天气预报又上了一个新的level。
华为这次的发布会可不止带来了气象预测模型这一个角色,40多年都没发现新的抗生素,盘古药物分子大模型以来,就找着了超级抗菌药drugX,而且药物的研发周期从数年缩短至几个月,研发成本降低70%,盘古矿山大模型也能深入到采煤的1000多个工序之中。
发布会上,华为云人工智能首席科学家田琪就表示,华为云人工智能项目已经应用在了超过1000个项目,正是这种结构让盘古能够快速落地到各个行业里。根据他们的说法,过去开发一个GPT3规模的行业大模型通常需要五个月,而有了这套东西,开发周期能缩短至原来的1/5。同时,很多行业数据极小的限制也能被解决,比如造大飞机这种很细很细的行业也能有大模型。
总的来说,一场华为发布会看下来,华为在AI方面的布局是很深刻的,他们早就开始思考AI真正能带给我们什么这个问题了。过去半年里,AI行业虽然掌声雷动,但是真正落到行业层面多少有些尴尬。而华为的这一次动作,恰好印证了如任正非说的,未来在AI大模型方面会风起云涌的不只是微软一家人工智能软件平台公司,AI领域真正的大时代还在后头。
免责声明:本文转载或采集自网络,版权归原作者所有。本网站刊发此文旨在传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及版权、内容等问题,请联系本网,我们将在第一时间删除。同时,本网站不对所刊发内容的准确性、真实性、完整性、及时性、原创性等进行保证,请读者仅作参考,并请自行核实相关内容。对于因使用或依赖本文内容所产生的任何直接或间接损失,本网站不承担任何责任。