chatGPT科普(芯片包括国内人工智能模型)

我这里先说一下怎么分。
我们先看一下我们处于的一个位置,实际上我们都说无人驾驶是吧?它是人工智能,但是我通过深度思考之后发现无人驾驶在 AIGC or Chatgpt 面前就是幼儿园小学生,因为我们可以知道我们开车的时候可以打电话,可以喝咖啡,是吧?甚至可以东张西望,所以开车是一个低算力的劳动,所以教会车自己会开车,它所需要的算力是很简单的,所以我们可以发现像小鹏他们花两三天时间就可以搞出来无人驾驶。

没有太多的技术积淀,也可以搞出来无人驾驶,所以我们之前认为无人驾驶非常牛的时候,在 AIGC 面前幼儿园水平,因为我们可以做一个类比,当我们想去做一个小课题小论文,比如说这个课题的论文叫做对比美国近100年的利率走势和股市的关系的时候,我们是不能够干其他事,我们很专注花大量时间去查所有资料,才可能把这个课题做好,而我们开车根本跟走路没有啥区别是吧。

所以我们后面才知道原来开车本质上是一个低算力的劳动,而恰恰 GPT 是一个高算力,所以我们将整个人类似的问题分为两种,一种叫选择题,一种叫简答题,什么叫选择题?就是特斯拉的无人驾驶。

chatGPT科普(芯片包括国内人工智能模型) 汽修知识
(图片来自网络侵删)

它本质上是一个选择题,它只需要做两个选择对吧?所以整个无人驾驶它是基于两个选择题的一个应用,第一个选择题就是我是左拐还是右拐,第二个选择题我是按刹车还是按油门,就这两个选择题就能够把车开起来,很简单的把我看到障碍物对吧。
我是左拐右拐,我看到什么情况,我是刹车还是踩油门,所以这个东西的结果结果就是把车变成无人驾驶是很简单的事,但是我们人类社会还有另外一个巨大的课题叫做简答题,就是深层次 AI ,对吧?你给我画一幅画,对吧?你给我做一个课题对吧?我有什么样的症状,我是把感冒流鼻涕,我什么样的症状你告诉我对吧?这都是高算力的简答题,而目前我们的人工智能直接跨越到低端的无人驾驶,直接来到了一个新的时代,就是简答式生成 AI ,所以这才它的本质,这个是我们最早的简单的 AI ,所以大多数人都将 AI 定义成决策系统,实际上完全不是了。

我们人工智能它基本上可以分为这4种类型,跟班主任教学生差不多。
班里有4种学生,第一种就是左边的叫监督式学习学生,这就是差生,你不拿着鞭子在旁边看着他就不会学对吧,你只要一走开他就不学了,所以这个是最低级的叫监督式学习,需要一对一的教学,不能够走开的;第二种人工智能是要叫半监督式学习,可以一对多开小班,也可以学,不用盯着。
第三种是我们说的叫做自学能力很强的小学霸,是吧,不用人监督他,也可以学习叫做无监督式学习,然后还有一种叫做自监督学习,所以我们目前讨论的是后三种。
对,实际上最好的也不是完全不要你教,因为很有可能他会闭门造车走向一个极端。
他需要什么?需要他可以自己主动学习有悟性、有动力,更有一个很好的老师来给大家做辅导。
当他学了一个阶段,我给他做一次测试,你这里学错了我给你纠正一下,所以目前我们的人工智能最好的方式就是这一种。

所以我们可以看一下,以百度的他自己作为中国人工智能先驱做了一个上中下游的框架图,非常的简单,当我们在讨论人工智能的时候,我们要把它上中下游列出来。
我们先说它的下游,下游就是最上面的应用,我们看到了所有 AI 绘画、 Al 写作等,所有的都是下游应用,这个应用是基于中游,这个中游就是称为这个算法大模型和框架,还有人工智能的上游,就是它的芯片更算力,实际上目前在美股炒的最多的是英伟达这种算力,然后中游大家都还不知道谁会跑出来。

游又分为两种一个是大模型◇一个是深度学习框架,把框架可以把它理解成 os ,大模型可以理解成我们之前在普通的 CS 时代里面的,我们称之为底层的像 DB 之类的系统软件,这个是咱们的分类。

下面我讲一下今天我个人觉得最干的一个结论,刚才我说了开车是低算力的活动,对吧,已经被人类给攻克了,特斯拉在两年前就已经可以实现L4的无人驾驶。
现在我们处于的是一个什么样的阶段?我的结论是 CHATgpt 会对高算力者是一次颠覆性的替代,什么叫高算力劳动者?去年我们热炒的机器人它在本质上是对蓝领的期待是吧?

是对劳动体育工作者的期待。
而恰恰今年他告诉我们,他会对这个白领、对金领进行替代,比如说律师、会计师、医师、软件工程师都是白领,他们的工作现在基本上大多数在未来都可以被人工智能所替代。
因为人工智能背后的学习过程跟这一帮白领他成长过程基本上是一模一样的,比如说我们怎样培养一名律师,第一步,他需要去学习律师资格证的考试,先把书看完,然后是吧他们去做题,做完题之后发现做错了再迭代反馈,再做题再反馈再迭代,最终通过了考试。

过了考试之后,他又开始接触到各种案例,接触越多,他的能力越强是吧?我们叫越老越吃香。
当他碰见一个新的案例的时候,他可以通过他的历史经验得出一个结论,但是刚才我说的所有的过程,这不就是人工智能在训练模型时候所用的过程吗?对吧。
他先输入大量的数据进行训练,训练之后其中有一个环节叫做生成对抗网络,什么叫生成对抗网络?它分为两个小的模块,一个叫生成机,一个叫对抗机,什么叫生成机?就是

它生成出一个答案或者提一个议案,对抗机根据他的这一个模型对抗出你这个错了,然后打回去修改,然后它再生成一个议案再打回修改,反复迭代反馈。
所以这就跟我们人类什么会计师律师医师在做职业资格考试时的过程是一模一样的。
到了工作的实践阶段,碰见各种病例各种案例对吧?他会很强,所以今后对这些工作基本上我们在想象一个场景,当你碰见的一个法律相关的咨询的需求,你把所有的条文条目合理性的情况,花半天时间告诉这个律师,他会去查资料,通过经验去查资料,去检索他想要的解决方案,可能要花两天时间,而 CHATGPT 它不一样,它可以学习所有法文法务法条和给它列进去的所有案例,可以瞬间给你生成出你想要的所有的答案。

所以律师是很危险的,还有医师。
身体出现了某些症状,你去找医生,你要跟他描述说我这里什么那里哪里不舒服,实际上医生他也是靠着经验和他在学校里学习的各种原理,来给你得出一个你的结论。
人类所有知识库和它固定的所有的案例,像这样东西出来是对高算力工作者的白领的一次灭顶之灾,基本上全部可以替掉。

所以这是在生产力方面的巨大革命,去年炒元宇宙,元宇宙本质上是生产关系的小创新,而 Aigc 以 Chatgpt 为代表的爆款,它是人类生产力函数的一次巨大的提升,所以它有巨大变化。

你看会计师、审计师、律师、保险代理、投资顾问、程序员,对我当时还不理解,他只能替代程序员。
后面我终于理解了,就是我们在写程序的时候,80%的程序实际上都是重复的简单的脑洞,你只要告诉他我需要实现什么功能,实际上 chatgpt 可以替代80%比较平庸的程序员,无论是 c 语言,还是 Java 、 Python 都可以写,而且由于它不会犯语法上的错误,还可追溯,所以它的可用性更强。

所以我就想起了马斯克说这个东西的出现使他想到了一个非常可怕的未来,人类只是帮助危机生命体起来的一个引导程序,就是我们存在的目的是为了造出来这一批具备人工智能的无论是虚拟侧,我们分为两个侧,一个是虚拟侧,它存在于服务器的代码里面。
另外一个是机器人。
如果到时候,虚拟侧的人工智能可以自己写代码,自己给自己写代码,而机器人可以自己造机器人,这两个东西的出现会对整个偏科幻式的人类未来产生巨大的影响。

然后 chatgpt 意味着什么,意味着很多白领可能要失业了是吧?这就是近30年来在 ict 领域、在生产力方面的一次巨大的革命。
后面有请我们电子首席给各位详细的讲一下 AIGC 、 Chatgpt 整个产业链上游算力芯片。

各位投资者早上好,我这边更多聚焦于硬件,包括大家比较关心的就是国内的算力芯片实际的进展怎么样,跟海外对比,我们的算力芯片差距,包括国内相关的公司实际的进展如何?先大概讲一下,其实到目前时间点为止,整个算力芯片的概念其实会比较宽泛,像 CPU 、 GPU ,当然其实落实到国内,大家也会经常去提一些所谓的小算力的芯片,像一些 AloT 的处理的 SOC 等等,其实整个的这一大类的芯片都可以囊括在所谓的商业芯片领域。

我们知道过去几年国内的国产化的一个进程,从传统的芯片设计,像模拟射频,包括 MCU 像半导体的上游设备材料等等,其实在算力芯片或者所谓的高端的数字芯片领域,我们国内的国产化进程其实一直相对比较低的,背后的原因是因为算力芯片,因为它需要大量的数据处理的东西,集中的性能,但是我们知道过去几年国内一直是被美国卡脖子,所以为什么我们要重点把这个算力芯片放在第一个篇章去跟大家做一个分享,因为未来几年 AI 算力芯片,它其实会是聚焦于 AI 整个大的趋势,以及国内半导体中美对抗博弈之间核心焦点中的一个焦点。

整个算力芯片如果我们算高层路线大类的话,有 CPU 、 GPU 、包括 AI 用的,简单的区别在什么地方? CPU 其实就是我们日常的 Pc ,包括服务器用的处理运算的核心,对 CPU 来讲他擅长的是多功能多类型数据的集中的处理和运算,它的重点在于逻辑性, GPU 其实是目前时间点,海外主流的大模型,他们采用的新品类,我们知道像 OPPO Al 的其实是用大量的英伟达的a100包括h100去训练它大模型,去年9月份如果大家有印象的话,其实可以看到英伟达a100h100以及 AMD 这边的最高算力芯片,去年大概是在9月1号前后,对国内其实也是进行了出口管制。

AMD 其实并没有针对国内推出所谓的降规版的芯片,英伟达是针对国内推出了降规版的a8版,所以国内目前主流的要去做大模型或者做 AI 算法厂商,它用来去跑训练或者用来去跑测试的,基本上都是排队去买所谓的n800、a800,当然a800现在从我们了解的渠道来看的话,它其实也是相对缺货的,像最近字节跳动,它就下了大概1000片的a800,这个单子依然还在排队交付的过程当中,所以就会引发一个核心问题,海外在推进新的一波大的 AI 的浪潮,这个浪潮可以看到未来5~10年一个周期,国内一定会跟上,国内在算法在模型,包括在所谓的下游应用层面,我个人觉得其实国内并不会跑出,因为对大模型来讲的话,国内可能它就更多在于训练的数据量,包括处理这个项目,包括更智能化的反馈的时间等等,但是在算力芯片里面可能是未来国产化的核心需要解决的议题。

我们其实如果关注最近两会的话,相比过去几年我们可以看到像韩永庆董事长,包括商汤科技的董事长其实都参加两会,从这些迹象我们可以看到国家对于整个 AI 其实非常重视。

刚才我们提到 CPU ,它往往是像我们 PC 电脑,包括日常的一些主力的设备,它用来集中的去处理和运算系统,技术是目前来看最适合用来去跑 Al 的大模型,跑 AI 训练相对来讲会更加垂直更加专业一些。

所以大家去看海外 AI 应用的话,不管是用神经网络还是目前的 AI 超大数据规模去训练,它其实采用的芯片会稍微有点区别,但是近期最火爆的 CHATGPT 或者所谓的 AIGC ,以海外同行的经验来说,今天可能会是比较核心的一个品类,我们国内有没有对应的 Al 训练的芯片的公司,其实国内有一批,但因为上市公司里面比较少,所以其实大家公开市场可能会比较少,关注到从我们产业研究的视角来看的话,大家其实可以关注一系列公司,目前国内 AI 芯片的第一系列的公司,华为目前也还是处于一个被制裁管理的过程中,像寒武纪一些属于上市公司,像穗源、穆西,包括 b 任,包括摩尔县城,包括一些做车 AI 的公司,地平线黑芝麻等等,这些可能是我们需要重点去关注的。
包括未来几年我们看国内的 AI 芯片国产化,我们需要去重点关注,包括观察他们新产品进展的地方,包括我刚才提到的寒武纪它今年如果顺利的话,可以看到它590芯片的推出在理论性能上有可能可以对标,因为达到A100,但实际量的进度,包括在整个中美科技制裁,包括在整个这个油田被制裁的这样一个背景之下,到底量产技能推到什么阶段,这些可能会是资本市场会关注的一些核心。

整个 chatgpt 它是显著带来了整个数据量非常大的一个影响,其实就可以拉动对应的服务器产业的一个发展。

我们知道其实国内算力芯片这个环节确实是需要我们长期去耕耘的,国内有一批优秀的 AI 芯片公司,在设计能力上在理论性能上其实是不输英伟达或者 AMD 的,但是在实际的应用场景,在实际的生态,在软件站的适配上,我们相比海外龙头的芯片公司其实还有很长的路要走,服务器,尤其是 AI 服务器整个产业的一个发展,它其实会拉动国内整个电子产业上游的一些需求。
比如说需要配套用的一些 pcb 、包括服务器需要配套用一

些高速的 PCB ,其实在 ai 气场相比于传统的服务器都会有明确的一个量的升级。
比如像一些服务器用的多项电源 bimos 模拟器件,包括服务器用的一些存储,一些类型接口情景一些传输型,都会因为算力和数据的提升带来产业实际的拉动的增量和变化,所以如果我们回归国内和算力芯片产业链,上游硬件的投资是要的话其实可以有两条路径去展开,第一个就是我们去看国内算力芯片的进程和发展,当然这条路径由于还处在一个中美科技博弈的焦点,所以在我们对一些公司未来盈利展望,包括未来营收展望上可能就存在很大的不确定性,但是它会是焦点之中的核心。

第二就是落实到基本面,海外英伟达我个人认为一定是未来几年整个办公产业核心拉动的一个成长驱动力,国内配套英伟达产业,像比如有一些光模块,包括配套的一些 PC ,包括配套的一些电子元器件,一些模拟 IC 等等,这些会是实际落实到国内公司,落实到个股的业绩。

当然整个服务器我们可以看到像前段时间浪潮也是被加入到新一轮制裁,后面可能还会有补充,包括一些修补漏洞的制裁,所以为什么我们要去搞清楚算力芯片在国内产业的一个发展,动态原因就是在于可能我们基础的研究层面会相对比较难落实一些定义或者说落实一些表象,但是它又属于焦点之中的核心,所以这是我们对于整个算合纵投研>

力芯片层面,我们需要这个前提描述的一些观点,包括我们觉得未来可能非常重要的议题,这里我列了一下 ai 系统的一个市场空间。

然后 AI 服务器的芯片构成第一类就是 CPU 加上加速芯片, CPU 它往往刚才我们提到是擅长去处理一些多规模数据多类型数据的一些这种包括一些逻辑和推理,在 AI 训练上也可以,但是往往会在大数据的主体和逐步的训练,相比 GPU 还是有一定的差距的。

CPU 往往是被大家用来作为电脑、手机、笔记本包括 iPad 等等它的一个主力的一些核心芯片。
Cpu 刚才我们提到它相对擅长逻辑控制,用于推理,包括预测也可以用来 AI ,但是在超大规模,目前我们看到欧洲走的这条 AI 路径其实 GPU 会更合适一些。

然后技术还是高度适配 AI 模型的一个构建,从几个点来分享一下。

一个是我们要熟悉整个 AI 训练的一个过程,精修它的并行计算,它首先是高度适配所谓的 AI 的神经网络的,而且以 GPU 实际处理效果为例的话,像海外的 oki 在前期的时候他用一起他用大概1.2万克的 GPU ,然后去跑海外的总体的互联网的数据量,大概在一千小时计算的量里面,基本上可以完成一次超大规模的一个训练,2048颗a100的合纵投研>

一个机制,可以在一分钟之内成规模的处理过,也就是语言训练模型的一次训练工作的一个负载,所以为什么我们国内要去找一些基础产业,尤其是 AIGC 产业的公司,因为如果网追根溯源去讲的话,国内如果要搞自己的 AI ,如果要搞定自己的 AI 算力芯片,这一关是必须要过的。

AMD 用于核心 AI 训练的最高端的芯片,其实目前也买不到,那a100、h100再往下就是因为拿给我们推出的降规的a800,a800再往下此前因为达到系列v100,v100从实际效果来看的话,它其实已经不太能用来去跑超大规模训练的这个数据或者 ASP 模型,所以这个是在算力芯片上。
海外算力芯片它的发展的一个焦点跟国内我们目前可以说被卡脖子的地方有一个核心的焦点,所以我们会在今年会比较关注国内刚才我们提到的一系列的 AI 芯片公司,它们基本包括他们新产品的变化,而且这会是一个非常具有前景,或者说潜在风险也会有,因为我们知道国内的 AI 恰好是处于美国对国内定点制裁的一个焦点上,但是国内的 Al ,如果国内去跑自己的 AI 模型的话,我相信未来我们会看到像百度包括360,包括国内的一些科研院所,其实还是会开始引用或者开始去采购国内的科研芯片作为一些国产化替代的一些方案的,而且实际上像北京上海就有一些人工智能研究所已经开始采用寒武纪、必认,包括木樨的一些产品去做一些基础的测算,当然在生态上我们合纵投研>

相比,因为它的扩大确实差距还很多,所以这个是我们目前面临一个客观现实。

CHATGPT 之后我们可以看到百度的文心妍,包括苹果也会引入 AI 加速设计的 MF 系列的芯片,包括 MR pro 和 MR max 。
大家可以关注一下苹果,包括我们这里提到的 AMD 芯片,苹果在m1的时候其实推出过m1PRO、m1max, AMD 今年下半年也会推出迭代款的 Chiplet 和工艺改进提升的芯片。

2019年到2020年的时候,其实苹果和 AMD 已经基于他们当时最先进的芯片m1推出过 chiplet 的芯片,这里为什么要讲到重点提到 chiplet ?因为我们知道国内目前扩产半导体晶原厂扩产的一个核心是卡在或者说是落在28纳米的国产化。

去年美国芯片法案进一步的限制,使得目前时间点我们国内14纳米级以上的先进支撑,它其实还是属于一个暂时不能扩产或者不能去国产化的这样一个阶段。
海外我们可以看到 AMD 和苹果往往会在自己最先进制程的芯片上,通过生产异构封装或者并联封装去推出更新迭代,或者单颗芯片面积可能会相对缩小一些,但通过两颗或者三颗的并联实现更高性能的这样一个芯片,然后用在高端的一些产品上。

对于海外来讲的话, chiplet 是他们基于海外现有合纵投研>

的先进产能工艺,推出更加高端的芯片产品,对于国内来讲的话,是我们目前的程序上被卡在

28nm,对于华为、中芯国际来讲的话,我们需要在目前国内能掌握的28nm先进晶圆代工基础之上,通过 chiplet 适度的往前面推进20、16。
其实目前在国内,封测资源其实都还在推进过程当中,但撇开对国内的利益来讲,我们发展自己纯国产化的战略芯片的话,我们需要在28纳米基础上进一步推进,但对海外来讲的话,推开往往是用在他们已经最先进的支撑上面,通过平台的异构封装或者并联封装推出一些高端的芯片,所以这是在芯片环节我们应当注意或者说我们应当关注的一些焦点问题。

IGBT 和 asic 这我不展开讲,因为相对来讲他们会更加需要一些垂直赛道的应用,相比 GPU 的可能通用性强,但国内的 ai 芯片基本上都是两类,一类是可能偏向于 cpu 、 gpu 一类可能会偏向于 it 的架构,所以这两类基本上是目前国内的 AI 形成主流的一个方案。
整个的 AI 它其实本质上会提升数据传输的整体的速率,算力瓶颈就会是我们核心去讨论的议题,如何提高整体的一个算力,我们需要刚才提到整个配套的服务器产业链,一个是首先你今天的算力 ok ,其次你服务器配套的一些传输跟连接相关的一些芯片本身,所以需要一些高端的提升,我们也需要看到他从传统往高速版或者高速往往更高层的高速版去做升级,所以我合纵投研>

们可以看到之前其实国内在炒作初期的时候,在电子产业这边除了算力芯片,像一些 PC 的标的,比如像固定,包括像圣农,其实股价也都有非常正常的一个表现,原因就是在于在整个泛算力扩张的这样一个阶段,其实跟光模块跟这些 PCB ,然后跟服务器相关的一些基础架构的一些元器件,其实都会有明确的一个提升和拉动。

当然可能落实到今年上半年公司整体的一个业绩层面来看的话,因为实际传统的服务器的需求在上面还是相对偏淡,所以我们如果关注美股的话, AMD 今年上半年可能整体业绩是一般的,肯定是在于传统服务器其实就相对一般,但是 AI 这块的爆发性是非常明显的体现出来的。

国内服务器的需求增长国产化对于国产的 Cpu 来讲的话,其实三条线,第一个就是 it 内核授权,第二个就是指令架构及授权,包括像我们熟悉的隆鑫工科等等,它其实走的是授权加项目自主研制的问题,像今年我们从产业跟踪下来,像明星、党政军国产的 CPU ,包括一些国内政府部门的一些服务器的 CPU 的采购,其实国产化的技术都非常高,基本上我们跟踪下来像刚才我们提到的一些标的,它今年在订单上可能都会有接近翻倍的一个增长,所以这里面大家可以分享,当然像龙兴它的成长的持续性,比如明年后年未来三年的增长,基于我们对于政府端或者政策端的一些持合纵投研>

续成长,其实不太容易估,但是今年到明年一定是很好的,所以大家感兴趣的话其实可以关注一下所谓的算力芯片,它不只是映射海外去炒一个主题或者炒一个概念,而今年我们会看到国内商业芯片公司基本上都会有两个方面的变化,第一就是确实来自于有些信号,纺织机国产化的这条线订单有非常明确的一个提升。

第二个就是对于一些纯 AI 芯片来讲的话,我们要关注它的新产品,它的表观的经营业绩其实并不重要,甚至它的收入也不重要,重要的是我们要看它边际上对标海外a100也好,a800也好,核心的最新款的算力芯片,它的性能以及它量产的一个进度,我个人觉得其实会是后面这两类算力芯片公司股价驱动的一个核心。
然后这是然后最后刚才我们提到生产和存仓一体,这个是落实到国内算力芯片产业,我们后面会实际看到一个产业带来的一些实际性变化。
今年下半年到明后年我们会看到国内头部芯片设计厂商就被美国这边制裁的华为条线,其实在 chiplet 看一直在做自己的布局。

国内的封测产业像我们了解的上市公司里面就是长电、通富,包括非上市公司里面长电绍兴盛和金威,其实在 chiplet 上都会有深度的参与,当然每家公司的分工和角色定位可能各有不同。
其次推开的首先拉动的是以华为为主要驱动力的国内合纵投研>

封测设备产生的变化。

其次就是 chiplet 它改变了封装的一个形态,从传

统的平面封装到异构封装,甚至更高难度的三 d 堆

叠式的这种复杂的封装工艺,它会带来对应的封

装载板的一些变化。
当然封装载板本身就存在,

但是在封装载板的顶角,然后尺寸面积复杂程

度,然后包括一些耐受性能上,其实都会提出新

的要求,所以国内像 abs 载板产业链,因为 abs 载

板本身是配套算力芯片,它跟 BT 载板国产化可能

进度相比来讲,对 a 点载板的国产化的进程可能会

更迫切,而且会更难一些。
所以国内像封测设

备,也尤其是 SOC 的测试设备,像推开的产业带

来的封装 a 点载板产业链的国产化,包括像可能有

一些第三方测试,它会受益于以海思为主的第三

方测试市场的这三类公司,可能是我们后面会看

到在带来经营拐点和增量的地方,当然这块目前

国内视角来看的话,华为会是最核心动力去推进

的,这是关于生产的产业我们应当关注的地方。

海外的替代的它其实是在新兴市场的基础之上往更进一步推进,国内是因为我们在一步一步美国对我们市场过程当中,我们目前的节点是在28纳米基础上,我们如何去往更先进市场去推进,通过去看我们可以往20纳米以内推进。
其实未来我们展望一下未来,其实国产的14纳米产线搞定之后◇在14纳米集成基础之上◇通过接合纵投研>

口我们可以进一步去往所谓的 n 加1, n 加2就是

8~10纳米这个日程去推进,所以这块对于国内和国外的意义是不同的,但是对于国内的重要性会更加迫切一些。

然后这是关于 Chiplet 定义,当然 chiplet 其实已经广泛应用于服务器芯片,刚才我们提到2019年

2020年的时候,其实像华为的海思,包括像 AMD ,包括像苹果其实都已经推出最大的芯片,但当时那个时间点更多是基于先进市场去推出新款的 chiplet 芯片,今年下半年到明年我们希望的国内头部厂商这边推出系列的产品, chiplet 对于国内的核心的意义,其实总结一句话,我们国内如何在先进体能受限的情况下,进一步推升我们的算力这块以及后续存算一体,它会是推进我们整个的算力以及算力效率的核心。

最后跟大家分享一下,纯算一体,纯算一体其实会给国内芯片产业带来一些明确的变化,因为我们知道原来存储和算力它往往是分开的,存储产业我们去看一些存储相关的芯片设计公司,包括容量、内存等等,算力芯片往往是我们是独立开来的,因为在大家传统的观念上,因为存储其实它可能会相对偏逻辑,包括28、40纳米这些制程,但是算力芯片它往往会接近市场,但是我们今年其实会看到国内存算一体这个概念会越来越弱,因为我们从产业已经能实时了解到很多种中合纵投研>

小型的芯片公司也在和一些科研院所积极的去推进一些纯算芯片的进展。

整体来讲的话就是存算一体,在服务器未来的应用上,它其实可以起到一个更大效益更高效率是吧?包括同时起到一个降本增效的这样一个效果。
对于 cpu 、 gpu 以及存算一体它带来了一个整个量的变化,一般来讲的话 Cpu 它是10~100的这样一个计算,机器人由于它更适合用来去做 AI 大模型的一个训练,尤其是重复数据的训练,所以它往往是以万量级为单位。

存算一体的话,它通过存储算力,包括中间连接芯片的打通,它可以起到一个百万量级的等效计算的核心,所以围绕全算一体,我们可以去找一些当然更多可能会偏芯片设计端,我们去找一些在存算一体上有所布局的,虽然我们对于 AI 这个量级来看的话,我们关注的是一些核心的大的商品信息,但对国内来讲一些小的算力芯片 SOC ,包括一些 MCU 等等,其实也在跟他们做一些布局,而且我们短期来看,对于国内的芯片设计公司围绕一些小算力芯片 SOC 、 MCU ,可能是在存算一体产业链上,我们能看到实际有戏的产品推进和落地的地方。

以上就是我这边关于整个算力芯片产业简要的一个分析,关于具体的个股,包括刚才我们提到的国内 AI 公司, AI 芯片公司的进展,包括一些上市合纵投研>

非上市公司的进展,包括所谓 chiplet 的系列的研究,也欢迎各位领导各位投资者在线下跟我们更详细的交流。
接下来欢迎团队另外位老师做分享。

今天我们谈一点新的话题,因为原先在通信这大家大部分是集中在光模块的为主,然后谈到一些服务器交换机这样的一些机会,今天我们这块主要是可能就相对来说更简单一点,或者说更整体解决方案的一个概念,就网络我们来谈一谈。

我们认为为什么算力网络有可能会成为后续对算力对流量拉动的这种趋势下得到的一个技术方案,我们认为是最优的一个方案。
这块我们就说整个的 Ai ,我们说三个大方面的一个因素,就是大模型大数据,包括我们到了算力,对我们通信相关这一块是一个算力,这块是我们最关注的问题。

然后实际上整个 AI 的话,现在大家都用自己相关的一些数字,包括已经是做复合增速有80%,还是在之前第三方机构没有对 AI 形成增量的这种拉动,所以后续的增长会更快,所以说其实我们整个通信的行业研究框架,其实现在我们做了一个东西,那原先通信行业研究框架说是基于流量的,尤其是我们说早些年整个流量经营这种模式还有好多空的时候,当然现在我们认为在后续的情况下,算力的应用对我们手机端,包括我们车合纵投研>

端这些终端,对一些算力的应用和产生这种算力的应用后会产生算力的传输,也就是我们的战略调度,通过我们的5g网络,通过我们的有线网络等等,然后它相关的一些计算和存储是在我们算出来这一块的一些主要的环节,做数据中心等等这些环节,包括我们预算平台,实际上我们现在加载了一个新的模块,就算配套算力的这块,其实我们重点提了两点,一个就是说你算力的制冷,其实这块发生了特别大的变化,尤其是在人工智能带来这种智算中心,就智能数据中心和超算数据中心的结构比例明显提升趋势下,它的散热的需求会更大,也会由传统的风扇风冷切换到这种液冷这种芯片级的方案。
另外就是算力的安全,尤其这次我们说大数据的东西,就是说数据局这些包括数据要素的一些东西,那会带来这种数据监管这个方面进一步需求的一个强化。

所以比如说我们之前提的一些网络规划,这些标的从订单我们现在已经能看到是一个好的发展预期了,所以说从我们通信角度来讲,其实我们现在虽然是这三个,但实际上应用这一块可能更多的是我们计算机统计。

对我们来说,我们反而现在是聚焦到下面小三角算力的配套,算力的算术和算力的调度,然后我们还有一个更细一点的二次框架,后续我们会把那二次框架也会细化给大家,这是我们整个的研合纵投研>

究框架,我们基于 AI 的这种趋势下进行了一个升级。

为什么我说算力网络会成为整个 Aigc 最优的一个方案?其实现在就算你网络这些提的主体还是不少,我们说现在我们是最认同中国移动提的一个东西,所以说你看中国移动怎么算的,网络的定义是把我这些无论是网云数据,包括 AI 安全,边缘终端,还有区块链等等,我们全是给他做了一个融合的解决方案,来进行一体化的提供。

就这个东西我们可以跟云计算做一个对比,云计算我们说原先就说大家举个例子就说云计算就像自来水,我一拧开水龙头它流出来的水,云计算里边这个水是什么东西,它是你的 CPU 的核数,是你存储的容量,他们不是这些东西。

那么说你到算力网络它升级成什么东西,算力网络的内容更丰富,那么说你自来水龙头里边除了流出来的水里边可能还有我们举个例子里边可能还有色素,还有什么天维 t 三维 g 等等,你调出来的就是什么东西,可能就是一个可乐,一瓶北冰洋,所以我们流出来的东西更多,我客户对客户这端就实现了一点接触。
即使即用这么一个状态,所以说它是整个云计算这一块更符合、更综合的这么一个解决方案。

所以说这是我们对战略网络的定义和定位。
所以合纵投研>

它这种模式情况下,你提供 Al 福利, Ai 服务这种主体,这种相关的内容会进行了一个打包,我直接拿来所有的东西我直接用就可以了。
所以对产业链的整合程度它也会要求更高一些。
比如说真到这种情况下,比如这是我算力的提供方,我们举个例子,中国移动这些这些数据中心以及数据中心里的服务器,包括服务器里面的 CPU 电芯片可能是我中国移动的,但也有可能我通过移动整合了第三方,一起来向客户提供我这个战略网络,像我刚刚说的除了我有的云这些东西,还有我的网络,我整个做这么一个资源,这样的话我是既可以向第三方来提供整个的这种资源的出售, b 端也可以向 c 端来提供这种服务。

我和第三方一起玩之后,相关的出售的这种收入我也可以形成分成。
所以说整个3d网络它并不是一家主体单独来玩的,我们说应该是这种整个生态的更深度的一个融合,大家一起来玩这个事情。
当然我们目前基于我们的一些了解和判断,尤其像电信运营商可能在这个环节会发挥更重要的作用,所以这个是我们前段时间一直重点推进的一个逻辑。

其实我们是列了一下整个算力网络的一个架构,我不多说,反正说我们一个核心的技术,就是说要把这些底层基础设施,通过我的一些虚拟化也好,从各种方式给它做一个整体的提供,然后再合纵投研>

从我们这种更重要的就整个的惯例的编排和调度,这一块其实对这种最终在整合方案实施主体这一块的一个能力要求非常高的。

这块我们是进一步展示了一下整个断网络的一个区间,这样的话其实主要是分成三大部分,那一个是接入的网络端,这块是从我们各种用户,企业用户也好,家庭用户也好,个人用户也好,通过这种5g网络也好,或者说各种升级网关也好,走到运营商的网络,再走到最后的数据中心,所以说对于我们来说,我们现在是更关注的这两个环节,也就是说我们说算力的提供环节和算力的承载环节,这是我们下面重点来阐述的。

就是说我们现在数据中心分为三个环节,也就是说我们通常的数据中心,比如我们微信聊天,我们淘宝上买东西,很多数据我们都承载在咱们这种通用的数据中心上,但我们后续主要的是一些智算中心和超算中心,车的智能驾驶、智能摄像头的等等这些东西,智能摄像头中心的占比后边会明显的提高。

另外还有个超算中心,超算中心我们说现在很多可能是用在一些科学计算,包括一些高校这些产品,所以我们我们认为后续的这种测算数据冲击应该相对会更明显,但可能超算中心,它的解决方案可能会有一定程度的融合。
合纵投研>

其实现在这种决策中心的情况下,我们现在看到其实有不少主体是这样,尤其国内现在已经搞了二三十个在建,其实我们现在看到的包括运营商,包括华为采用的这种产品卖的是最大的。

然后另外就是地方政府参与度现在也是比较高的,有标红和标兵的以后的趋势,尤其这次我们说整个数字,中国整体规划里边,他是把整个的就是中国的实施落地跟官员的一些政绩考核规划,另外一些也可以考虑,所以我们认为以后地方政府和央国企进行一个明确的分析,投资方面会发生更重大的作用,会从更重要的对相关的一些投资机会,我建议各位可以重点来关注,尤其开完两会之后,可能的一些迹象,这些公开信息应该马上会出来。

然后另外就是说我们说一些企业其实在这方面现在也还是比较具体的,就是说包括商发、寒武纪、腾讯,但是这样的话我们觉得后边他们肯定发展和基层政府有相对来说比较多的一些合作。
然后这里边我们强调运营商,运营商这个方面,我们认为它的后面弹性和重要性都会进一步的凸显。
你看我们按照现在的数据就是21年的数据,但其实现在也差不了多少,运营商三家运营商,整个的数据中心的占比是50%左右。
现在按照比如说前两天中国联通刚发布了2023年的资本计划,这里边重点是一个结构性,重点投入就在算合纵投研>

力出行汽车运用品牌,而且我一共是增长了27个亿,其中25个亿都是放在算力投资上。

所以说我们看运营商企业,无论是他的投资能力也好,还是他的技术能力也好,甚至是他面对的那种大型的这种政治会也好,这个方面的优势我们可以进一步得到一个凸显。
另外就是说我们最近这些情况也会做一些分享,我们说这种测算中心是由比如说包括百度文新之类等等的新的产品来带动,原先我们说国内没有什么产品我出的慢,但我们最近产业链的一些调研来说,目前看起来自于这种 AI 这种大模型的数据承载需求已经在前置,所以这个事情大家实际上这一块对数据中心的带动,对甚至一些数据中心内部设备的带动,有可能这种订单层面这种收入层面比大家想的会更快。

包括这块我们的铁路云,其实目前国内预算的最重要的一个结构性变化就是运营商的预算的收入占比,它整个格局的一个竞争力是进一步的上涨的,包括我们运营商在20年到22年三年,它每年的复合增速都是在100%以上的,我们认为今年运营商仍然会有60%以上的高速,所以说运营商在整个算力供给环节,无论是 IDG 环节,还是我的云平台运营商在后续的这种竞争力都会进一步提高。
我们说在这种基础算力供给和投资方面,这块是需要大量的资源开发.其实现在社会上有这种合纵投研>

资本开支能力,有这种胆量可以放心投资的主体我们说比较少。

目前其实我们看到在互联网公司,目前我们看到比如说百度、头条,他们两个已经显示出来的一些基础设施投资的意向,开始有所体现,我们会先看到更大的阿里、腾讯,那么运营商这个方面的社投已经体现出来了,而且后续的需求应该会比较持续。
所以说以上其实我们在整个的算力工具环节,我们包括一些节奏,一些主体,尤其运营商后续的优质的品牌,组建这块就是我们做了一个重点的说明。
然后另外就是算力调度,其实这块我首先就说我们做行业研究,尤其 TMT 行业,就是说大家应该也感觉到,其实电子行业和通信行业是最讨厌的,因为看到细分的领域特别多,专业性相对比较强,研究门槛是比较严的。
比如说我们逻辑上分,为什么5g、4G有线宽带,包括数据网络、 it 网络,又包括局房,又包括 idg 等等这些东西,但实际上整个通讯网络都可以简化成什么样?通信网络就是由一个个数据中心机房组成,数据中心机房之间是用光纤来连接,这就是通信行业的主要一个框架。
然后数据的整个的传输技术端,数据的接入很简单,就是我们通过手机基站连到数据中心,其实就这么一个以数据中心为核心的一个网络架构,中间以光纤进行连接,然后每个数据中心相关的一些基站或者一些邮件,家庭宽带的光纤进一步来做数据中心整合纵投研>

个的通信网络的架构。

所以说以后整个通信网络就会进化成以数据中心为核心节点这种网络架构。
比如说可能有技术层面的,有国家层面的这样分层,但实际上来说就是数据中心之间的特连接,但这块会有什么问题,这就是说国家提出东数西算的背景。

现在比如说我们数据中心现在基本上都是集中在经济的发展领域,我们说发展广深地区华东的上海再加华北北京,他们三个基本上占了将近80%左右多,这样的话就是说你这种经济发达地区的电力不够,然后包括我的整个各方面的其他的政府监管能耗压力也很大,然而西北部其他的非经济发达地区,我们电力又便宜,又需要这种新的一些投资的一些建设的经济增长需求,所以说这个方面的一些需求就体现出来,所以说这种东数西算的进程加速,我们认为会比较快。

但这东西会涉及到什么问题,就是在东部、西部有冷数据和热数据之间数据连通的问题,所以说这个事情就是一个必然会发生的一个举措。

然后另外我们说现在尤其政府工作计划里边也提到了,就是说从我们的工业数据中心、测算中心、超算中心、边缘中心以及云之间的这种互联互通,所以行业的数据这种可能不止部署在阿里云上。
合纵投研>

基于安全或基于你的特点,或基于你的布局,你的 it 的节点,我们在腾讯云上我也会同时部署,所以这种多云部署的需求在哪。
另外就是说我们现在边缘云,尤其像智能驾驶这种场景出来,那会对边缘节点的建设会更加的不止放在一个中心,会在边缘就会做一些计算,应该说不止边缘云的节点,包括刚才我们讲过任说的整个存算一体,在车上我就有这种本地的算力,所以也会涉及到这种多云之间的互联,以及中心云和这种边缘云之间的互联。
我们说这种跨区域的网络互联,这种多云的互联,这种中心云和边缘云的互联,这是我们整个算力调度大的几个方面的一些方向。
这样的话从网络整个的传输的基本资质来说,其实目前国家是有管理要求的,目前基本上只有9家主体是有这种有资质的,主要的经营主体,那是以三大运营商为主的,所以这块来说对三大运营商以后也会是一个增量的收入产品。

所以这时候我们谈了整个网络调度这一块,另外其实从应用这块一些推动的进程也非常快。
我看去年其实航空就出现了一个算力券的空间,虽然

1,000万的规模不是很大,但总之说明政府开始推动以算力这种服务模式来提供的这样一个方式。
另外就是说现在像西部的一些区域也开始建设这种一体化的战略服务平台,整个推广下来也会加快整个算力的流动,整个的交易规模,相关标的

我们做了一个罗列,无论是你的低谷期也好,还合纵投研>

是你各方面也好,备案也好,规划我们这个位置仍然是相对低位的位置。
目前我们是以港股的三家运营商引导,认为 A 股中期跟港股的涨幅都是差不多,然后除了运营商,还有第三方供应商也是算你供给的重要的标的。

然后合纵投研>

Akamai 这种方式转变我们看到的一个进展,以及我们在单个终端进行智能模组或者存算一体化这种终端的模式,包括我们的一些无线模组,以及包括我们车上的做的核算组合,所以这一块我们回头也会更新一下。

我们来听一听产业界的声音,我们邀请的第一个嘉宾是来自国内某头部算力公司的领导,然后熟悉国内的芯片创业发展以及和海外差距,在 chatgpt 方面也是专家,他的演讲标题是 chatgpt 的算力需求解读。

确实是从2018年开始,整个国产的 AI 芯片的话得到了两倍数的发展,也是整个资本所追溯的这么一个热点。
其实也有注意到是说,其实在网上有很多一些文章,大家再去评判,再去评论整个 AI 芯片的过程中的话,所表现出来的话都是比较泛化的,比方说很多可能文章中没有写清楚是说为什么是国产的 GPU 卡和我们打游戏的 GPU 卡和我们做商业的卡的区别到底在哪里。
我今天的话从几个方面的话给大家做一个简单的分享。

首先在说 AI 芯片的时候的话,我们一般的其实是会把它分成从使用场景,会分成云端,还有边侧,还有终端这三部分。
云端的话一般指的是在数据中心里面的服务器里面所用的这种大算力的一个芯片,这种芯片的话一般情况下是通过多颗

芯片◇然后组成多台服务器堆叠在一起。
就是形合纵投研>

成一个这种算力的集群。

最近像比较火热的 chatgpt 它使用的1万张左右的A100的卡,这种卡的话里面所使用的就是属于云端的这么一个算力的芯片,那边端的芯片的话,一般是指的是像我们在马路上经常可看到的一些这种灯杆箱上面的有很多一些摄像头,很多摄像头的话,它附近可能会组建一个类似有一个这种类似于灯箱的这么一个控制台,那控制台里面的话往往会有一些这种算力的一个芯片,会有一张算力卡在这里面。
我们一般的把这种卡的话是叫做边灯的芯片,它的功耗的话往往都是在75瓦左右,端侧的芯片的话就比较好理解,像我们手机里面还有很多摄像头里面本身所带的这种小的这种芯片的话,就指的是这种单侧的芯片。

然后从使用方式上来看的话,我们把 Ai 的芯片的话其实是分成了叫做训练芯片和推理两种,我们再去做一个 Ai 识别的对物品的识别的一个应用上来看的话,其实是需要非常多的像图库的一种照片,然后我们需要通过很多工作人员,对于这些照片里面的人还有一些物,然后通过一些这种人工标注的这种方式的话,把它根据不同的特征做一个分类。
通过专用的数据处理模型,在训练卡上面的话是要做训练,这个时候用到的是训练卡。
这种训练卡的话往往都不会是说由单个的一张卡的组成,往往都是一个集群,一个训练的集合纵投研>

群。
我们再通过大的训练集群,把整个数据库的做了一个训练之后,我们会得成的一个经过优化的模型,这个时候所生的模型,我们会把它导入到我们刚才所说的叫推理卡,放到推理卡上面来去做一个推理。
经过推理卡的处理,比如说在通过手机解锁,包括像一些这种通过熟悉的 APP 这边的话去扫描某一个物品的时候,能识别出什么样的一个物品,这个过程中的话就能够去做一个对比,这个时候用到的就是推理卡。

国内的话,因为这几年因为资本的涌入,也有很多的一些这种创业公司的一些涌现,也出现了非常多的一些这种优秀的创业公司,比如像华为、寒武纪、燧原、 B 站、百度、穆希、登临、翰博等公司,这里面的话不同的公司,往往把它统称为 AI 芯片创业公司,但是他们这些公司中的话其实也有走的是不同的一些这种技术线路。

像我们从公开资料上所能看到的 b 站,木系,他们走的就是通用的 GPU 的这么一个项目,像寒武纪百度走的就是叫 dsa 的这么一个技术嵌入。
我们提到 dsa 限度的话跟 asic 比起来的, asic 是属于一个专用的芯片, dsa 的比 asic 的芯片有更好的通用性,因为它是可以进行编程的。
跟通用的 GPU 比起来的话,它会有一些这种同等工况下上面这种线上的一些优势。
但是从整个产品支撑上来讲的话,我们所能够看到的各家所对标的7纳米左右的合纵投研>

一个制程的话,基本上现在都还是像台积电所做的一些流片。
国产卡的话,我们通过一些院士所公开报报告的一些资料上来看的话,我们国产卡像中芯国际大概现在成熟的制程的话也是还只能够停留在28纳米,28纳米以下的话整个良率、还有整个生产过程中的话,现在还没有得到一个非常大规模的使用。

因为中美之间的关系,现在也确实是有很多这种国产的初创公司也积极的在跟中芯国际做一个对接,然后希望是说能够帮助中芯国际的话尽快的完成14纳米,甚至是更下层的一些这种支撑的成熟,我们再评价一下算力芯片好不好用,其实很非常直观的一个点的话,主要是看它在同等功耗下的一个算力值,3d值越高的话代表着参数产品的性能的话就越好。
目前我们国内的创业公司的话, AI 创业公司大都对标的是像英伟达,英伟达的话绝对是我们这个行业内的一个标杆,我们大家都属于追赶的阶段。
通过这几年的一个发展,国内的很多的芯片公司的话也经过好几次迭代,我们的差距从整个算力的差距上来看的话,我们现在不断的在缩小,但是像跟最新的英伟达的旗舰产品a100和h100比起来的话,我们还是有一些距离。

这是从整个算力的硬件从整个软件生产上来看的话,英伟达的 CEO 在多个场合去讲过是说因为它合纵投研>

其实本质上它是一个软件公司,他是从2006年开始的话就在发展。
他们的叫扩大的生态。
全世界的 AI 从业人员,大部分都是基于扩大来去做的科学研究,经过十几年的发展扩大,已经包含了很多的一些那种数学库编辑等工具,许多开源的 AI 框架模型,也都是基于扩大来去做的一些编写,这也使得很多科研人员其实只需要专注于他们自己的这种科研领域,而不需要关心底层的策略是怎么来去做的一些实践,把用户的习惯培养得非常好。

其他像我们这种初创的 AI 芯片公司的话,想要去与英伟达竞争,去抢占一些英伟达的一些份额的话,我们其实也是需要去改变用户的一些习惯的。
甚至是说我们能看到的是在一些初期的过程中的话,我们很多一些芯片公司的话,会出一些人力,帮助客户把之前在扩大上面所使用的一个比较成熟的这种模型,一直到我们自有的这种的软件在上面去,这里面会涉及到大量开发的工作。
我们也能够看到是说有些芯片公司的话对外宣称是说能够兼容扩大,由于当然也是由于这样的话,他们的一个好处在于是说产品设计出来之后的话,可以在不需要大量的一个迁移的过程中的话,就能够直接去把整个芯片的算力给使用给发挥出来。

但有一点是说扩大生态的话并未并不是开源的生合纵投研>

态。
我这边有听到消息是说因为扩大也是分不同版本,现在是已经发展到了扩大11扩大12,有听说是英伟达是从普打10开始,以后的版本将不允许其他的芯片公司去使用,这样的话基于扩大生态的这种芯片的一个开发的话,后面的话一个迭代性可能就要会遇到一些问题。

我们国内的很多一些公司的话,包括像华为在内,我们也都在积极的打造自己的这种软件平台,打造自己的软件的生态。
有些公司的话现在也能够看得到的是,在有一些国家的实验室,还有一些这种头部的高校进行一些人工领域里面的合作,由厂商这边出一些技术专家,然后以教科研领域里面的老师学者进行一些深度的合作,然后去培养用户的习惯。
这种模式的话其实是需要大量的时间,然后也需要一些芯片公司的这种资源上一些投入,这也是英伟达最早期的时候所采用的一种线路。
因为它最早期的话,它是通过消费级的市场所赚取的一些利润来去养活整个 AI 芯片的一个研发。

从整个算力用户上来看的话,国内的这种算力用户的话,主要的是分教、科研,还有政府的一些商业中心,互联网、安防等领域,这两年自动驾驶的一个兴起,对算力也提出了比较高的一个要求。
我有听说 chatgpt 出来之后,国内的某互联网公司在3月份采购了大约有将近1万张的a800。
互合纵投研>

联网平台公司属于有人有技术有专业的技术人员,然后也有大量的资金,然后他们也有很多的一些这种应用场景非常适合发展 AI 的应用。
各个国产的 AI 厂商的话,也是把互联网用户当成一个非常重要的堡垒来看待,都在努力争取一些这种市场份额,但互联网大厂的话一定是基于产品的性能和性价比来去做一些这种选择,因为它不会有一些政策性的国产化的一些要求在这里面。

在采购三 d 卡上面的话,一定还是以性价比为王为先。
我们国产的卡的话,现在互联网的像一些这种搜索,还有一些这种视频处理等一些领域的话,也有一些突破,然后也进行了一些这种批量化的应用,包括像在腾讯的王者荣耀的这种人机对战,还有一些我们所使用的一些这种微信的语音转文字,这些的话都有用到一些我们国产卡,现在能够见到这种国产卡的话一个大规模的一些部署。
国产算力卡的话也确实是面临着英伟达碾压性的一些竞争。
在高端三 d 卡上,尤其是去年美国这边发布了一些这种新的高端技术的政策。
以a100作为一个标识,凡是高于此型号的一些产品的话,都面临着无法向大陆这边来去供货,然后国内芯片的话,如果是产品设计的话高于A100,也可能面临着是无法名片的这么一个局面,那芯片公司的话,面对这样的一些组件的话,其实也是非常尴尬的,如果把产品的能力设计的过高的话,可能就直接面临着美国的一些这种实体订单合纵投研>

等等一些这种政策性的制裁。
所以很多公司刚才也说了,也是在积极的拥抱一些这种国产的代工像中芯国际这种代工厂。
我们也只能够是寄信希望于是说中美关系将来如果出现比较好的一个现象之后的话,能够把整个芯片的支撑等等这方面的话,能够得到比较先进的一些技术和应用。
美国对国产芯片的一个限速,从某种意义上来说的话,其实也帮助了国内的一些用户不得不使用一些这种国产的芯片。
从这个角度上来看的话,其实是有利于国产芯片的一个发展的,尤其是涉及到像一些国防,包括像一些金融的这种关键领域的应用的话,国家也在出台一些相应的政策来去做一个引导,一些用户单位也是采用这种国产化的替代。

我们讲到是说国产,我们讲到了最近比较火的 chatgpt ,为什么是说能够得到一个大家的普遍的关注?其实更多的还是来自于一些信心,现在 chatgpt 它的参数规模的话是达到1700多亿,从整个它的一个表现来看的话,我们在传统的一些这种应用上,它可能是某一方面可能通过一些这种人工智能的技术,然后我们能得到一个比较好的专业的反馈,其实没有得到这种普世化,现在的话 chatgpt 给大家其实更多带来的是一个信心,就是我们再去通过一些这种人机问答的过程中的话,基本上每一条很多信息大部分都能得到一个比较惊艳的回答,我的看法是未来 chatgpt 在合纵投研>

国内这边的话,一定还是会面临着一个同一个比较大的发展,就是发展国产化的这种 chatgpt ,因为现在 chatgpt 主要是 open Al 这边再去做一个管理,国内的话其实更多的还是要考虑到将来的一个数据的安全,还有一些这种从基于中文模型, chatgpt 的话大概现在目前是用了5%的中文的模型,它整个中文的问答的质量的话,其实还是有比较大的这种提升的空间的。

未来的话我们想象到的是可能会在一些这种人机对话会做一个比较大的升级,我们现在的话像一些在家庭里面所用的这种像智能家居这种,我们的一些问答可能还是比较傻瓜式的,然后我们可以非常容易的能判断对方的话就是一个机器人, chatgpt 火了之后的话,如果给大家一个信心就在于是说以后我们的人机对话可能是对方会像一个人一样的带有情商的这么一个问答的模式。
另外的话可能会往一些这种专业领域上进行发展,比方说像我们的一些这种财务上的应用,我们可能会通过对某个公司的一个这种财务数据的分析。
我们不需要再去调取大规模的一些数据,我们可能只需要是说一句话一个问答,然后就能够呈现出一个比较高质量的回答。

接下来的这位专家是来自大连德泰超算中心的总经理宋总,也是我国北方地区最大的一个人工智能超算中心,宋总博士期间是专攻 chatgpt 的研合纵投研>

究,曾经从事过大模型的研发,他的演讲主题是共同迎接数字化未来。

可能人工智能这个词最近可能有随着 chatgpt 发布更加引人关注了。
现在人工智能这个行业对传统产业的改造,是咱们大家有目共睹的,像我们智慧医疗领域可能目前医疗影像的识别这块已经远远超过了我们传统医生的识别的准确率和效率。
像在智能交通领域,咱们深圳也一样,通过人工智能算法使得每个人的出行的时间缩短了17%,这是有专门研究的。
然后包括我们的人工智能的客服,现在大部分的企业涉及的客服系统,现在

70%以上都已经是人工智能客服,所以说人工智能在未来的几年内,对我们传统行业,包括政府体类似智慧政务这方向有一个很大的提高和改进。

同时我们研究2025年以后,所有企业对于 AI 的采用率将会达到86%,这是一个很高的水平,我现在也不考虑。
然后最近咱们国家也出台了各类的政策发展人工智能产业,像国务院工信部,还有科技部、发改委都相继出台了这些政策,但是对于我们国内现在的产业发展,其实也有一个4大瓶颈。
第一个就是国际竞争格局,尤其是美国对咱们中国的高端芯片的出口限制之后,对行业的发展是一个带来了巨大的挑战。
第二个就是基础理论的研究这一块,其实可能咱们从事这个行业的合纵投研>

人都知道了,中国在人工智能领域的应用上可能有一些进步,但是实际上它的基础里头很多都是国外的,包括一会要讲到上次做的人工智能的神经网络,这块很多的基础算法都是国外提出来的,所以我们基础研究这块是一个短板。
第三个就是我们这个基础软件和开源框架,可能大家都知道现在人工智能这个领域,尤其是软件开发,人工智能研发这一块,我们大部分框架现在用的都是 Facebook 的配套审核,谷歌的 txt 里面占据了99%以上,实际上我们国内各大投顾互联网公司也在做相关工作,但是它的市场占有率还是非常微弱的。
最后就是我们高端人才,我们现在芯片的研发也好,刚才说的基础,基于这个基础理论的研究,都需要有高端的人才去做支撑。
chatgpt 刚才专家也讲了,可能大家都知道,一个亿的活跃用户只用了60天的时间,这个是非常惊人的。

我们可能传统的互联网公司得用一年,可能甚至用两年三年的时间达到这个水平是非常不错的,在近期只用了60天,它的成功在于我觉得有这么几个方面,第一个它敢于质疑不正确的假设,第二个他对回答不了的问题和不正确的答案,他敢于直面问题。
第三个就是他对人类的意图大幅度的提升,理解人的免疫程度大幅度提升,最后就是它的准确率也有了大幅度的提高。
合纵投研>

然后说 chatgpt 简单的发展历程,其实机器学习这个领域经历了这么几个阶段,第一个最早的时候都是基于规则的一个学习,那个时候大部分从业者在制定不同的规则,比如说在机器翻译领域,可能对单词的发音效果程度,可能跟对于这种母语,如果是我这个母语的话,一看都看不懂什么意思,所以我们要不停的去调整这个规则,当出现这个词的时候,这个词应该翻译成什么样等等这种规则,会变上百条上千条,但是实际上也涵盖不了我们所有语言的一些规则,这是最早的研究。
后期有了机器学习,统计机器学习这一块,可能出现了一些算法,像 SVM 等等这些算法,他这种模式是在语言里边提取一些特征,通过特征和数据的训练,都当时就已经有这个思想了,通过特征和特征模板再通过训练来拟合数据,然后达到一个比较好的效果。

其实学习的发展过程后期,伴随着我们算力芯片的性能的提升,出现了其实人工智能这种神经网络这个算法在90年代就提出了,但真正爆火是在

06年之后,因为之前有了理论,但是没有这个数据和我们机器芯片服务器来支撑,所以没法达到很好的效果,而且神经网络这种模型在数据量小的时候,它的效果还赶不上传统的统计学机器学习。
然后后来革命性的一个节点就是我们2017年提出了叫 transformer ,这个就是在传统的神经网

终其础卜加入了这个叫注音力机制什从音黑合纵投研>

呢,就是一篇文章在我们人看的时候,我们关注的可能是那里边的几个关键字,传统的神经网络可能把所有的信息都写进去了,学完之后最后可能效果不是很好,因为他里边有很多的杂质。

然后加入了注意力机制之后,我只关心对于整体理解有用的信息,我把这个没用的一些信息我给排除掉了,所以它达到了一个很好的效果,它是专门有抵扣的。
顶多都是编码,底部都是解码这两个模式条码。
chatgpt 这条线用的是 transformer decoder ,然后 bert 这块可能也知道,我的博士论文也是基于 bert ,其实 bert 最早的一个大模型,在11项自然语言处理任务上,当时18年提出的达到了最好的效果, bert 的成功直接导致了我们现在大模型的发展,这是整个的发展历程。

然后我们再回来说 chatgpt 为什么有这么好的效果。
其实 chatgpt 在gpt3的基础上增加了叫强化学习,强化学习这个概念最早是用在阿尔法 go 上,当时阿尔法 go 咱们大家都知道,它的核心是奖励模型。

什么意思呢?我们在做一个任务的时候,比如说下围棋,下棋的过程中,我的核心目标是要赢,我赢的话我给他多少分,但是他每一步走会直接影响最后的结果,他每一步我也给他设置一个分

数。
但是这个分数可能没有最后赢的分数高,打合纵投研>

个比方我赢了我给他加100分,但是我在每一步走的时候走得好,我给他加一分,通过奖励模型来不停的训练他每一步的手法,然后最后达到赢的效果。

其实我们在 chatGDP 上把核心思想给融入到了我们在gpt3里边,所以在我们自然语言处理这个领域达到很好的效果。
实际上就是说但是它可能还有其他的原因,就是它的数据量非常大,它的参数量也非常大,所以整个结合起来,我们达到了这么好的效果。

目前各个厂商可能都在布局大模型这块,大模型的模型参数也是越来越多,可能从最早的百万级别,现在可能都达到了几千亿的级别才能进, Gpt 现在可能没有最终发布完全,Gpt3的参数量都已经达到了1,750亿,包括最近谷歌、微软和英伟达的图灵现在都已经达到5300亿了,然后谷歌的租赁 LG 现在都已经达到了1万亿以上,这是第一个1万亿以上参数的模型。

所以说下一步随着 chatgpt 的成功,各个大的厂商布局大模型是一个大的趋势,而且这个是有一定的壁垒的,小的公司因为资金技术各方面的限制,没法在这里边有更多的突破,可能会在这个大模型及后续的微调做一些细分任务的时候,他们小的人工智能公司可能会在这个地方重点去布

局。
合纵投研>

说到这我也想给大家科普一下, da 波形到底训练的是什么,为什么它需要这么大的算力?实际上我们可以通过一个简单的任务来去理解右面,这个是一个我简单列了一下,比如说我们做一个房价预测的任务,我们假设是房价预测只是受到两个因素的影响,房间个数和面积。
然后最终我们现在要预测这个价格,但是我们前期有一定的数据量,我列了几条数据,打个比方两个房间数是两个,面积是60平方,价格是120万等等,然后有这些数据,我们现在要预测房间面积是130平的时候,它的价格是多少,其实这个数据在原来我们的数据记录员是没有的,我们怎么去做预测?

这样我们就要做建模,然后我们用线性函数来做一个拟合做一个模拟,实际上这就是一个二元一次方程,通过我们这个数据是可以求出来,但是不一定有解,因为你可能现在是有三个变量。
但实际上三条数据不一定能求出来,因为它不一定是完全一个线性的关系,但是我们怎么去做这个事,机器学习里边这是核心的,是叫损失函数,要有一个损伤,损伤什么意思呢,我们通过建完模这个函数去求出来的值跟实际的值,它的差最小就说明我的模型是最好的,是吧。
我们现在可能提交数据,下载 gpt 可能上千亿条数据,我们要通过把上千亿条数据带入到这里边去求它的导数,然后求它的加和乘法,这样不停的做运算,合纵投研>

运算完之后而且还要迭代。
一般情况下gpt3是迭代了100次,这么大量的数据这么去算,然后又要迭代100次,所以他算力就是消耗在这个里边了。

当然现在 Gpu 这个领域还是以国外的芯片为主。
那么80%以上都是英伟达的芯片,剩下的20%里边大部分的都是 AMD ,这两个厂商基本上占据了

90%多的市场。

然后我们现在尤其这两年跟中美关系不好之后,也对国内芯片厂商来说也是一个机会。
我举了几个比较著名的厂商的一些例子,跟英伟达做一个比较,病人科技的第二百,目前来讲的话,在 GPU 领域在国内算是比较顶尖的。
它是在32位的性能上已经超越了100,但是它不支持64位。
现在我们可能就跟美国差好几代,他们的属于高端芯片了,支持64位就能属于高端芯片,它不支持的话可能还达不到这种高端芯片的要求。
所以我们可能跟美国的技术至少差了4年,就4年就是一代,这是一个我们芯片这个领域的情况。
其实从算力这个角度,英伟达为什么能占据这么大的市场?因为他有一个 GPU 的生态叫 Cuda ,相当于是叫 GPU 操作系统。

我们可能都知道现在操作系统大部分都是微软的 windows 是吧,是因为它已经占据了个人,包括服务器的领域的大部分的市场,所以他再去做别的事就非常简单了,英伟达是把它的扩大跟它的合纵投研>

芯片结合得非常好,所以现在你很难去绕过它的生态,包括 AMD 可能10年前布局它也布局它自己的生态了,但是现在已经10年了,他有了自己的一定的生态,但是他以后必须兼容以后才能往下做。
但是我们国内这些厂家它芯片大部分都是基于一个开张框架叫分销,从通过来去做的生态,所以这块它没有核心的东西,它本身就是开源的,所以你未来想做这个做生态是比较难,但是可能我们现在有些同步的互联网公司,它也在研发自己的生态,像华为阿里都在做,这是我们一个简单情况。

然后我再说一下 AI 这个领域可能大家比较熟悉的就是训练服务端和推理服务端训练这一块,训练端它要求的是精度和效率,他可能不太在意能耗这些东西,但是推理端相反,他可能更在乎的是能耗,因为你要把推理服务器是你比如说你放到手机里,然后放到摄像头里了,这个放到工厂里边了,他可能对要求比较高,两个可能是从这个方面不太一样。

然后刚才回头说一下几位的问题,就是说支持64位的浮点运算,还是32位或是16位的,说白了它就是一个在计算机里面的存储不一样,它实际上直接导致的就是它的数据的精度,可能64位的计算,他在计算机里边存储就是用了64位来存储一个数,有一位是符号位,11位是指数位,52位是合纵投研>

小数位,他支持小数点后16位,这是16位怎么来的,可能就是2的52次方分之1,它就是零点零零零几,后边16个点是这么来的。
具体就不讲了,因为专业性太强了,可能讲有点太啰嗦了,我只是想给大家讲一下。
支持的位数是决定芯片的等级的关键的。
但实际上我们在用的时候,它并不是说所有的这个领域都需要用这么高精度的芯片去计算,因为你很多的计算你根本用不到,后边

16位可能几位就够了。

但是对精度比较高的,像化学、分子模拟、分子建模、流体力学等等,像我们招商中心,我们大连的人工智能创业中心,一些高性能的这些部门,基本上跟中科院化物所合作的,他们的这些分子建模、物体力学这些,它研究这个方向它要求精度特别高,但是其他的像像我们图像处理,这个大家语言处理,还有语音识别等等这个方向,其实32位就已经足够了。

所以我们现在一个发展方向是什么?因为芯片的

发展它肯定是有个时间过长的,现在可能100,现

在出来h100,也一般超过12倍。
但是再出一个更

高的可能还得隔很多年才能出一个这么样好芯

片,因为它摩尔定律环游规律,但是我们通过什

么方式可以解决这个问题,就是降低它的精度,

降低精度了,就相当于它的运算的速度已经上来

了,通过这种方式解决问题也是现在一个趋势。
合纵投研>

这样推理端回头说一说,推理端就是主要是把训练好模型之后,训练是在一个集中的大的服务器里边去训练好这个模型之后,把这个模型相当于简单的理解就装到这个推理服务器上,通过这个推理服务去解决中各个用户的问题,它相当于它没有训练的过程,它是直接有一个疏忽。

刚才比如说房价预测,我训练好一个模型之后,我装到数据服务器里边,我输入它的面积和房间数,可能通过推理服务器直接得出来它的价格了,这就是推理式服务器要干的事。
比如说图像识别人脸识别,我们把人脸识别的放算法,通过训练服务器训练好之后,把这个模型装到这个的摄像头,其实就是高端的应用项目,就是一个简单的里面有个推理卡,放到推理卡之后,把你的人员的照片一输进去,你就知道这是谁了。

所以推理服务器它要求的算力不会那么太高的精度,但是更重要的是它的一个是响应速度,再一个就是它的能耗,这些比较关键的。
然后我再说一下算力这一块,算力其实我们现在可能主要就是刚才说了两种产品,一个是人工智能的计算,一个是高性能计算。

刚才说到64位32位就是高性能计算,然后 ai 计算可能比较低一点的。
Intel8或者说是IP16这种叫人工智能专利,但是这里边人工智能算专利也分了,现在目前发展也出现了很多种模式,以前都合纵投研>

叫 GPU ,英伟达提出来这个概念, GPU 最早是做这个图形的处理,后来就变成了通用的 GPU ,通用 GPU 比如说大量的并行计算,目前又出来叫 npu 和 tpu 。

N 神经网络的意思,他专门做神经网络的训练,他

做不了科学计算,只能做神经网络训练,但是现

在大部分的 Al 训练算法都是神经网络算法,所以

它非常适用于神经网络。
Tpu 叫 tensor 。
他把我

们的神经网络计算的一些矩阵直接嵌到我们芯片

里边了,所以它数据量速度也特别快。
还有就是

TPU 可能要跟 CPU 配合来一起用,做一些并行计

划,然后有一些逻辑运算,还有事务处理等等。

复杂的这些工作还是 cpu 来做,他俩之间是通过 PCL 总线来去调度的。
Npu 和 tpu 有什么优势,它是一层一层去计算,它跟 CPU 之间不需要有大量的交互,它神经网络就是一层一层的,第一层训练完的数据直接可以再传递到下一层,不用中间去做一些交互,所以它的速度也能也在特别适合做神经网络的计算,这是一个区别。

然后现在刚才说大模型,我们国内外一些大模型的布局的一个情况,现在可能大部分的大型互联网企业,还有做芯片的一些企业都在布局大模型,到目前的发展的趋势,它的参数数量会越来越多了,数据量也越来越大。
然后主要的模型的类型还是集中在一个多模态,指的就是支持多种合纵投研>

任务,像自然语言处理、图像识别、语音识别都能支持,还有专项的,比如说像百度的,还有像浪潮这些只是做了一些 LG 的模型等等。

目前一个趋势模型越来越大,然后参数数量也越来越大,数据量越来越大,要求的算力也越来越高。
目前根据我看来的预测,全球的范围需求每

3.5个月会增加一倍,这个比摩尔定律是18个月差了5倍,现在这个战略需求越来越多,所以说我刚才说我们可能在大连建的专业中心也是为这个产业发展做服务的。

下面简单介绍一下我们大连人工智能专业中心,我们算力中心是21年规划,去年22年一年建设,去年12月24号正式上线了,一共当时规划了300p的 AI 专利和10p的 HP 计算 HPC 专利,然后我们第一期已经建成了100p的人工智能算力和5p的高性能算力。

其实我们做这个事主要做哪些事?就是4大方向,第一个就是我们公共算力服务,我们建厂了,我们肯定要提供算力服务,但是这个算力宏图说实话,其实这是一个非常高投入的,就相当于新基建,现在国家提出叫新基建,我们做的是这样一个事,所以你要是想通过算力的销售来回收成本是去挣钱,其实是很难的一件事。
为什么?其实因为本身建设楼体的成本不多,但里边这个设备是非常贵的,像英伟达的100这些,它的价格是非合纵投研>

常高的,而且它是有一个折旧是吧,一般像这种芯片服务器类的,就是5~8年,5~8年之后新的芯片出来了,你这可能就落伍了。
所以就是说它是一个高投入,而且现在不像传统的云计算云存储这一块已经是非常成型了,它的盈利模式都很清晰,但是其实算力中心的建设对于中国来讲还是比较早期的一个阶段,所以他通过创业来去回收成本是比较难的一件事。

然后我们还有哪几个事要做?其实我们当时建算力中心更多是为当地的政府去赋能。
首先第一个就是应用孵化,创新这块,我们可能最多的是跟我们高校和科研院所去合作,科研院所和高校的特点它有很好的算法,模型数据这些都有,但是现在可能各大高校现在算力也是比较紧缺的,所以我们给他提供一个算力,然后它有一个什么弊端,就是产业落地,这块科研成果转化是一个它的软肋,我们企业可能更多的给他去对接一些下游的企业,需要用到这个方向的企业,通过这个企业的对接,我们去创孵化出一个我们人工智能方向的一个叫创业企业,然后通过企业的发展来带动我们的一个远期的投资回报,这是一个应用孵化创新。

第二个就是产业聚合,聚合这块可能更多是给政府带来一个效果,因为现在这个算力需求越来越高,如果说你一个企业想做人工智能产业,你没合纵投研>

有算力,你是根本没法做的。
我们通过在大连建了这么一个算力中心,然后吸引使用到算力的这些企业入驻到我们当地,给政府带来一个税收,包括就业的的这么一些提升,通过这个来回收,是因为我们有一部分资金肯定是从出政府给我们出资来去做这个事,但是实际上现在前期我们投资还是有由我们企业自己来投的。

最后一个就是科研创新这一块,科研创新和人才培养,虽然现在人工智能领域也有很多高校也在布局科研课题,但是实际上我们现在可能在市场上人工智能的人才还是非常明确的,所以就是说我们是通过这个算力中心来给高校和培训机构提供一个实训基地,你在我的算力上你可以做实操,以前他们更多的是去做一些理论的研究,去发表一些论文,但是我现在可以给你提供这样的一个平台去做一些实训,然后通过这种方式培养当地的科研人才,然后和科研人才就是人工智能方向的一些人才,然后让入驻到我们企业。
有入驻到我们当地的一些企业,给他对接这些相关的人工智能的人才,给就业这么一个逻辑。

所以我们现在就是说我们主要做的这个是平台的工作,因为今天主要是跟目前这些相关的,所以我简单说一下我们的一些成果。
我们其实从去年开始建设,但同时当时没建成的时候,我们就已经开始做运营了,现在我们算力饱和度已经达到合纵投研>

百分之七八十了,然后同时我们跟一些高校科研院所也也研发了一些大模型,专利是我们来提是供,然后大模型主要是以科研院所高校的教授团队为主。

我们现在前两个已经是在科技部认证了,第三个现在正在做这个事儿。
大模型训练这种大模型是一个细分领域的大模型,跟刚才实际上在 chatgpt 可能有些区别。
水分子想做大模型,它主要是应用于大气雾霾的一些治理。
然后第二个分子大模型是可能在医药研发这一块会提供一些帮助,然后多元机器翻译就不用说了。
但这些领域我们合作之后是要往下一步要做什么,我们要通过一有两种方式,第一种就是我通过我的云平台开放我的拍能力,比如说我这个单位训练好了,我就跟 chatgpt 的交通事故一次收集积累,当然那个是很相似的,我们下一步要跟高校合作,因为我们前期给他提供这个专利是非常优惠的,所以我们前期有个合作协议,通过这种方式我当时就训练好之后,我通过 API 调用一次多少钱这种方式,这是一个盈利模式。
再一个就是我们这些大模型会放到有相关需求的服务器里边跟服务器打包一起销售,每销售一台我们分成多少。
这两大模式,未来会有非常好的商业前景。

联系我们

在线咨询:点击这里给我发消息