第二百八十二章 买了它,毁了它 (第2/3页)
并。”
“虽然生态会打通,不过我们还是决定继续运营两个独立图形处理器品牌。”
“采取双品牌、双构架战略,以更好的满足市场需求。”
“毕竟我们的这两款显卡的技术构架并不一样,区别还是比较大的。”
“英伟达的显卡构架通用性更好一些,在消费级市场更受欢迎;而我们的OPA的显卡构架,脱胎于移动端GPU构架以及AI芯片的诸多技术,在功耗控制的更好,同时也更适合大规模并行处理上更好,相对比游戏支持性能,其实我们的OPA显卡更适合作为工具类的算力卡使用!”
“这也是之前为什么那么多挖矿的老板采购我们的显卡的缘故,也是大量的专业人员购买我们的显卡作为工作站显卡,充当生产工具的主要原因!”
哪怕不算其他因素,其实智云发售的OPA显卡,尤其是OPA1000显卡,也比英伟达现有的高端显卡更适合用来进行大规模并行计算,不管是用来挖矿还是用来训练模型其实都更适合。
某种程度上,这款OPA1000就是智云内部保密的AI芯片的大幅度阉割版……天生就更适合作为纯算力卡使用。
徐申学道:“这样的安排还是比较妥当的,就这么做吧!”
就在徐申学对英伟达进行拆分的时候。
谷狗旗下的一个AI技术团队,也是在一月下旬的时候开发出来了一种全新的基于深度学习的神经网络算法。
他们开发出来了这种新算法后进行了诸多测试,一开始也没多重视,因为在传统的CPU服务器上运行的时候,这种神经网络算法并没有体现出来太大的独特优势……哪怕是超百万美元级别的服务器运行也不咋地。
直到这个项目团队里的一个工程师,本着闲着也是闲着的态度,使用了个人PC上的GPU去运行这个新算法后!
奇迹出现了……这运行速度快的出奇。
同样的一个图像识别模型,之前谷狗用老算法,用CPU服务器,需要一千台CPU服务器来进行。
这也是之前谷狗等企业在AI研究陷入困境的主要原因,老算法不行,使用的还是CPU服务器,算法对CPU的算力需求实在太大了,可以说根本不具备什么实际价值。
但是在使用了他们研发出来的新算法后,搭配GPU服务器后,同样一个图像识别任务,只需要三台GPU服务器来进行训练。
没错,没看错,就是一千台和三台之间的差距。
发现这一点后,他和同事们迅速用显卡搭建了一个小GPU阵列,然后对算法进行了大量的测试以及训练。
最后得到了一个在图像识别领域里表现极为惊人的新模型。
这一发现,让谷狗方面的不少人极为振奋,尽管这一技术突破还有些差,距离智云的AI远得很,但是依旧让他们看到了AI的曙光。
很快,谷狗方面就公布了他们在AI领域里获得了巨大的技术进步,并在现场演示了其图像识别模型,顿时引起了业内的轰动……看这样子,似乎谷狗也在AI领域里获得了巨大的成功。
当然,人家也不傻,可不会去搞什么开源之类的,而是学着智云集团那样守着秘密不公布。
一些基本原理可以公布,什么深度学习啊,神经网络啊这些普通人都知道的东西随便说,但是核心的算法,那是一个标点符号都不会透露的。
这些核心算法基本都是一些企业里的核心机密,如果不是出于其他目的那么是不可能给你搞什么开源的。
大家都知道GPU更适合用来进行并行计算,这可不是什么秘密,甚至老早就有人这么干了,但问题是你得有相互搭配的算法啊。
算法和GPU,这两者配合在一起才有有。
光有算法没有GPU,那是白搭。
但是有GPU没算法也不行。
————
谷狗方面获得了AI技术的一定突破后,很快就找到了智云采购了一批显卡,而且经过测试后他们选择了采购了智云半导体旗下的OPA1000显卡。
因为谷狗的工程师发现,智云的OPA显卡,对比英伟达的显卡更适合用来组建大规模的GPU服务器阵列,也不是说单纯性能更好,而是功耗更低,性价比也更好一些,综合算力成本更低。
再加上现在的OPA显卡也支持CUDA软件,后续开发也没什么问题。
如此情况下,自然是购买OPA显卡用来组建阵列更好。
对此,徐申学并没有拒绝,OPA显卡本来就是消费级显卡,谁来买都可以……再说了,谷狗买不到OPA的话,转身就会去找AMD采购ATI显卡,差一点又不是不能用。
ATI显卡虽然游戏性能差一些,但是算力也不算差,之前也有很多矿老板使用AMD的显卡进行挖矿的。
只不过去年年底开始,矿老板们的心头最爱就变成了OPA1000显卡了。
如果智云这边拒绝接受外国的高性能显卡订单的话,说不准还会刺激ATI还有英特尔,高通等芯片厂商研发更专业的算力卡,朝着AI芯片的路子迈进!
这几家也是有着GPU业务的,对GPU领域有着不低的底蕴,真让他们现在就搞起来,说不准过几年又会培养出一个新的厉害竞争对手,而到时候智云没办法收购他们。
因此还不如敞开了卖,只要你给钱,英伟达旗下现有的各类显卡,什么780,TITAN以及OPA1000直接敞开卖,随便采购……智云要用这三个旗舰产品,直接把当下并不算大的挖矿市场,AI模型训练市场尽可能的抢过来,顺带堵死其他厂商的道路。
只是……就算是受到了谷狗的GPU订单,也没能给GPU事业群部门带来太大的营收提升。
一万片显卡,营收几百万美元。
咋一看似乎不少,但实际上对于智云集团的GPU事业群而言,这点营收根本不算什么……当下的外部AI市场,带来的营收还没挖矿市场大呢。
主要是谷狗等企业的AI发展,依旧受到了AI算法限制,难以大规模应用化。
他们的AI项目,目前还处于研发阶段,主要是用来进行各种试验,测试,而不是大规模应用,如此一来对算力的需求自然也就小了。
目前来说,AI技术已经比较成熟,可以进行大规模应用,尤其是商用的只有智云一家,因此真正对GPU算力需求量大的,其实是智云自己,而不是其他什么企业。
可以说当下的GPU算力需求里,智云一家几乎独占了百分之九十五,相当夸张的……只不过智云自己也不用普通的显卡,而是使用自研的AI芯片。
最新的Ai3000和消费级的OPA1000,差距是全方位的,算力上大概是两倍的差距,但是显存上四倍差距,而最惊人的是通信带宽上的差距,足足十倍之多。
尤其是通信带宽的差别,这影响模型训练非常重要的一个数据。
毕竟采用大量显卡组成服务器阵列的时候,其数据交换是极其庞大的,而普通显卡的通信带宽太小,由此导致训练效率很低,速度缓慢……当然,这个训练速度慢只是对比说法。
实际上哪怕是消费显卡的训练速度,在谷狗的工程师们看来也是超级快了……只是如果他们看过了智云的AI芯片的训练速度,恐怕会怀疑人生!
智云集团的所谓AI芯片,其实就是针对普通的显卡在进行大规模计算的时候,所遇到的一系列诸多难题,然后针对性的解决改进。
通信带宽太小,那么我就研发全新的通讯技术,然后一口气把通讯带宽给加大了十倍以上。
显存太小,那就塞进去更多的显存。
算力不够,那么就往GPU核心里塞进去更多的晶体管提升算力。
当然,这里头还需要专门的软件支持,为此智云集团还专门开发了好几个的专门软件,这样才能够发挥出来AI显卡的强大性能。
最后硬件和硬件整合起来后,就搞出来了所谓的AI芯片……不干别的,就专门用来跑AI模型。
而AI芯片的这一系列改进或者说技术特点,智云可是从来没有对外公布过。
等其他AI厂商发现诸多缺陷,然后反馈到GPU厂商,再针对性改进,又得开发一大堆适配的软件,哪怕一切顺利,哪怕从今天开始搞,估计也得两三年时间才能初步搞利索。
他们想要追上智云的步伐……不考虑半导体设备或耗材制裁的话,那么几乎不存在这个可能性。
因为他们在追赶的时候,前头的智云也在前进啊,而且前进的更快。
智云的AI芯片都已经迭代了三代了,预计明年还将会基于22纳米3D工艺推出下一代的AI芯片,也就是AI4000。
他们追个毛线!
之前距离智云最近的是英伟达,但是英伟达已经被智云收购,并在收购后作为智云旗下的一个独立品牌,彻底转型消费级显卡领域。
而另外三家,也就是英特尔,AMD以及高通,他们差距太远了……连消费级高性能独显之前都玩不过英伟达,更别说什么专业级别的算力卡,甚至更高一级别的AI芯片了。
别看都是GPU,但是彼此间技术差异非常大的,不是想要跨行就能随便跨行的。
——————
随着谷狗方面也在AI技术上获得了一定的突破后,其他各科技企业就更着急了,开始各种折腾,市面上一些搞AI的创业公司,但凡有点成绩出来都可能迎来这些大公司的关注。
只要有可取之处,那么很容易就能获得高价投资或干脆是收购。
这也导致了当下的AI技术领域,已经成为了新的风口,不少创业者都选择了AI领域进行创业。
当然,能够获得成功的没几个。
AI技术虽然热度高,看似遍地都是钱可以随便捡,但其实技术门槛非常高,光是算法这一条就能直接把绝大部分想要跑进来捡钱的创业者给卡在门槛外头。
AI领域从开始到现在,一直都是高科技巨头的游戏,和普通企业,创业者其实关系不大。
而在深城的徐申学,在收购并拆解了英伟达后,已经不太关注这些事情了,提前扼杀了威胁后,后面AI领域按部就班的发展就行了。
反正半导体基础水准就摆在这里,也没办法超前太多了。
毕竟再怎么样,用现在二十八纳米工艺搞出来的AI芯片算力也就这么点。
AI的后续发展,比拼的是
(本章未完,请点击下一页继续阅读)