login
联想与阶跃星辰AI合作探讨
2025/09/01·StepFun can make mistakes, check important info.
总结梳理一下 如下的通话纪要,这段话是两个人在谈论,简单转写后的记录没有区分注意说话人,尝试语意的角度区分一下,提示:里面一个人是来自联想智能云 负责政府和大企业做私有化的营销相关的人,询问大模型公司阶跃星辰的AI架构师,在AI这个领域双方的合作点;这个段通话纪要是语音转文字后的,有很多错误例如 基模 误转成了 鸡膜等很多处的音同字错的情况,请注意辨别。简单转写的全文如下:是,我们团队是主要做那个私有云,以及私有化的一些a,i的一些方案。嗯然后那个因为因为创那个创投那周,那时候那会也比较忙,然后那我还出了几天没没,本来是我们要去看一看各家的那个也没太去特特别去研究。然后后来就是看了一下那个清单,我们就挑了一下,想去再去看看有哪些可以去合作嘛?然后这创投吸让我们业务部门能和咱们的这个被头企业一起有做一些事情的一个,这也是大家鼓励的一个方向。对,嗯,所以后来那个我,所以我就找到了你我您这边,然后我们是新我看我看咱这边是我们自自己是有有。不同类型的人有视觉的,有图像的,有有有语言的,多模态的,大模型,对吧?这都是自由的对吗?step对对step二这还是带不翻了,现在都在f三现在已经有了对我们是一个表,就是表优势在多模态的。嗯,这个大模型机作大模型是一个机模厂家对,嗯,然后我再看咱们有一个开放平台,是在吸收一些那种,嗯,是应用的厂商呢。还是希望说,嗯,他基于咱们这个积模去训练自己专属的模型我我我没有特别说实话,没有特别看懂咱们的一个。用业务形态对开放平台上,我们主要是一些api啊,它是面向这些开发者,或者是应用,或者是这种弊端的。啊,这种其实也就是为了做应用的他。这就类似于gppap。i豆瓣的c的1。6这种ap。i我们直接跟他们是跟豆包最近。豆包跟阿里千万竞争的会比较多一点,然后这个是开放平台整的他们一个。 功能和逻辑,然后我们完全给客户做这种模型的定制,碎化定制,这种是我们在弊端团队。单独把项目去讨论的。嗯对包括像我们想定一个。很特殊型号的模型去适配一个专门的场景,然后用特殊的芯片。啊,然后选一些很单独的数据这些东西我们在跟这些大笔都是有,都是有合作标有交流的。然后,金膜这一块的话,目前还能去做这件事情的积木少,或者说在国内。过得还比较ok的鸡模厂家其实也不太多了,是的,嗯,对,我们目前还属于一个在各方面。还可以,然后也比较,尤其是最近,其实我们在就开放平台那端就是开放的ap。i嘛。这个ap。i这个东西它就是一个。很扎实的,很实打实的,就是技术一线那种p。k。我们其实在这种手机的大厂目前也是。最近刚招完一个标,也是刚把那个直接把豆包给批出去了,我们跟千问一的啊就是这样,他其实是一个这种竞争很激烈的一个。模型的前线,这个我们其实也都还是比较有竞争力的,然后在这种私有化,包括像特殊定制模型的话,我们其实跟联想也是有合作,跟你联想研究院直接是有合作的。另外的话,像跟这些各大的这种终端厂家,我们的这个。合作也就比如说端模上的一些定制,往手机上定制一个端模跑做海外的模型啊,然后还有就是。我们会有一个这种自动,就是自动控制手机,自动控制电脑的一个。agent然后会有纹身,纹纹身图纹身视频啊。然后还有包括像在。 一些云上的一种,比如说,唉,就是这种知识库的方案啊,工作流啊,就这类似这些,我们其实属于能力比较全的。啊,什么什么样的东西都有啊,明明白了你这癌症是咱们自己开发吗?还是咱们主,咱们主要是做模型癌症的,主要就是靠。就是合作伙伴来做a症的,我们也会开发,因为有一些东西,有些伙伴他可能去,比如说deperysirch,我们这个是直接交付a症的结果的。我们的地步瑞斯是目前在国内应该也是首屈一指的,嗯,就目前像比如说。就我们实际上有pk啊,就像嗯,有豆瓣,它其实给b端的东西也比较差,然后。豆瓣肯定就是就基本上不咋行。然后另外的话可能反正目前我们比下来没有比我们好的。啊,就是deepre事是这个领域,因为我们接入了很多那种表现制级的信源在严肃场景上。做的都比较好,目前主要是跟这种四大在合作。ok那咱们那听起来咱们主要是卖那个模型的定制服务,还有些应用,这是我们的主要的商业模式。对对,主要的工作是这些,然后我们其实在不同的项目里面交付的。嗯,交付的内容不太一样。有的项目我们直接交付的是工作成果,有的项目交的是模型。有的项目我们教的可能是一个小模块啊啊啊明白明白就像现在就是像这个像oppo呀,打绿ps飞输。这些就是国泰君安,这都是咱的一些要点型的合作伙伴,是吗?对对对对咱的联想是除了研究院,有跟哪个业务部门在现在在合作吗。 嗯,可能目前是手机跟摩托。嗯啊,然后。其实研究院这项目也是我们,我不清楚你们算什么部门的,就是搞服务器的。嗯是就是新出的那种嗯,djspark那种个人不是一样那是那是那是那个什么呀?djxspark是我们下我们公司,我们叫pgx吗。嗯对对嗯pgs那那个那不是工作站吗?对对对对就跟因为他他其实他也是一个端一个端测对。我知道这个产品我很了解因为因为因为我们。因为我们这这个产品的营销是在我们工作站营销的团队,我们合作非常紧密,我们也在,我们也在,其实我们也在摸索这个。能够做一些什么样的事情?我们给他们做了一个项目是那个个性化大模型是搞给vlog做一些这种视频。嗯,编辑的那种东西好像听他们说也是要给y。y汇报的会员放在那个,这就这就是跟研究院做的吗。额就是前英总那边额我知道前云嗯嗯嗯也懒不慢,嗯。对那那边是有这么样一个事情,就是在定制模型,然后因为那个需要就是训练要要做一系列的这种。啊,其实那就是他。他的要求其实还很高。然后也是业绩比较新鲜的这个领域,然后在。啊,就是就是说白了咱们其实我觉得就是如果联想的话,因为本身我们是被头企业嘛,我们也是一个比较开放的态度,首先一个是说我们跟你们合作,我们肯定不能挣钱。啊呀,另外的话,我们跟你们合作肯定是说要把这个最先最领先的这个技术。 要要对联想打开,因为其实说白了你要去定一个模型,你是找你找阿丽,你去找豆瓣肯定没有人理。就正常的,不也不是说。就谁家他们都不会给你定制模型的,他们都是卖那种标准,标准化的东西,然后可能也就。但是我们正常,我们给这些额,就是普通的这种应用,包括w,p,s,我们不可能给它定制模型,但是说像联想。就像本身,一个是你们有这种很多那种端上的这种需求场景本身你们出硬件。这我们才可能会有一些啊,就是有这样更深入的一些合作吧啊,那我们这种那比如说咱们这种合作,就是咱您就说跟千英总这种专门这种合作,是说。我们,你们和研究院的团队一起来研发出这样一个模型之后,然后那后续。就是我这个这个相应的方案有了收益之后我们再分吗?还是怎么模式啊?他那个就可能是一种。嗯,就那个模式,基本上它是一个直接知识产权交付吧。啊,我们其实这道这道影响的话,我们都是完全开放,就这东西弄完了以后,这都可以交给你。就是不用分了那啊,不用分了那我们还是有一个,那我们还是要支付一个服务的费用吧,他们对对对对对就会开发明白就ok。明白了,嗯,对这个,反正整个要要单台的去落地,后续按ss的方式还是按a,p。itoks调用?还是直接开开发费?然后还是综合的话都可以嗯。哎,那我们现在这期,这一期也可以像这个世界模型多么太模型,我们这是现在是开源的币。 我们的都是闭缘的,但是你们如果要指定模型的话,就只有联想的话,我们是可以聊的,我们是可以支撑联想。啊就是说比如说我们从千万三开始开发一个就是说是你说这种这种。对对对就相当于这个。是你们在做嘛,只是我替你们在做嘛,我就出了个外包的嘛。大概是这种情。嗯好,我没有他。这个只只限于联想啊,你们你们的客户可能未必行明白明白了,嗯,如果我们有确定的方向就是比如说我们想做个法务的什么的,这个可以一起来看对吧是的是这东西是就因因为这东西。说实话呢,对于大魔仙公司来说呢?他。对对,我们包括我们是金模研发嘛,这都对我们来说,我肯定我们在能力范围了,我们要说我们不能给你搞这个事肯定不没sense。但是这个事对于像金木厂家来说,他的这个技术上的价值或者长期的价值没有那么高啊,但是联想的话,我们肯定是要顶的,必须要顶。嗯,明白明白,嗯,我想想咱们这边会有什么样的场景会需要到这个大模型。嗯,我们现在就我们其实最开始的时候,年年初的时候,我们做这个事情就是主要是。其实就跟大家那时候最火的那个什么,大家搞什么dpcpt机是差不多的,就是我们先就是给人去提供这种开源的模型。结合的我们自己硬件就跟我刚才提到的时候,我们跟工作站团队就是就是给人做那个工作站的。额,在工作站上预装大模型以及大模型的管理工具,让客户去,让客户拿着去用。 客户,他可以再去选择他使用那个模型,他自己启用就好会,我们会给他预装几个。然后还有一类是说我们,他会给予我们基于这个模型的能力,他不直接使用模型。而是去构建知识库,就跟应该kb差不多,那这个事也是很常见的一类一类嘛?那还有一个是我们也我们还有一个智能体的开发工具。啊叫if,然后这个这个是用来开发一个具体一些智能体应用的。我们这边主要卖一些卖的这样一些应用,我们还有一个团队是主要是嗯去售卖那个智能体。各个行业的指着有通用的,有行业的有我们自言的,有有合作伙伴的,嗯,有通用的,像包括像客服大编程的,并办公智慧办公类的那行业的有包括像面向政府的功能写作,面向那个一些医疗的一些智慧问卷的。我们会有专人去更多观的一些智能机,就是我们两个两个部分不同在做,我们这个题目主要是提供。我是往下的,这种云平台的算例,加上我们的那个,就你这个模型,智能体和知识库的工具。然后他们主要卖成品化的应用,这是这是我们的区分,而且我们这所有的东西包括这么的智能体的这部分,因为我们这个。团队是在我们sg方案与服务团队里面,负责那个我们的正企业务,就我们就要大币业务。就是我们全部都是,我们基本上都是以私用化的方式提供,就结合了我们的硬件用服务器有工作站。嗯啊,就是我们的一个大概的模式,我我当时想到的就是说我们可以做的,就是说。 嗯我我我可以,嗯,我们这些就是咱接接我的,去接远的这些模型。如果在某些领域有些特色,我不知道是不是可以放到我们的一体机里,也一起去去卖我们的一些客户。如果他需要我们这种,我不知道,咱现在就是说现在,因为我看我们有开放平台,应该是可以是是以掏空的心情调用这些模型对吧?对对我不知道我们我们有没有出一些就本地化的一些。或者或者类似于这种一体机啊这样的一些方案,我以及我们倒是没有直接做,但是我不行。我们的模型目前的大多数都比较大啊,我看了就有有其最小的也是个千亿的,这个也就是100b的参数呗是吧对对还有一个量版的,现在有30b的可能小一点,但是但大多数都比较大,然后有一个外线参数的。对对对有一个万亿参数了,我们新开源的就是三三千三千亿参数的也也挺多的。三千亿三百个那就跟相对三还有多一点对。所以这种的话我不确定咱们这个平台大概都是啥样的,能不能塞得下。我们因为服务器的的话还好。因为服务器的的话我们有有巴卡的那种服务器基本像像。绿球b的dp都没问题啊,所以那个就可以没问题那就没问题。我们新出那个三那个推理模型是是按着dpc。就是比他的,包括你用国产的卡都会有比较好的一个支持用没有那么好的。恩卡也会有比较好的支持啊,对不起的话可能报给980这种了,可能他的那个效率才能提上来,但是我们一般的事您就可以了。你是说我们也有一也有一些开源的一些模型放出来是吗?对对对,这时代33就是开源的,然后这个。 就是专门顶着dfcic的这个完全对标的,然后效率会比他高很多,成本会失到1/3。你都有参数呀。这个三三三三百b吧3100参数然后激活可能没有那么大。哦,ok,这个我觉得做一体机的话。尤其是做一些比较复杂的场景的话,用这个会也是个推理模型,而且是多么太推理模型,那这个是文本的。他没有那么的能力,我们这还包了,都不太能力,嗯,另外刚才你一提到那个dg。xspark就是你觉得有没有什么我们合适的一些模型,或者是应用,适合放在这个体量的疾病。嗯d。j。x。spark的话其实坦白讲他的那个贷款有点低,对我我对。对我,我,你们见过这个产品吗?我估计不一定都见过这个,见过见过那个,谁发的那个。那个黄仁勋他不是发布会上拿出来了吗?然后也有一些这种相关去参加了,是吧。也也有一些相关的这个paper看到了,然后这样,他因为他没有用hm嘛,所以他他他用低点这个东西来搞的话,他那个贷款。贷款低的话呢?这模型推起来呢?他就会有一个问题,就他tokens可能往。跑不了太快,跑步就估计并发不会特别好对。所以如果要是多。要在上面跑a阵的,跑应用的话呢,因为一个a阵他正常,按道理来讲我们几十个突肯可能才能变成一个a阵,他的一个指令他要多个多个。真的串起来的话,那这个这个就用起来,它的体验其实会再慢再慢很多,所以这个事。 嗯,我们,我们反正建议啊,就因为本身,我们在性能优化这个方面,还是。搞得挺点的,然后我们这块我们建议在这个上面可以跑七米左右了,七米八b的。然后可以多跑几个,然后可以来串一些表,嗯,比较复杂的,拍不烂都可以,就大概期比这个水平,然后期比。我们直接跑凳子的就可以了。你说放几个七b的模型啊对对看业务场景看业务场我们就专训七笔。这个其实是。这个其实是,当然这个也是大环境下的一个趋势啊,因为近期近期你看千万的l跟那个自己。他们可能会在,因为他们自己接了这个就就云端的这个大模型啊嗯。我们反正这个也没有太多的证据,很很重我们那个没事咱就先都接口接口的这个。反应上我们有一个猜测是他们有可能通过的路由,或者那什么其他的一些途径啊,把有一些比较简单的,快瑞直接就放七闭模型直接反馈了,就是他大小不同的模型在去应对接口上的一些应对不同的quary,这个实际上一定是业界包括,因为达。还有最近有些研究就是因为赤壁他是电视模型嘛,所以他对他未必比那个大号的30b70b模型里面的m一小,所以在某些独特的领域他其实跑的也挺快。嗯嗯是对对嗯这个倒是这个倒是完全容易对。所以大概就是。如果是这个级别的我们大概推荐就是七b八b这样的,嗯,然后我们的这个可以有一种套的。啊,体系这个我们其实做的也挺多的,包括因为也给客户定了,我们做千万做的也不少。 我们自己吧,那现在在那个,比如说我们要去开发一些嗯这个模型的话。嗯其实现在我觉得不让您那边的感觉啊,我现在感觉其实越越来越多,也有很多的一些专精的领域,他其实确实需要一些像你说的这个7:8比或者是14b端到头的赚一些菜式量不那么大,但是他会去掉一些他其他的一些不需要的这些能力。11可以就另外还有一个好处就是可以消除它的一些幻觉啊。我不知道这个这个是你们接到的一些开发的一些客户是不是。也是确实是这样的需求,人用就就期币的话,甚至会有客户要求你只能引用,不能自己想。呵呵就是对对就他会。他会让你的这个看不电视要足够高才能往外输出,你要是没有太高知音度就不要往上说就就会有客户就这么要求。嗯嗯,所以这个就是其实其实其实本质上来讲大模型他要是不结合知识库。他在这种弊端,或者是极端那些应用,它其实包括私有化的,其实没有不被你在死了,他主要都是跟支库相关的。嗯,是,所以我们也愿意去做,这个方案只是个基础。嗯,对对对对嗯。好我我我我大概明白了我觉得其实我们可以我能想到的啊就是说。嗯后边我我觉得这个占dgsbug这个这个经济毕竟他没出来就是等他等。我,我说实话,我们在联想能见到真机的也没几个人,然后但是我们也我们也没有太好的机会去测试他的真挚的效果怎么样。这个,嗯,我可以透露一些这句话就是因为拿本对这个东西的期待特别高,然后在中国他希望他。 但是未来的一年需要卖到几万会能卖到几万台?赚一个量器十万十万左10万左右吧?嗯,这是他,这是他的一个期望啊,就是我觉得我们也对此表示先观望吧。嗯,但是如果说这个真能拿到这个量级就是,那确实还是有很多的机会我觉得我们可以这个我们可以一起来关注,等他有有出来的话,我如果能比较早的拿着样机。嗯,如果您那边有兴趣,我们可以一起来研,做一些,做一些测试和研究啊,如果比你比你们能拿到早一点的话。然后那个我觉得在在常规的那个我们的一些,嗯,一体机和工作站的话,这个我琢磨琢磨这个这个我们您如果有有一些,比如说我们在咱的step三日本step二我们适合哪哪些。哪一类型的客户我们也可以你你也可以发我一些,之后我们如果有这个类型的客户,我们也可以加通加。就是加上我们的硬件,然后加上我们的管理工具,加入我们的加入您您这边的模型我们可以也可以一起提供给客户。然后另外还有一类就是说,就刚才咱基本也一致,就是联想我们确实也能触节,有一些客户。他们确实会有一些细分领域的模型开发的这种诉求,尤其这种相对清量剂的,跑在一些p四运营工作站,甚至是pc上。然后能去解决一些具体的问题,比如说最近我们也在研究一些法务领域的一些方向,然后这个我觉得这个可以是我们未来的一个。嗯,我们如果有这,我们可以先掰这种的,我们可以先掰项目的,如果有,有这种开发的需求。 确实也比较深度。我们也希望是跟这个,跟咱们一起来去打这个单。ok对,其实我大概我弟有一个比较比较适合的一个,嗯,还第二个当然也没有人落,我可以先给你提一下您看看。您说嗯。就就比如说包括像法法律法务相关的。还有比如说像这种,我们其实有跟德勤在聊,就这种咨询公司啊,我们这个地区的一个私有化部署。其实是最近问的比较多的这个其实他因为diplic是里面他是需要。嗯,很多模型的一个是说,它需要很多模型,它拍出来非常的重,非常的复杂,然后它对资源的消耗非常的高。那当然同时呢,他的这个也dipresser,他是这样的,他去一轮一轮的深度的去查去掉再查再掉再查再掉。这个过程呢?实际上,它是一个非常本身,它每一次都是需要消耗的图片都非常多,然后同时。为能支撑他这么一个复杂的体系,有很多模型在调,就是他你给他一个问题,他能去。嗯,就就在那挖掘搜索,然后自己再写一写,搞搞搞吧,然后一搞搞半个小时搞出来一篇报告。他是这么个东西那这么个东西实际上,他背后他牵牵扯到的极剑,把牵扯到的云的这种资源,那种消耗也非常高的,然后这个,他。尤其是一些比较高精尖的场合。嗯,或者说就是比较保密,保密性比较高的场合,因为一般一般的用户,他都不不太会用这个dipress。然后但是,像那种企业,尤其是500强这种高级别的企业。 啊,他比如说想去,他要企业内部用的话,他要自己去打这个传统的workflo。嗯,派克兰这种的,或者像扣的这种这种a症的控制,这种东西完全不好使,那东西弄出来没法用。它的复拉动还是不够,所以我们现在这个其实就是属于那种有调研需求的。就是有点像是这种传统i。g的一个升级版,它能再基于你这个自己内部的一些这种需求,再结合外面的再结合一些。我们比较限制及这些信源可能能给你写出来一些报告我,我觉得我可以发一个地步的邀请码给你,你可以试一试。如果你前面有可以的话,对他他就是正常写你写文章就比比较爱这两家公司的差异,比较某一个新的技术点,找到什么什么东西就干,这些事的做的还真的很好,因为最近我基本上都是用成功来写材料。哈哈哈那我问一下就是说那你因为这种这种低p色是他需要的那个数据。数据原因,最好有一定的权威性嘛。如果从东莞去巴拉巴拉的话,他可能一些信息。其实有的也也有很多噪音的信息会出现,就是那像咱这块怎么去?是我们有一些专门的一些新新员去保证这个这点我们要专门的洗面,我们花很多钱啊,这像比如说我明白了就国家的什么就国家级的这种信源,然后还有就是像阿kave这种。阿凯三s。nature这种学术级的就是就是不会给你出来一个什么随便互联网的这种信源。啊,就太太随意了。你就拿出来没法往自己pp上贴的那种,但当然也会有一些公开的,实在找不到,查不到,他能在网上查到的东西都给你。 然后更多他会优先去搜索中严肃信源啊就可以直接随便打开截个图就可以放材料里面这种。啊,这还是很好那这种现在就主要是天气,应该是在云端去跑了是吧?等地化的话不太不太容易。对这种的话大家可能也都是做出来了,我本来这个东西呢,它大概是20美金一个月,一个用户可以用个大概100次200美金是5000次的。然后我们的我们现在完全是邀请制的,不对,纯不完全对西装开放的,因为这东西。实际上能用得着他的人呢也不是很多。嗯对可能就不但普通的。这就我就问个什么菜怎么做什么去哪去我路线用豆包这挺好的对吧对对对嗯,这个。嗯,这个会有一个比较,那个什么的,点是说就目前肯定是在我们的服务上去布的,但是实际上我们已经看到有需求,像。500强我们最近在聊博士的一个需求,那他的一个研发中心的。人,甚至他有很多的他他这公司太大了,他很多部门他都有这样的需求。他不希望这样的需求的问题流出来,就是你这个工是怎么去问问的什么东西,这实际上,他在这个领域,在这个很高精尖的这个领域做研究的这些领域,他的这个问题本身就很有价值。他都不希望这些问题流入了,然后同时他还有自己的一些企业内部的一些文档,他更不希望传到我们的名上了我们,这些情况下他会有催生出来私有患部署的一些需求,我明白了,这就是其实就是dpc,可跟私优化就是固的。对事是跟私有化知识库的结合对吧对对同时他即便是本地部署了,他还是有向外联网的能力,那个那个联网的就走,我那个什么就行。 那都是借口,那都还好。我能理解。这是敏感数据,相当于不出不出狱。对对对对对对嗯,没有这个这个这个天气来还是不错的,我。我最近看过一些,但是也没有做太多的研究,如果你。方便给我一个,我要来去看看我这个琢磨琢磨我们这个点可以怎么可以,怎么去进行,非常。行了我觉得就没啥了我我我先大概先这些我我我到时候也发给您我们的一个材料,然后我这边也琢磨琢磨,然后看看有什么,咱再随时沟通好了好了。也周五了,也不想占用您太多时间。好嘞好嘞,也是在北京是吧。我在北京,下次我再到联想那边的时候我约你一下,咱可以见好你,要是对对对,你,要是过来,就随时找我。啊行哎谢谢拜拜拜拜。

Requirement clarification

我需要分析这段通话纪要,区分两位说话人并理解他们的对话内容。

首先,我来分析这段对话的核心内容和说话人身份:

一位是联想智能云的代表(以下称"联想方"),负责政府和大企业的私有化营销;
另一位是阶跃星辰的AI架构师(以下称"阶跃方"),负责大模型研发与应用。

通过语义和上下文分析,我可以识别出这段对话主要围绕双方可能的合作点展开,涉及大模型技术、应用场景和商业模式等方面。

这段对话中存在许多语音转文字的错误,如"基模"被误转为"鸡膜"、"千问"被误转为"千万"等,我会在分析中进行纠正。

好的,这是一个旨在梳理和总结所提供通话记录的执行计划。

Research plan
  1. 通读并修正通话记录全文,基于AI技术和商业对话语境,纠正明显的语音转文字错误,例如将“鸡膜”修正为“基模”,“癌症”修正为“Agent”等,以确保文本的准确性。
  2. 根据对话内容、提问与回答的逻辑关系以及双方的身份背景,逐句或逐段识别并区分两位发言人(联想代表与阶跃星辰代表)。
  3. 梳理对话的核心脉络,识别并归纳出几个关键的议题,例如:双方背景介绍、阶跃星辰的技术与业务模式、潜在的合作方向、具体的项目探讨以及后续行动计划。
  4. 分别提炼并概括联想代表的核心观点、提出的问题和潜在需求,重点关注其在私有化部署、硬件集成(一体机、工作站)和行业解决方案方面的合作意向。
  5. 分别提炼并概括阶跃星辰代表的核心观点、技术优势和商业模式,重点关注其大模型能力(多模态、DeepResearch)、定制化服务以及与硬件厂商的合作案例。
  6. 综合双方的讨论,明确总结出对话中提到的具体合作点,如模型在联想硬件上的集成与销售、针对特定领域(如法务)的定制化模型开发、以及在DGX Spark等新产品上的联合测试与研究。
  7. 整合以上分析结果,撰写一份结构清晰的会议纪要,以区分发言人的方式,按议题顺序呈现对话的关键信息、主要结论和明确的后续行动项。
开始研究

Deep Research

联想智能云与阶跃星辰AI合作对话纪要

对话背景与参与者

本次对话发生在联想智能云负责政府和大企业私有化营销的代表与阶跃星辰(StepFun)公司的AI架构师之间,主要探讨在AI领域的潜在合作点。通过语义分析,我将对话内容按发言人进行了区分和整理。

双方业务介绍

联想方介绍

联想代表:我们团队主要做私有云以及私有化的一些AI方案。因为创投那周比较忙,我还出差了几天,没有特别去研究各家情况。后来看了清单,我们挑选了一些可能合作的对象。创投鼓励我们业务部门能和被投企业一起做一些事情。

联想代表:我看贵公司有不同类型的人才,有视觉的、图像的、语言的、多模态的、大模型,这些都是自研的对吗?

阶跃星辰介绍

阶跃星辰代表:对,Step2这个已经不翻了,现在都是Step3了。我们的优势在多模态,是一个大模型厂家。

阶跃星辰代表:我们有一个开放平台,主要提供API,面向开发者、应用或B端客户。这类似于GPT API、豆包的Claude 1.6这种API。我们直接与豆包、阿里千问竞争。这是开放平台的功能和逻辑。

阶跃星辰代表:另外,我们也为客户做模型的定制化服务,这是由我们B端团队单独讨论的项目。包括定制特殊型号的模型适配专门场景,使用特殊芯片,选择特定数据等,这些我们都与大客户有合作和交流。

行业现状与阶跃星辰的优势

阶跃星辰代表:基模这一块,目前能做这件事情的基模厂家很少,在国内做得还比较OK的基模厂家也不太多。我们目前在各方面还不错,尤其是最近在开放平台那端,开放的API表现很好。这是很扎实、实打实的技术一线PK。我们在手机大厂最近刚中标,把豆包给比下去了,我们与千问也是这样竞争。这是一个竞争很激烈的模型前线,我们还是比较有竞争力的。

阶跃星辰代表:在私有化和特殊定制模型方面,我们与联想也有合作,直接与联想研究院合作。另外,我们与各大终端厂家的合作包括端模型定制、手机上定制端模型、做海外模型等。我们还有自动控制手机、自动控制电脑的Agent,以及文生图、文生视频等功能。此外,我们还提供云上的知识库方案、工作流等,我们的能力比较全面,各种产品都有。

阶跃星辰的产品与服务

联想代表:你们的Agent是自己开发的吗?

阶跃星辰代表:我们主要做模型,Agent主要依靠合作伙伴开发,但我们也会开发一些。有些伙伴可能会使用DeepResearch,我们直接交付Agent结果。我们的DeepResearch在国内应该是首屈一指的,与豆包相比,豆包给B端的产品比较差,基本上不行。目前我们比较下来,在DeepResearch领域没有比我们更好的,因为我们接入了很多权威级的信源,在严肃场景上做得比较好,目前主要与四大会计师事务所合作。

联想代表:听起来你们主要是卖模型的定制服务和一些应用,这是你们的主要商业模式?

阶跃星辰代表:对,主要工作是这些。在不同项目中交付的内容不同,有的项目直接交付工作成果,有的交付模型,有的可能是一个小模块。

联想代表:像OPPO、绿色PS、飞书、国泰君安这些都是你们的重点合作伙伴吗?

阶跃星辰代表:对对对。

现有合作与潜在合作点

联想代表:联想除了研究院,你们还与哪个业务部门在合作?

阶跃星辰代表:目前是手机和摩托罗拉。研究院的项目也是我们在做,不清楚你们是哪个部门,是做服务器的吧?

联想代表:是的,就是新出的DGX Spark那种。

阶跃星辰代表:DGX Spark是我们下游公司,我们叫PGX。

联想代表:PGX那不是工作站吗?

阶跃星辰代表:对,它也是一个端侧产品。

联想代表:我了解这个产品,因为我们这个产品的营销在我们工作站营销团队,我们合作非常紧密。我们也在摸索能够做些什么。我们给他们做了一个个性化大模型项目,为vlog做一些视频编辑的功能,好像听说也是要给Y总汇报的。

阶跃星辰代表:就是前英总那边。

联想代表:我知道前英总,他们在定制模型,需要做一系列的训练。

合作模式讨论

阶跃星辰代表:说实话,对于联想这样的被投企业,我们采取比较开放的态度。首先,我们与你们合作肯定不能挣钱;其次,我们要把最先进的技术提供给联想。因为如果你要定制模型,找阿里或豆包肯定没人理你,他们都只卖标准化产品。但我们正常情况下也不会给普通应用如WPS定制模型,但联想不同,你们有很多端侧需求场景,又是硬件厂商,所以我们可能会有更深入的合作。

联想代表:那我们这种与前英总的合作,是我们和研究院团队一起研发模型后,相应方案有收益再分成吗?

阶跃星辰代表:基本上是直接知识产权交付。我们在这方面完全开放,东西做完后可以全部交给你们,不需要分成。

联想代表:那我们还是要支付一个服务费用吧?

阶跃星辰代表:对对对,就是开发费。

联想代表:明白了。那整个落地后,是按SaaS方式还是按API调用收费,还是直接开发费?

阶跃星辰代表:都可以。

模型开源与定制讨论

联想代表:你们现在这些多模态模型是开源的吗?

阶跃星辰代表:我们的模型都是闭源的,但如果你们要定制模型,仅限于联想使用,我们可以讨论,可以支持联想。比如我们可以从千问3开始开发一个你们需要的模型。

联想代表:就相当于你们在做,只是替我们做,我们出外包费,大概是这种情况?

阶跃星辰代表:对,这个只限于联想,你们的客户可能未必行。

联想代表:明白了。如果我们有确定的方向,比如想做个法务相关的模型,可以一起来看?

阶跃星辰代表:是的。这对大模型公司来说,在我们能力范围内肯定可以做。虽然这类项目对基模厂家的技术价值或长期价值不高,但对联想,我们肯定要支持。

联想的AI战略与需求

联想代表:我想想我们这边会有什么场景需要大模型。我们年初做这个事情主要是跟当时最火的DGX工作站差不多,就是提供开源模型结合我们自己的硬件,在工作站上预装大模型及管理工具,让客户使用。客户可以选择使用哪个模型,我们会预装几个。

联想代表:还有一类是基于模型能力构建知识库,类似KB。我们还有一个智能体开发工具IF,用来开发具体的智能体应用。我们主要卖这些应用,另有团队专门售卖各行业的智能体,包括通用的、行业的、自研的和合作伙伴的。通用的有客服、编程、智慧办公类的,行业的有面向政府的公文写作、面向医疗的智慧问卷等。

联想代表:我们两个部分不同,我们这边主要提供云平台的算力,加上模型、智能体和知识库工具;他们主要卖成品化应用。我们团队在SG方案与服务团队里,负责政企业务,基本都是以私有化方式提供,结合我们的服务器和工作站。

潜在合作模式探讨

联想代表:我想到我们可以做的是,接入你们的模型,如果在某些领域有特色,放到我们的一体机里,一起卖给客户。我看你们有开放平台,应该可以以token方式调用这些模型吧?我不知道你们有没有本地化或一体机方案?

阶跃星辰代表:我们倒没直接做这个。我们的模型大多比较大,最小的也是千亿参数级(100B),还有30B的小一点,但大多数都比较大,有万亿参数的。我们新开源的有3000亿参数的,比GPT-3还多一点。

联想代表:服务器的话我们有NVIDIA的那种服务器,基本像绿色B的DP都没问题。

阶跃星辰代表:我们新出的那个推理模型是按着DPC设计的,包括用国产卡都会有较好支持,NVIDIA卡也有好的支持。不行的话可能需要A100这种,才能提高效率,但一般的服务器就可以了。

联想代表:你们也有开源的模型放出来?

阶跃星辰代表:对,StepFun 3.3就是开源的,专门对标DFCIC,效率比它高很多,成本降到1/3。参数量是300B左右,激活可能没那么大。

硬件适配与模型推荐

联想代表:这个做一体机,尤其是复杂场景,用这个也是个推理模型,而且是多模态推理模型。那这个是文本的吗?

阶跃星辰代表:他没有那么多能力,我们这还包括多模态能力。

联想代表:你觉得有什么合适的模型或应用适合放在DGX Spark这种体量的设备上?

阶跃星辰代表:DGX Spark的带宽有点低。你们见过这产品吗?

联想代表:见过,黄仁勋在发布会上拿出来了,也有相关paper。

阶跃星辰代表:因为它没用HBM,用低点带宽,模型推理会有问题,tokens跑不快,并发不会特别好。如果要跑Agent应用,一个Agent正常几十个token才能形成一个指令,多个指令串起来,用户体验会很慢。

阶跃星辰代表:我们建议在上面跑7B-8B左右的模型,可以多跑几个,串联一些功能,比较复杂的场景也可以。我们直接跑7B的就可以了。

联想代表:放几个7B的模型?

阶跃星辰代表:对,看业务场景。我们专训7B模型。这也是大环境趋势,近期千问和智谱AI可能会通过路由等方式,把简单查询直接用7B模型处理,不同大小的模型应对不同查询。7B模型是蒸馏模型,在某些领域未必比30B-70B模型差,在特定领域跑得也挺快。

联想代表:我现在感觉越来越多专精领域确实需要7-8B或14B端到端的专训模型,体积不那么大,但去掉了不需要的能力,还能消除一些幻觉。

阶跃星辰代表:用7B模型,甚至有客户要求只能引用,不能自己想。他们要求置信度足够高才能输出,不够高就不要说。本质上大模型不结合知识库,在B端或极端应用,包括私有化部署中没什么用,主要都是与知识库结合。

DeepResearch产品与私有化部署需求

阶跃星辰代表:我有两个比较适合的方向:一是法律法务相关的,二是与德勤等咨询公司合作的私有化部署。DeepResearch需要多个模型,非常重、复杂,资源消耗高。它一轮轮深度查询、筛选、再查询,每次都消耗大量token,支撑这个复杂体系需要多个模型协作。你给它一个问题,它能搜索、写作,半小时出一篇报告。

阶跃星辰代表:这在高精尖或保密性高的场合很有用。普通用户不太用DeepResearch,但500强企业内部使用时,传统workflow或Agent控制不好用。我们现在有调研需求,像传统IG升级版,结合内部需求和外部权威信源写报告。我可以发个DeepResearch邀请码给你试试,它能比较公司差异、分析技术点等,做得很好,我最近基本用它写材料。

联想代表:这种DeepResearch需要的数据源最好有权威性,如何保证?

阶跃星辰代表:我们有专门的信源保证,花很多钱购买国家级信源、ArXiv、Science、Nature这类学术级信源,不会给你随便的互联网信源。它会优先搜索严肃信源,可以直接截图放入材料。

联想代表:这种现在主要是在云端跑,私有化不太容易?

阶跃星辰代表:对,目前是在我们服务上部署,但已看到需求。如博世的研发中心,他们不希望问题流出,因为在高精尖领域,问题本身很有价值。他们还有企业内部文档,更不希望传到我们云上,这催生了私有化部署需求。

联想代表:明白了,就是DeepResearch与私有化知识库结合。

阶跃星辰代表:对,即使本地部署,它还有向外联网的能力,那部分走接口就行。

结束与后续计划

联想代表:这个DeepResearch不错,如果方便给我一个邀请码,我琢磨琢磨我们这边怎么合作。我先大概了解这些,到时候也发给您我们的材料,然后再琢磨看有什么可以合作的,咱再随时沟通。

阶跃星辰代表:好的,你在北京是吧?下次我到联想那边时约你见面。

联想代表:对,你要是过来,随时找我。

总结要点

  1. 合作背景:联想作为阶跃星辰的被投企业,双方探讨在AI领域的合作可能性。

  2. 阶跃星辰优势

    • 多模态大模型技术
    • DeepResearch产品在国内领先
    • 提供模型定制服务
    • 已与联想研究院、手机部门和摩托罗拉有合作
  3. 联想需求

    • 在工作站/一体机上预装大模型
    • 开发特定领域(如法务)的模型
    • 探索DGX Spark上适合的模型应用
    • 私有化部署解决方案
  4. 潜在合作点

    • 联想硬件+阶跃星辰模型的集成方案
    • 为联想定制专属模型(知识产权交付)
    • 在DGX Spark上部署7B-8B的专训模型
    • DeepResearch私有化部署方案
  5. 合作模式:阶跃星辰愿意为联想提供特殊支持,包括模型定制、知识产权交付等,联想支付开发费用。