📑
📫

H27VF6zi">

  1. 👻

      🔲
      📮🥡
      💔
      🥘
    • 👹💧
      🍃
      🙂
      🎣
      🗜🥫
      🎥
    • 自动驾驶到智能家居,5大行业算力痛点,英特尔和阿里云如何破局

      发布时间:2025-12-24 23:43  浏览量:7

      最近玩《远光84》的玩家可能没注意,你在游戏里多等的那0.1秒,对莉莉丝来说可能就是几百万的流水蒸发。

      有内部人员透露,之前游戏服务器偶尔卡顿0.1秒,当天用户留存率直接掉了3个点,这可不是小事,现在的玩家比谁都精,加载慢一点、操作顿一下,手指一动就换游戏了。

      这事儿暴露的问题,比表面看起来严重多了,MIT最新报告里说,全球每年投在AI上的钱有三四百亿美元,但一大半项目都卡在落地环节。

      不是模型不够先进,也不是服务器不够多,而是算力用得不对,以前大家总盯着GPU多厉害、算力多强,现在才发现,真正决定企业能不能跑起来的,可能是那个被忽视的CPU。

      游戏行业对延迟的敏感程度,怕是所有行业里最夸张的,莉莉丝为了《远光84》的稳定运行,单台服务器的CPU核心要同时扛住120个玩家的实时操作。

      团战的时候,技能特效、角色移动、伤害计算,所有数据挤在一起跑,只要有0.1秒没跟上,画面一卡,玩家体验直接崩盘。

      不光游戏,造车的同样被数据压得喘不过气,小鹏汽车搞自动驾驶,每天收集的多模态数据都是PB级的。

      你想想,一辆测试车一天就能拍几千小时视频、记几百G传感器数据,这些东西要喂给VLA-OL模型训练,还要做3D场景重建,光是转码、清洗这些基础活儿,就能把服务器累瘫。

      本来想靠GPU硬扛,后来发现转码这种重复性工作,CPU干起来反而更划算,成本能降不少,处理视频的微帧科技更绝,每月要处理15亿分钟的视频素材。

      什么概念?相当于把从2000年到现在的所有电影重新编码一遍,这些视频要做AI降噪、画质增强,还要传到全球各地的服务器,既要保证实时传输不卡,又要控制成本。

      负责人吐槽,以前用传统服务器,一半电费都花在闲置算力上,真是扔钱听响儿。

      金融领域更不敢马虎,蚂蚁那个ZOLOZ认证系统,服务14个国家70多家机构,人脸比对、活体检测这些操作,错一次都可能出大事。

      每天millions次的请求,既要保证0.1秒内出结果,又要兼顾晚上离线推理的成本。

      技术团队私下说,以前总觉得GPU算力强,结果高频读取数据的时候,CPU的缓存速度跟不上,反而成了瓶颈。

      家里的智能设备也藏着算力坑,海尔三翼鸟5000万台设备连着网,晚上八点你喊"开灯",要是半秒没反应,估计下次就换牌子了。

      这些设备要保持长连接,网关服务器得同时扛住千万级的并发请求,有次系统升级没做好,掉线率从0.1%涨到0.5%,客服电话直接被打爆,全是投诉设备"不听话"的。

      算力需求的新逻辑

      以前总说这个行业要GPU,那个行业要CPU,现在发现这分类早过时了。

      IDC最新报告里说得明白,算力需求得按场景来分:在线业务要低时延高并发,就像海尔的物联网设备,随时可能有用户发指令。

      离线业务要高吞吐低成本,比如小鹏处理数据,慢慢算没关系,但不能花钱太多。

      特殊场景就得高主频低抖动,像莉莉丝的游戏服务器,一点点波动都可能要命。

      英特尔新出的至强6处理器,算是摸到了这个门道。

      搞了个Chiplet架构,简单说就是把处理器拆成几个小模块:3个计算芯粒专门算数据,2个IO芯粒负责传数据,各干各的活儿,互不打扰。

      打个比方,以前是一个人又做饭又洗碗,现在是厨师只管炒菜,洗碗工只管清洁,效率自然上去了。

      里面的硬件加速引擎更有意思,AMX矩阵运算单元专门给AI推理提速,就像给计算器加了个快捷键,以前算半天的矩阵乘法,现在分分钟搞定。

      还有QAT技术,能把数据压缩了再传,相当于快递打包时把箱子压扁,省空间又省运费。

      微帧科技用了这套技术,视频编码效率直接提了35%,存储成本降了快一半。

      阿里云的CIPU则从另一个角度破局,以前云服务器的网络和计算是分开的,数据传着传着就卡壳。

      现在CIPU把网络带宽拉到100Gbps,还直接接管了硬件调度,相当于给算力装了个"智能导航",数据走哪条路最快、哪个服务器有空,它门儿清。

      海尔用了之后,设备指令响应延迟从200ms降到120ms,用户投诉立马少了三成,说真的,现在企业搞AI转型,最容易犯的错就是盲目堆硬件。

      买最贵的GPU,建最大的数据中心,结果算力利用率不到一半。

      小鹏汽车以前就是这样,数据中心GPU占比太高,后来换成至强6的双单路架构,用CPU处理转码和预处理,GPU专心搞训练,算力效率提了40%,电费都省了一大笔。

      蚂蚁ZOLOZ的团队更实在,他们算了笔账:用至强6的AMX单元跑人脸比对模型,推理速度比纯GPU方案快20%,成本反而降了15%。

      现在金融机构都在学他们,把简单的AI任务往CPU上挪,复杂的留给GPU,各司其职。

      莉莉丝游戏的案例最有说服力,他们把游戏服务器换成至强6后,全核睿频提到3.6GHz,团战场景帧率稳在60FPS,卡顿次数减少70%。

      玩家反馈里"流畅"两个字出现的频率,比以前多了一倍还多,负责人开玩笑说,现在服务器比玩家的手机还流畅,总算不用天天被骂"优化差"了。

      其实说到底,算力竞争早就不是比谁的芯片参数更厉害,而是看谁能把算力用在刀刃上。

      英特尔的CPU搭着阿里云的调度,就像给企业配了个会精打细算的管家,钱花在实处,问题也解决了。

      那些还在盲目追GPU的企业,怕是该醒醒了算力效率这场仗,已经开打了。

      😕💻

      ㊗🌲

      🦎🚎

      FQfaFEjI">

      🏕💏
      💏
        😜🤝
        1. 👝🥅
        • 🌑
          🙌
        • 🛂🏇
        • 🎚
          😊
        • 🎆