在WWDC25现场,挖到的秘密内幕睡了一觉,怕忘,记录一下 1、这位朋友是苹果内部的程序员,他去年 wwdc 跟我透露「很多AI功能其实没做完,根本无法按时上线」以及「苹果内部写代码也在偷偷用ChatGPT」,所以应该没有公关意识和故意掩饰。 2、Siri 没做完,是因为过去一年,软件团队和 AI 团队在开发理念上产生了很大争执,最后推倒重来,估计年底或明年才能有动作,先别指望了。 3、Liqud Glass 效果实现用的就是 shader,不是什么光追。 4、液体效果最开始非常卡,连30帧都不到,但领导要求必须要满足120帧才能上线,所以算法一版一版的修改,终于上线时实现了。 5、这个效果每一毫瓦时的功耗是他们工作时最关注的 top1,现在还是有点费功耗,但算法团队还在优化,所以现在回答不了对续航的具体影响,每更新一版就会好一些。 6、这些工作他认为没有芯片协同能力的安卓厂商是做不到的。 7、控制中心太丑就是因为没做完,跟设计图都不一样,他们人力实在不够,都去关注功耗了。 8、因为去年牛吹大了,这次内部强力要求,一切不能在 beta1 上线的功能,发布会一概不说,媒体问就忍着。 9、苹果现在内部集成AI的代码工具非常好用,尤其是在检索苹果内部代码库方面,他们不需要再借助外面的AI了,Assist也进垃圾堆了。 10、奥对了,这点很重要:苹果端侧的模型,虽然能力比不上云端大模型,但是已经首个做到输出参数格式的稳定可控,这就意味着第三方开发者可以放心实装了,这点对开发者的信心很重要。 11、快捷指令支持 AI 不光在 MacOS 上,在其它OS上也是支持的,这一点发布会疏漏忘讲了,内部员工不开心 12、我还问了他很多问题,有些也是他的主观预测,就先不写了。 13、他本人状态已经从去年的「这次完蛋了」,到今年的「嗯,你可以期待」 先记到这儿,想起什么再加 补1、想起聊天时的一个玩笑,苹果没有做AI大模型,而是坚持做端侧小模型的原因——用户隐私……是其中一个,但还有一个是苹果不想承担调用费用,哈哈哈via Allen ☘️

  1. 转载请保留原文链接谢谢!
  2. 本站所有资源文章出自互联网收集整理,本站不参与制作,如果侵犯了您的合法权益,请联系本站我们会及时删除。
  3. 本站发布资源来源于互联网,可能存在水印或者引流等信息,请用户擦亮眼睛自行鉴别,做一个有主见和判断力的用户。
  4. 本站资源仅供研究、学习交流之用,若使用商业用途,请购买正版授权,否则产生的一切后果将由下载用户自行承担。
  5. 联系方式:936787576@qq.com