手机

安卓厂商都在搞AI大语言模型,苹果AI落后了?

MoFirLee 原创 2024-02-15 00:16:05
手机文化

2023年,火爆科技圈的不是iPhone 15,也不是华为Mate 60,而是ChatGPT。AI大语言模型爆发式增长,催生出了很多实用性功能,例如AI绘图、AI演讲稿、AI文案等。

随着AI大语言模型的爆火,手机厂商们也开始在自家手机语音助手中,接入自研AI大语言模型。像OPPO的AndesGPT、vivo的蓝心大模型,小米的MiLM、华为的盘古大模型。

国际厂商这边,三星勉强跟上了国产厂商内卷的节奏,在去年中旬公开了自研大模型——高斯。而拿下2023全球手机市场销冠的苹果却无动于衷,这难免会受到外界的质疑。

苹果的AI,总是慢人一步?

网上唱衰苹果AI落后的声音不在少数,毕竟老对手三星都在Galaxy S24系列上加入了更多AI功能,iPhone 15系列和iOS 17并没有向外界展示AI相关的功能,难道苹果在手机AI领域真的落后了吗?

其实不然。在乔布斯时代,苹果可以说是第一个在手机上布局AI的科技公司。作为乔布斯参与的最后一代产品,iPhone 4S首次引入了智能语音助手的概念,只是当时受限于技术原因,Siri并不能为用户提供多少便利,甚至正常的语音交流都很困难。但是,siri在当时确实掀起了一波热潮,很多安卓厂商也都相继推出了自家手机语音助手。

现在回过头再看当年的siri,把它看作是现在AI大语言大模型的雏形好像也不为过。虽然在手机语音助手初期,苹果打响了第一枪,率先在手机上推出语音助手,但是后期因为定位模糊、siri内部团队管理混乱等问题,最终导致Siri被安卓厂商所超越。

曾经风光一时的siri,如今却沦为了人们眼中的笑柄。在大众的认知中,「人工智障」这一标签早已与Siri捆绑在了一起。不可否认的是,苹果是最早在手机上加入智能语音助手的厂商。

到了库克时代,苹果对iPhone AI相关功能的探索并未停止。以iPhone X为例,这是苹果首款全面屏手机,同时也是第一款搭载了Face ID的手机。想要手机精准识别人脸信息,就需要软硬件的深度结合。

iPhone通过深感摄像头来投射人眼不可见光进行人脸信息的捕捉,并建立人脸的深度图和红外图像,然后再利用A系列仿生芯片的神经网络引擎与之前注册的面部信息作对比,从而确认用户身份。

也就是说,从iPhone X开始,苹果就已经在使用AI来帮助机器识别和确认用户的身份。同时,苹果也是第一个将结构光技术用于解锁手机的厂商。

所以,苹果在手机AI方面的技术并未落后,甚至在某些AI功能上先人一步。但是,目前iPhone上没有搭载AI大语言模型却是不争的事实。

一般来说,探讨某项技术是否落后,往往不是看技术应用时间先后顺序,而是看这项技术落地后体验的好坏。举个例子,某品牌手机比另一品牌的手机更早搭载AI大语言模型,而且它们都支持AI绘图。当你让它们画一只英短时,发现晚些发布AI大语言模型的手机成功画出了英短,而更早发布AI大语言模型的手机则画成了三个孩童。

单从体验上来讲,晚些发布AI大语言模型的手机,完胜更早发布AI大语言模型的手机。所以,并不能说iPhone没有搭载AI大语言模型,就表示苹果在这方面的技术落后了。探讨苹果AI大语言模型技术是否落后,还需要等到iPhone实装这项功能后再做判断。

「AppleGPT」箭在弦上,蓄力待发

对于科技公司来说,技术储备是必修课程。而像苹果这样的科技巨头,AI大语言模型这样的技术自然也是早有准备。了解苹果的朋友应该都知道,苹果对技术的应用有着很高的要求,要么等技术成熟,要么把技术打磨得足够好,否则宁可废弃,也不能影响用户体验。

此前,苹果爆料人Mark Gurman称,苹果软件工程主管Craig Federighi去年告诉下属,代号为crystal的操作系统将迎来革命性升级。Mark还表示,苹果内部将iOS 18定义为了史诗级升级。

而苹果CEO库克在接受彭博社采访时表示,苹果一直在研究包括生成式AI在内的人工智能技术,多年来为其投入了大量研发资金。

由此不难看出,苹果确实拥有AI大语言模型方面的技术储备。各项爆料也表明,苹果会在今年WWDC 上公布苹果自研的AI大语言模型,并会将其应用到iOS 18中。

结合目前的情况,笔者认为苹果有大概率会在WWDC 24上公布自家AI大语言模型,并且会将其接入Siri。因为安卓阵营几乎已经全部推出了自研的AI大语言模型,哪怕是谷歌,也推出了自家AI大语言模型Bard。

就连苹果最佳开发者的微软,也通过接入GhatGPT,推出了自家AI大语言模型copliot。不仅如此,Meta、百度、科大讯飞等科技互联网巨头也都推出了自家的AI大语言模型。

各大科技互联网巨头都在借助ChatGPT的热度,为自家AI大语言模型造势,同时进一步抢占市场。苹果作为全球市值最高的科技巨头,自然也不会放弃AI大语言模型市场。

自研AI大语言模型,苹果早有预谋?

事实上,我们可以从iPhone 15 Pro系列的A17 Pro芯片上,看到苹果可能正在为即将登场的AI大模型做准备。关于A17 Pro这颗芯片,网上几乎都是负面评价,比如A17 Pro有辱Pro之名,被联发科天玑9300和高通骁龙8gen3按在地上摩擦;又或者苹果A系列芯片跌落神坛,性能被友商超越,台积电3nm制程工艺只是噱头。

确实。苹果这代芯片的理论性能不太行,CPU和GPU,对比上代只是小幅提升。但是,A17 Pro的晶体管数量却堆叠到了190亿。而苹果桌面级入门芯片M2,其内部晶体管数量为200亿。

两者对比可以发现,A17 Pro这颗手机芯片的晶体管数量已经达到了桌面级芯片的规模。这不禁让人产生了疑问,苹果为何要在A17 Pro上堆叠如此之多的晶体管?笔者认为,苹果很有可能在为之后的AI大语言模型做铺垫,从而实现iPhone离线本地运行。

苹果从iPhone 13系列开始,便对标准版和Pro版iPhone所搭载的芯片进行了区分,走量机型会搭载阉割版芯片,而旗舰定位的Pro版则会搭载满血版芯片。到了iPhone 14系列,苹果再次改变策略,Pro版iPhone会用上最新的芯片,标准版则是使用上代Pro机型的芯片。

如果按照这个逻辑推断,今年的iPhone 16系列标准版,会沿用上代的17 Pro芯片,而iPhone 16 Pro系列则会使用A18 Pro芯片。如果苹果在iOS 18中加入自研AI大语言模型,并与Siri进行整合,那么即便是iPhone 16标准版,也能实现AI大语言模型离线本地运行,毕竟A17 Pro这颗芯片的晶体管规模已经达到了桌面级。

而iPhone 16 Pro系列搭载的A18 Pro芯片,其内部晶体管数量和性能,相较于上代都会得到进一步提升。所以,对比iPhone 16标准版,Pro版离线运行苹果AI大语言模型的效果可能会更好。

一般来说,越晚发布AI大语言模型的厂商,反倒是更有优势。因为想要AI大语言模型更智能,就需要大量时间来进行训练。以ChatGPT 4.0为例,它目前的参数量已经达到了1万亿。而vivo的蓝心小V,其参数量为70亿。

苹果最晚入局,不仅可以从对手身上汲取经验,还可以用更多的时间来训练参数量更大的AI大语言模型。同时,还能为下一代iPhone引入新的核心卖点,进一步刺激消费者换机的需求。对于苹果来说,无疑是一箭三雕的上上之策。

未来,手机厂商除了卷影像外,AI大语言模型或许会成为新的内卷对象。手机厂商们内卷越厉害,我们消费者获利也就越多,并且在手机上使用AI大语言模型的体验就更好,可以为用户带来更多便利。

点击展开全文
打开APP,阅读体验更佳

网友评论

聚超值推荐

更多优惠

相关推荐

相关产品
取消