q147852369 发表于 2023-5-1 12:28:54

苹果的人工智能应用,跟 ChatGPT 不太一样

<div id="content"><p></p><div class="img_box" id="id_imagebox_0" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>苹果的 XR 混合现实设备,其中一个主要的功能便是围绕着健身 Fitness+ 服务展开。<p></p><p></p><div class="img_box" id="id_imagebox_1" onclick=""><div class="content_img_div img_gif"><div align="center"></div></div></div>它会借助虚拟空间,让你在任何地点沉浸在「健身房」当中,当然,还少不了一个虚拟教练。<p></p><p>此前,我们只认为这位「虚拟教练」可能只提供标准的动作示范,但在苹果的计划里,「他」可能还会被赋予更多的「智慧」。</p><p></p><div class="img_box" id="id_imagebox_2" onclick=""><div class="content_img_div img_gif"><div align="center"></div></div></div>据悉,苹果为了扩展 Apple Watch 的健康宇宙,苹果拟将人工智能引入到健康功能当中。<p></p><p>推出一个 AI 健康教练,借助于 Apple Watch 所记录的数据,借助于算法,来制定用户的锻炼计划,改善饮食习惯和睡眠质量,以保持或者改善健康状态。</p><p>这应该是近期,AI 与苹果走得最近的一则消息,但苹果的 AI 健康教练与当下热门的生成式 AI,例如 ChatGPT、bing、Bard 却有着明显的不同。</p><p></p><div class="img_box" id="id_imagebox_3" onclick=""><div class="content_img_div img_gif"><div align="center"></div></div></div>「AI 健康教练」更像是一个功能,而非是类似于 ChatGPT 这种引发全新赛道的趋势。<p></p><p>苹果一直没有切入到硅谷抢做生成式 AI 的热潮里,反而仿佛画地为牢,不参与竞争,显得颇有些不同。</p><p><b> Siri 不是人工智能,苹果的人工智能藏在细枝末节</b></p><p>十二年前,苹果首次向公众展示了 Siri,并随着 iPhone 4s 一同推向市场。</p><p></p><div class="img_box" id="id_imagebox_4" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>后续,Siri 被扩展到 Mac、iPad、HomePod、Apple Watch 甚至是 AirPods 等所有的苹果智能设备里。<p></p><p>Siri 生来高光,被定义为「智能语音助手」,它可以通过语音识别和自然语言处理回答用户的问题,控制设备和执行任务。</p><p>也引领了智能手机标配语音助手的潮流,三星的 Bixby、小米的小爱同学、OPPO 的小欧等等。</p><p></p><div class="img_box" id="id_imagebox_5" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>同样,Siri 也被大众所熟知,认为它就是人工智能的一个雏形。<p></p><p>只是,十二年的进化过程中,苹果很少对其进行深度升级,多是围绕着功能点补全。</p><p>如今,它依然保持着 2011 年的那般纯真,当遇到难题时,也同样会坦诚的回答道「我不是很清楚,这是我在互联网上找到的答案」。</p><p></p><div class="img_box" id="id_imagebox_6" onclick=""><div class="content_img_div img_gif"><div align="center"></div></div></div>在 2023 年生成式 AI 满天飞的今天,Siri 的「纯真」与能说会道的 ChatGPT 形成了鲜明的对比。<p></p><p>仿佛,苹果并不想发展人工智能,只想买手机和电脑,但事实真的如此?</p><p>其实 Siri 并不应该称之为人工智能,Siri 只是个答案数据库类型的语音助手。</p><p></p><div class="img_box" id="id_imagebox_7" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>当用户唤起它,并发出一连串指令,它的数据模型会优先在本体处理,快速查看 是否是一个简单的本地请求(像是调整音量、设定闹钟等),利用已知的信息迅速完成。<p></p><p>否则,再去云端查询更大的数据库,给你一个答案,或者没有查询到,就甩出一个网页搜索(大概率的情况)。</p><p></p><div class="img_box" id="id_imagebox_8" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>而 ChatGPT 并没有先本地再云端的流程,根据问题直接访问微软的 Azure 云计算中心,利用庞大的算力和相应模型进行推算,无论理解与否,都会「生成出」回答。<p></p><p>从这里来看,Siri 和 ChatGPT 展示了两个倾向,苹果倾向于将技术部署在本地,优先调用本地算力解决。而 ChatGPT 则完全依靠于网络,以及数据中心的庞大算力。</p><p>苹果的 AI 也是如此,它藏在苹果产品许许多多的功能里,属于那种没人会留意,但却大幅改善了用户体验。</p><p></p><div class="img_box" id="id_imagebox_9" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>像是你按下快门,iPhone 会一连拍下多张照片,再根据相应的模型算法,利用图像识别挑选一张效果最好的作为最终成像。<p></p><p>又或者,Apple Pencil 在 iPad 上书写时,能够媲美真实的纸笔体验。里面就用到了笔触追踪与手掌识别,在保证笔触实时响应的同时,也不会因为手掌接触屏幕而误触。</p><p></p><div class="img_box" id="id_imagebox_10" onclick=""><div class="content_img_div img_gif"><div align="center"></div></div></div>以及,FaceID 安全性与效率的兼顾,它能够适应用户面容的变化,不会因为眼镜、胡须遮挡而影响识别效率。<p></p><p>甚至在当下的 iOS 当中,也支持口罩解锁,仅用半张脸就完成了与之前相同的安全等级。</p><p></p><div class="img_box" id="id_imagebox_11" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>▲ A15 仿生芯片和 A14 仿生芯片的剖析图,神经计算引擎集中在左下角<p></p><p>从这些功能到苹果多设备、平台的协同、互联等特性,方方面面都有苹果的 Neural Engine(神经引擎)参与,也是苹果 AI 所呈现的方式。</p><p>与生成式 AI 不同,苹果 AI 注重的是,如何提升终端用户的体验。</p><p><b> Siri 有没有可能变成类 ChatGPT?</b></p><p>ChatGPT 推出后不久,接入官方 API 的网页版套壳 App 也层出不穷,但真正能够嵌入系统,或者还未能落实到终端的应用、交互。</p><p>这也是此前认为 ChatGPT、新 bing 等生成式 AI 还停留在古早的对话框交互当中。</p><p></p><div class="img_box" id="id_imagebox_12" onclick=""><div class="content_img_div img_gif"><div align="center"></div></div></div>真正的人机交互,或者说终端服务还未酝酿出来。<p></p><p>OpenAI CEO Sam Altman 在麻省理工的演讲里曾表示,「大型模型时代已经到头了,我们需要用新的思路和方法,让 AIGC 取得新的进展。」</p><p></p><div class="img_box" id="id_imagebox_13" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>▲ OpenAI CEO Sam Altman 图片来自:wired<p></p><p>在揭示 AIGC 行业发展趋势的同时,也暗示新入局的科技公司,「你们已经落伍了」。</p><p>这对于错过 AIGC 第一波浪潮的苹果来说,其实也是一个契机,没必要再利用资源去训练自己的语言模型,而应当考虑,如何把生成式 AI 嵌入到自己的生态当中。</p><p>不重复造轮子,不如考虑造一辆车。</p><p></p><div class="img_box" id="id_imagebox_14" onclick=""><div class="content_img_div img_gif" style="display: inline-block;"><div align="center"></div></div></div>而「年久失修」的 Siri,能否把大语言模型嫁接到 Siri 上,让他变成一个 Smart Siri,让其成为能够控制一个 Apple ID 下,苹果所有生态设备的一个智能管家(类似于 Javis),进而带来一种全新的人机交互形式。<p></p><p>只是,让 Siri 重获新生,可能并没有预期的,把大语言模型融合进 Siri 原本的算法那般简单。</p><p>把 Siri 变成类 ChatGPT,由于二者的处理方式完全不同,几乎需要重构 Siri 整个数据库,无异于推到再来,重新构建,可能需要重组团队,以及耗费不少资源来重新与硬件系统对接。</p><p></p><div class="img_box" id="id_imagebox_15" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>▲ 由 TPU v4 组成的 Google 机器学习中心 图片来自:Google<p></p><p>另外,我们之前也报道过,AIGC 每次询问生成,都要耗费不少的云算力。</p><p>目前 OpenAI 的 ChatGPT 几乎吃掉了微软 Azure 云计算中心的算力资源,甚至还有些吃紧。</p><p></p><div class="img_box" id="id_imagebox_16" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>苹果的云计算中心规模不大,在全球的规模远不及微软、甲骨文这些对外提供云服务业务的传统大公司。苹果云服务多是自我满足,为自己的 iCloud、App Store 等业务提供支持。<p></p><p>倘若把 AIGC 一股脑的引入到 iPhone、iPad、Mac 当中,苹果所需要的算力将会是个天文数字。</p><p>即便苹果有算力支持,按照此前的推算,GPT-4 每千个提示词的成本高达 12 美分,加上苹果全球仅 iPhone 用户就突破十亿,运行的成本极其高昂。</p><p></p><div class="img_box" id="id_imagebox_17" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>不论是从客观条件,还是苹果主观意愿上,苹果很难直接将类 ChatGPT 技术引入到 Siri,并直接部署到生态当中。<p></p><p>苹果仍需要找一个合适的时机和切入点,这个时机可能是生成式 AI 的成本大降,或者说是从一个小功能入手,利用 AIGC 提升用户的体验。</p><p>而从苹果一贯对 AI 的态度来看,后者更可能是苹果的最终做法。</p><p><b> 对于 AI,苹果看重的是「效率」和「隐私」</b></p><p>除了时机,还有两个公司战略和策略上的不同,让苹果与生成式 AI 保持着冷静。</p><p></p><div class="img_box" id="id_imagebox_18" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>▲ John Giannandrea 图片来自:TechCrunch<p></p><p>2020 年,苹果机器学习和人工智能战略高级副总裁 John Giannandrea 以及产品营销副总裁 Bob Borchers 在 Arstechnica 关于苹果 AI 相关业务的采访里,他们都坚定的表达了苹果 AI 战略的两个要点。</p><p>一是效率,二是隐私。</p><p>效率指的是,在本地执行的机器学习算法和模型,响应更快,与性能更好。</p><p>隐私顾名思义就是隐私保护。</p><p></p><div class="img_box" id="id_imagebox_19" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>在这篇接近万字的采访当中,这两个关键策略,被 John Giannandrea 反复的提及,可见苹果对于 AI 技术有着几乎偏执而严苛的追求。<p></p><p>现在回头看,苹果这两个坚持,也促使苹果在造芯事业上,会把 A 系列、M 系列 Apple Neural Engine 的优先级提到 CPU、GPU 之前,已经成为每代芯片着重升级的核心。</p><p></p><div class="img_box" id="id_imagebox_20" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>有意思的是,每代苹果 A 系列、M 系列芯片发布时,苹果会公布 CPU、GPU、统一内存等一系列相关规格和架构信息。<p></p><p>但唯独到了 Neural Engine 这里,只有一个笼统的数据,更像是一个黑盒子,仿佛神经引擎才是所有芯片里最大的秘密。</p><p>另外,这两位高管也认为苹果自 iPhone X 起,芯片里就包括的神经引擎,是实现本地机内处理 AI 算法的一个先决条件。</p><p></p><div class="img_box" id="id_imagebox_21" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>为此,苹果将许多机器学习的算法尽可能缩小规模,以便部署到本地。甚至也强调,把算法模型做小,才是真本事。<p></p><p>部署到本地,可以能够快速的本地调用模型算法,响应无延迟。另外就是不需要上传用户数据,规避了「隐私」问题。</p><p>像是跟踪 Apple Pencil 笔触、图像识别等 AI 参与的功能当中,由于算法模型训练的足够好,不需要上传云,进行协助运算,本地就能处理完成。</p><p></p><div class="img_box" id="id_imagebox_22" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>而类似于 ChatGPT 生成式 AI,完全依赖于网络,即便推出了好几个月,服务仍然不够稳定,时不时的会出错。<p></p><p>这对苹果这种追求用户体验的公司来说,不允许有如此不稳定的状况发生。</p><p>隐私保护,已经是苹果近年以来的一则战略,尽管面对非议,并会减少相关收益,苹果依旧在 iOS 14.5 上推出了苹果应用追踪透明度框架( App 反追踪,App Tracking Transparency,简称 ATT),站在了用户这边。</p><p></p><div class="img_box" id="id_imagebox_23" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>苹果的一些 AI 模型算法不需要联网,而有些则需要收集部分数据进行训练(像是 Siri),为此苹果会事先声明,并在收集过程中去除敏感信息(像是 Apple ID 等)。<p></p><p>当下流行的生成式 AI 则与苹果谨慎的态度有些不同,他们几乎是抓取了许多互联网内容进行算法参数训练,并以此为基础生成。</p><p>而当他们推出相关产品,像是微软 Copilot、Midjourney、Stability AI,也受到了许多网站和机构的侵权法律诉讼,声称这些公司非法刮取优版权的内容进行创作,有违版权法。</p><p></p><div class="img_box" id="id_imagebox_24" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>▲ Midjourney 生成的蒙娜丽莎<p></p><p>虽然对于版权的争论还未有结果,但如此有非议的训练过程,其实有违于苹果对数据隐私保护的一大追求。</p><p>AIGC 目前无法部署到本地,并且联网很难保证比较完美的提供服务,另外存在着数据隐私问题。</p><p>AIGC 的主流技术几乎与苹果在 AI 追求上背道而驰,也解释了苹果没有及时切入,和对生成式 AI 发表相应的产品或者声明。</p><p>对于 AI,我们认知的可能是 Siri,但对于苹果本身来说,其实是 Neural Engine 成为 A 系列芯片独立模块开始,苹果就把精力着重在本地化 AI 上,目的也很纯粹,没有想用 AI 改变世界,就是为了提升用户体验。</p><p>苹果并非是一个纯粹的 AI 公司,云数据中心仅为自己软件业务,造芯也是为了硬件,苹果技术行业的扩展都是为了产品服务,说到底他就是一家产品驱动的公司。</p><p>其战略、策略、技术布局等等都是围绕着核心产品服务。像是接下来推出的 XR 设备,苹果正在拓展视觉识别上的 AI 团队,并没有去追逐硅谷的热点。</p><p></p><div class="img_box" id="id_imagebox_25" onclick=""><div class="content_img_div perview_img_div"><div align="center"></div></div></div>苹果很明确自己的优劣势,没有一味的被别人牵着鼻子走,而是以一种很稳定的发展策略去布局。<p></p><p>另外,苹果总会在新技术新趋势下,观察许久,以自己独特的视角去切入,对于生成式 AI,苹果或许也会以一种我们都没有预想的方向发展,并让我们眼界大开。</p><div id="recommend_bottom"></div><div id="article_bottom"></div></div>

moshoes 发表于 2023-5-1 13:29:07

苹果最大的优点,也可能是潜伏的缺点,就是它只根据自己的产品序列来开发新功能,而它的产品又一直按照自己的节奏来,基本上从来不会理会所谓的市场热点。好的地方是苹果的产品与功能,总是很集中,同样的功能它可以比其他家做的更用心,不好的地方,它的试错永远只在实验室里,而不会让市场来替它试错(或者试对)。以前说谷歌,属于什么都要掺一脚,只要有兴趣,主要行业里有新的东西,要么马上做跟进,要么直接收购,哪怕嚯嚯了也要收购死在自己手里。它可以不深,但必须要广,苹果则是相反,它是不广但有的功能尽量做的深。
页: [1]
查看完整版本: 苹果的人工智能应用,跟 ChatGPT 不太一样