蘋果又放鴿子了

哎。蘋果又放鴿子了。
去年5月蘋果的財報會議上,分析師們集中火力在問蘋果在AI上做的努力,蘋果卻三緘其口。科技圈裡,也一直討論著蘋果在AI領域進展太佛系。
沒想到,一個月後,蘋果全球開發者大會就整了個大的:大會花了大量篇幅,講解了蘋果即將推出一套個人智慧系統。
Apple Intelligence。
並且還宣稱,在此基礎上,蘋果的語音助手Siri會有一個改革性的升級,變成一個AI智慧助手。消費者能透過簡單指令,就能一鍵調動多個APP來完成任務,並且能在各種APP裡進行“AI生成”。
大會上,蘋果公開宣佈了推出時間。搭載AI的Siri,最早能在去年夏天推出美國英語版試用,秋天會升級到Beta版。其他語言版本,則會在今年推出。
接著一段時間,蘋果就一直在官網和廣告中,不斷宣傳這套個人智慧系統:
Apple Intelligence和升級版Siri。
這太酷炫了。太讓人期待了。
然而,秋天過去了,蘋果Siri升級的事,跳票了。
沒事,那就等今年。等啊等,卻等來了路透社的報道。今年3月7日,蘋果公司宣佈,把Siri的AI升級功能推遲到明年釋出。
根據蘋果發言人傑奎琳·羅伊的表述,這次跳票,主要還是技術問題沒有完全攻克。我翻譯了一下,大概是這麼個意思:
“Siri幫助我們的使用者找到他們需要的東西並快速完成任務,在過去的六個月裡,我們讓Siri更具對話性,引入了Siri型別和產品知識等新功能,並增加了與ChatGPT的整合
我們還一直在努力打造更加個性化的Siri,讓它更瞭解你的個人背景,並能夠在你的應用內和跨應用為你採取行動。
實現這些功能需要比我們預想的更長的時間,我們預計將在明年推出它們。”
去年到今年,今年到明年,明年又要到何時?
科技圈炸開了鍋:“技術準備都沒到位,你們在宣傳些什麼?”
於是,開始有人質疑蘋果的創新跟不上時代,也有人諷刺蘋果原本有著先發優勢的Siri現在卻成了落後者。
那麼問題來了,蘋果說的這個技術到底是什麼?怎麼把蘋果這樣的大科技公司都難住了?
其實,不僅是蘋果,科技公司比如谷歌、亞馬遜等等,只要是在做AI智慧助手的,都在面臨同樣大難度的技術挑戰。
所以,想弄明白這些問題,首先,就得從這個詞開始說起:AI智慧助手。

AI智慧助手

老讀者可能知道,前幾天,我在機場遇到了阿里巴巴B2B前總裁衛哲。我們聊了聊他在網上大火的關於未來的三大預測。回來我也寫了篇文章,放在參考資料裡了,感興趣的朋友可以點選檢視。
其中一個預測,就是“3年內APP會少一半”。
為什麼少一半?衛哲提到,因為一個新的東西在路上了:AI智慧助手。
衛哲說,現在我們出差,比如從上海到三亞,一路得開啟五六個APP。訂機票的APP,訂酒店的APP,看天氣的APP,選餐館的APP,查路線的APP,支付的APP,聊天的APP……
但如果有AI智慧助手呢?幾句指令,它就幫你安排好一路的行程。
而這個未來,或許正在到來。
早在2016年,谷歌隨著初代手機Pixel推出了智慧助手Google Assistant,透過它,消費者可以用手機、音響、手錶來語音控制智慧家居裝置。
然而前幾天(3月14日),谷歌卻突然宣佈,Google Assistant要逐步停用了。
停用,不是因為“智慧助手”不行了,而是因為智慧助手得升級,變成“AI智慧助手”。甚至,要升級成語音控制的AI智慧助手。
嗯。那以前不早就有了智慧音響嗎?現在的這些智慧助手跟那些智慧音響,有什麼區別呢?
區別挺大的。大在,它開始能理解你的話了,並在跟你溝通交流的同時,自己去調動其他工具來協同實現你的指令。
去年,谷歌的AI助手Project Astra在谷歌開發者大會上首次亮相。
大會上谷歌展示,這個AI助手可以和使用者溝通互動,能記住過去10分鐘內的資訊,可以給出時尚建議,甚至會主動提醒使用者“別忘了你需要買橙汁,因為你今天早上喝完了”。
同一年,亞馬遜也推出了專注購物體驗的AI助手Rufus。在印度市場,它能根據天氣、節日、區域品牌來給出購物建議。
還沒完。今年2月,亞馬遜緊接著宣佈了通用智慧助手Alexa+的上線,訂閱費用19.99美元/月,對Prime會員免費。
根據釋出會,它能支援預訂餐廳、安排維修服務、提醒重要事件。關鍵就在於,它開始能記住使用者的偏好和習慣,能根據使用者的需求,定製化服務了。
今年2月,華為也宣佈,他們的AI智慧助手小藝開始接入DeepSeek-R1了。不少網友拍了影片,分享各種“小藝成精”的場景。
到了今年3月,谷歌的Project Astra雖然還沒有面向公眾全面亮相,但是部分功能已經向一些付費訂閱使用者逐步推出。
一個、兩個、三個……蘋果在哪?
蘋果,好像在這一輪的AI助手擂臺賽上,“掉隊”了。
14年前,Siri誕生。誕生初期,蘋果給它的願景,是成為一個“謙遜的私人助理”。
但是14年過去了,Siri似乎並沒有那麼“好用”。消費者們依然在社交平臺上吐槽Siri,說它還是一個半天聽不明白話的傻白甜。甚至,有時候連喚醒它都很困難。
於是,就連果粉都忍不住開始靈魂拷問:蘋果你行不行啊?
具體哪裡的技術出了問題,具體跳票是因為什麼,我們不由而知。蘋果產品的保密工作,一直都是業內頂尖。
但是,官網上被悄悄刪除並修改的內容,或許能讓我們窺探一二。
這個內容,就是:上下文理解能力。

上下文理解能力
有網友扒出來,在蘋果宣佈Siri升級推遲後,官網上相關的描述,有一處被明顯刪除了。
在之前,是:
“憑藉更豐富的語言理解和對個人上下文的感知,Siri比以往任何時候都更智慧、更有用。”
現在,改成了:
“憑藉更豐富的語言理解和對裝置的全面產品知識,Siri比以往任何時候都更有用。”
根據蘋果開發者大會描述,後面這個“對裝置的全面產品知識”,意思是關於蘋果各種產品的問題,你可以呼叫Siri給你答覆。這樣你就不用去自己去挨個搜尋,也不用專門開啟產品說明書挨個找自己遇到的問題到底對應哪一個專業名詞。
你直接描述你遇到的問題場景,它就能幫你檢索到對應的答案。嗯,聽起來跟常規的智慧體,似乎差別不大。
但是,被替換掉的這個“對個人上下文的感知”,卻是個改革性的功能。
打個比方。
我們從小考這麼多次試,都知道一個很煩的題型,叫“閱讀理解”。以前還經常爆出新聞,說讓作者本人來做這些閱讀理解題,他都沒辦法拿滿分。
而這個“對個人上下文的感知”,則是給AI助手做的“閱讀理解”。AI要理解的東西,是我們隨口說出的話。
要知道,人說的話,往往是有背景、有場景的,而且,不一定很有邏輯。所以AI需要消化一串又一串,不那麼清晰的指令。更別提,中間還時不時會出現各種錯誤修正。
谷歌和亞馬遜的智慧助手,都已經具備記憶能力。也就是之前說過的話,會被記住,你不用重複說。
但是記下來,並不等於理解了。理解,還需要更進一步。
根據蘋果開發者大會的內容,他們宣稱:“升級後的AI助手,理論上會更自然地跟你進行上下文對話。”
比如現在,你站在我面前,我們對話。你說上一句,我聽到了,當你繼續說下一句的時候,是不會再次重複上一句的內容的。
你說“待會兒怎麼去蘋果花苑”,我以前和你聊過天,知道你母親住蘋果花苑這個資訊。那麼,你去那裡往往是去看望母親。所以我在回應的時候,可能還會提醒你一句,給母親帶上她愛吃的水果,附近那條街有水果店,你可以去看看。
這都是因為,我對你有一定的瞭解,能自動聯想背景,理解前後句,自動在大腦裡把它們關聯起來。而AI智慧助手就能像我一樣,去自然理解你的指令。
具體的,蘋果官方舉了例子。看影片。
事情的關鍵在於,當蘋果連夜刪除“上下文理解”相關的表述之前,已經有科技公司把這個功能做出來樣品了。比如,亞馬遜的Alexa+。
根據Alexa+的官方描述和使用者的體驗,你如果問它“西雅圖的天氣怎麼樣?”之後,接著問“這個週末呢?”Alexa+能夠理解你這時仍然在問西雅圖的天氣情況。
它不會從“這個週末呢?”開始理解,然後回覆乾巴巴的“我沒聽懂你的意思”。
另外,當你用Alexa+次數多了,它會記住你和家人的各種偏好,在你下一次呼叫它的時候,比如問“去哪裡吃?”它會根據你們的飲食偏好來推薦適合的食譜或餐廳了。
作為智慧家居領域的AI,你還可以讓Alexa+呼叫家裡帶有AI功能的攝像頭,分析攝像的影片,然後告訴你家附近發生了什麼。比如確認是否有人遛過狗。
實現這樣的功能,具體的技術細節還有各種差異。但是想要實現它,至少得動用上一個大模型,它叫:多模態AI模型。
亞馬遜的Alexa+部署在Claude和Nova模型上,這些模型系列裡就有多模態AI模型;
根據華爾街見聞報道,最近爆火的Manus,AI代理部分則是基於Anthropic的多模態AI模型Claude 3.7 Sonnet;
而蘋果的升級版Siri,據說是基於OpenAI的多模態AI模型,ChatGPT-4o上。
多模態AI模型,是能理解上下文的能力“基石”。
但是,它到底是什麼東西?

多模態AI模型
資訊,是有不同的載體的。
常見的比如,文字、圖片、音訊、影片,它們就是四種不同型別的“模態”:
當ChatGPT剛開始出現的時候,只能透過文字生成文字;
Midjourney剛出來的時候,開始文字生成圖片,然後圖片繼續生成新的圖片;
Sora出現後,文字可以生成圖片,也能生成影片,圖片也能生成影片了。
慢慢的,這些不同資訊載體之間,都可以互相生成、識別。這,就是多模態AI模型。
蘋果作為頭部科技公司,雖然開發者大會上宣佈的技術不一定部署完備,但是它所描述的方向,一定是行業內所期盼的一個方向。
蘋果的Apple Intelligence據說會有一個重要功能,叫:螢幕內容感知功能(On-screen awareness)。
它宣稱能實現的功能,是“理解螢幕內容,並執行相應操作”。
螢幕上有什麼內容?新聞彈出的文字,APP排布的圖畫,以及你在各種APP之間不斷切換和使用的影片。
要理解這些內容,就得搭載優秀的多模態AI模型,能支援文字、影像和音訊的輸入與處理,能理解、生成文字、影像和音訊等等多媒體格式的內容。
所以,其實到這一步,蘋果已經給自己疊了至少兩個難度。
1)如何“催熟”多模態AI模型
ChatGPT-4o畢竟是第三方提供的大模型。
蘋果如何把這一套完美嫁接到自己的系統,並且真正實現他們宣傳的功能,有難度。
2)使用大模型“免費”後怎麼“收費”
蘋果把ChatGPT-4o嵌入了全系統來創作內容,而蘋果產品的消費者,不用建立賬戶就能免費試用。
那麼,除了購買蘋果新機這一次性的收入之後,還有哪些收入來覆蓋大模型的消耗成本,也是蘋果需要思考的問題。
而且,蘋果宣稱的AI升級功能,到此還遠遠沒完。
根據宣傳的描述,消費者可以直接在各種APP裡面,不斷玩轉各種媒體型別的內容:
用文字,來搜尋照片。用文字,來畫圖。甚至可以透過文字描述,找到一段影片當中的特定時刻,你可以直接跳轉到對應的片段。
最關鍵的,還有開發者大會上的這句話:蘋果系統中的所有APP都能用,而且可以跨多個APP執行操作。
而要實現“跨APP”,你就得明白什麼是API。

API
無數個APP應用,就像是一間間小房子。而你的AI智慧助手,就像一隻小狗。小狗要在房間之間穿梭,要是房間嚴絲合縫沒有出口,就不可能實現,對吧?
那麼,房間和房間之間,得有小狗門。而這個小狗門就是API,它有個名字,叫“應用程式程式設計介面”(Application Programming Interface)。開發者還可以透過控制小狗門開關,限制使用許可權。
透過API,AI助手可以呼叫不同APP的功能。比如,透過日曆APP的API獲取日程,透過地圖APP的API規劃路線。
如果沒有API,意味著多模態AI模型沒有一個內容出口,APP之間沒有“小狗門”。那麼,資訊就會是封閉的,又怎麼可能實現呼叫呢?
API,就是多模態AI模型能被我們尋常消費者“看到”和“應用”的內容出口,也是實現跨APP操作的橋樑。
那麼,假設蘋果技術研發順利,會呈現出怎樣的效果呢?看影片。
API做好了,很賺錢。但是之前,主要是在企業服務領域賺錢。
給你舉個典型的例子。
OpenAI的勁敵,Claude的製作開發公司Anthropic,在一年內把收入增加了十倍。3月初,Anthropic宣佈完成35億美元E輪融資,投後估值高達615億美元。而這,是其他許多軟體公司十年都實現不了的戰績。
和OpenAI不同,他們很大一部分收入,是對企業的API業務服務收入。
根據華爾街見聞的報道,它的年化收入中,有高達85%來自API業務。相比之下,OpenAI只有27%。
的確,對於toB的企業來說,內外部的應用程式多如牛毛。光是給他們做好“小狗門”,實現各種多模態AI模型的內容輸出,就足夠撬動一個很大的蛋糕。
但是蘋果這次的宣發,卻瞄準了toC端:個性化智慧系統(personal intelligent system)。
也就是說,Anthropic靠toB迅速擴張、融資,而蘋果卻打算靠toC來入局AI智慧助手圍剿戰。
蘋果給自己的難度,又上了一層。
這個性化智慧系統,到底是什麼好東西,值得蘋果如此追求?

個性化智慧系統
關於個性化的場景,蘋果舉了個日程安排的例子,讓人印象很深。請看影片。
以防你不方便看影片,我也給你整理在下方:
假設我有一場會議改到了傍晚,我想知道開完會後能否趕上女兒的演出。此時,AI助手會處理相關個人資料:
1)它知道我的女兒是誰,2)也知曉她前幾天發給我的演出詳情,3)還掌握這場會議的時間和地點。此外,4)它能預估我從公司到劇院途中的交通狀況。
所以,蘋果這一步需要實現的功能,是消費者只需要給出一句指令,AI助手就能提供一個不錯的解決方案。
不僅是實現各種各樣的任務安排,而且,是完全圍繞著“你是誰”、“你的人際關係”等等個人資訊,來提供的助力。
(截自蘋果開發者大會)
蘋果負責軟體工程的高階副總裁Craig描述說,所謂個性化智慧系統,是他們把強大的生成式模型嵌入到蘋果手機、電腦等產品的核心,根據你的個人情境來提供幫助的一套系統。
比如,你給上司發郵件,會根據你們之前的來往資訊,自動生成可能的回覆方案,或者在郵件最上方給出摘要。
又比如,在備忘錄裡面,你畫的草圖,會一下子生成更精緻的圖片。你可以在一大段文字旁邊,圈出一片空白,讓AI助手去理解你的文字,從而生成相關的圖片。
就像Craig說的那樣:
“其他的許多AI工具,能利用全世界的知識來執行大量的任務,但很少能充分了解你或你的需求……而蘋果這項智慧技術的真正獨特之處,是能理解你的個人情境。
哇地一聲哭出來。蘋果,它想了解我哎。但是,怎麼了解?
除了前面提到的那些技術,還得靠:語義索引。

語義索引
什麼是語義索引呢?
它就像是一位優秀的圖書管理員,給所有圖書館裡面的資訊,分類打上標籤。當你想查詢,就知道去哪一個小房間的哪一個架子上找到。
只不過,在人工智慧領域的語義索引,用上了更精細的技術,像是“自然語言處理(NLP)”和“機器學習”技術,來理解和組織資料、資訊。從而,可以給照片、日曆和檔案,甚至往來訊息和郵件裡的內容,建立語義索引。
再加上多模態AI模型嵌入後,AI助手就不僅僅只能給文字打標籤,還能給圖片、音訊、影片打標籤了。
並且,因為有API這個小狗門四處接入,其他開發者如果想用這些功能,就可以透過新的API整合到自己的APP裡面。
如果技術順利,那麼,當你都忘了一份書單你存在哪裡了,或者填寫表格的時候記不得駕照號碼了,你都可以直接語音呼叫AI助手,幫你找出來。
聽上去確實很美好。但是技術上要實現,也的確很不容易。
不僅如此,蘋果給自己的挑戰還沒完。因為,既然要實現個性化智慧,怎麼可能不去使用你的隱私資料呢?
所以,還有一項技術功能需要實現,那就是對使用者的個人資訊,只識別,但不蒐集。
怎麼做?

裝置端處理
識別,需要AI大模型。而不論是多模態AI模型還是生成式模型,往往都是很大很大的東西。一般來說,很難放進你的口袋。
那麼,你能做的一件事,就是把你剛好需要的那一小部分,裝進口袋。
那麼,可以透過對大模型的模型剪枝、量化和蒸餾等技術,把複雜的AI模型,簡化成可以在手機這麼小的裝置上執行的小模型。
的確,對於資料的處理方面,伺服器能幫忙。但是傳統的伺服器,往往會在你不知情的情況下,儲存你的資料。
又因為伺服器軟體只有所有者才有資格訪問,所以你無法驗證資料是否被蒐集,或者被挪用。這樣就容易導致各種問題,比如我之前寫的文章《DeepSeek會被美國封禁嗎?》裡就提過,關於資料監管權的紛爭。
那如果想繞過這些紛爭呢?或許,可以透過裝置端處理來承接。
裝置端處理(On-device processing),顧名思義,就是直接在手機、電腦等裝置上處理資料,而不是傳輸到別處。
而且,這樣做還有一個好處,那就是不需要聯網就能使用。
這樣一來,手機搭載了小模型,就只需要對於要處理的資訊資料進行“識別”,而不是蒐集儲存起來。
但是,這樣做也有它的侷限。畢竟規模小,能處理的資訊也小。
當涉及到需要大量運算才能解決的問題時,怎麼辦呢?
還得用上雲計算的技術。
雲計算裡所謂的“雲”,指的其實是網路。雲計算,就是透過網路來提供伺服器、儲存、軟體等等技術,然後按需使用和付費。
比較常見的應用,比如百度網盤。你可以選擇把文件儲存在電腦本地,也可以存在百度網盤,就不會佔用你本地的記憶體了。
但是雲計算存在的問題,就是在用網路來處理、儲存資料的同時,你的隱私或許也跟著走出了家門。
所以,蘋果還得用一種特殊的雲計算:私有云計算。

私有云計算
私有云計算(Private Cloud Compute),重點就在於“私有”,就是把iPhone上的隱私和安全保護功能,膨脹擴充套件到雲端。
當你需要大量的計算時,蘋果手機或者電腦就會自己去識別,把和任務相關的資料,提取出來,傳送給Apple晶片伺服器處理。
比如,你語音問Siri要一份菜譜,Siri如果覺得ChatGPT能幫你,會向你徵求允許之後,用大模型來給你生成答案。
又比如,你在裝修陽臺,可以拍一張照片,問它這個地方用哪一種植物會更好看。Siri也會在確認是否能跟ChatGPT分享照片之後,呼叫大模型來幫你回答這個問題。
這件事的難度,至少有二。
一來,得保證真的“私有”。
獨立專家可檢查,程式碼透明。消費者如果想驗證你是不是真的守住了隱私,還可以驗證。
二來,算力要跟上。
到了這一步,對算力的要求就會比尋常使用裝置要高很多。用什麼驅動這些資料處理呢?AI晶片。
這又是一個技術攻堅。就拿組成晶片的矽片來說,一個12英寸的矽片,平整度控制在1奈米以下。這就意味著,從北京到上海這一路上,最大地面起伏得在4毫米以內。
高階AI晶片的研發難度,可想而知。
呼。到了這一步,還沒完。
這麼多的任務,都交給AI一層層處理,出現幻覺怎麼辦?

AI幻覺
幻覺,簡單來說,就是一本正經地胡說八道。
相信使用過AI的朋友,都經歷過這樣的AI幻覺:你問它一個問題,它回覆你一個不著調的答案。
那麼,當我們回過頭來再看看AI助手做的事情,你就會發現,每次一個指令被執行背後,是一個任務被拆成了幾步、十幾步甚至幾十上百步。
這會出現什麼問題呢?
假設每一步,AI可以準確成功執行的機率是90%。這聽起來挺高的,對吧?
但如果是每一步都累計起來呢?
所以,當AI助手處理簡單任務的時候,效果還不錯。但是複雜任務,還是不那麼如人意。
相信透過今天的文章,你已經能理解,蘋果宣佈推出的這個AI助手,完成的任務大多都是一層套一層,多步驟、很複雜的任務。
就拿我們前面已經提到的8個關鍵詞,每個關鍵詞都對應著無數個任務。8個90%相乘,成功率就砍半變成了43%左右。
那80個90%、800個90%相乘呢?報錯就算了,關鍵它還編造得讓你識別不出來,耽誤事。
另外,根據一些AI助手的測評反饋,普遍還會受到“確認問題”的困擾。什麼意思呢?
現在剛開始使用一個新APP的時候,你是不是想加入照片還得“確認訪問”?同樣的侷限也會出現在AI助手上。當它開始瘋狂呼叫各種APP的時候,小狗門不斷找你確認才能開啟,那得多煩啊。
當你忙著火急火燎地出差,每一次交易,都還得你確認才能進行下一步。訂火車票訂這個時間段可以嗎?請確認。訂酒店訂這個可以嗎?請確認。打車選專車還是快車?請確認……
即便AI助手已經可以幫你突破重重技術阻礙,開始執行多個任務了,你還是得守在前面盯著看。
AI助手的便利性,就會大大降低。所以,這又是一層需要克服的難題。
這其實和你自己一個個APP去操作相比,說不定自己操作還更好一些。
對。又雙叒叕一個技術難題。

難走的路
哎。梳理這些技術難題的時候,挺感慨的。
最近幾年,蘋果的情況,也不是很樂觀。倒不是說他們出了什麼大問題,但是毫無疑問,蘋果距離我們回憶中巔峰時期的那個印象,確實有差距。
尤其是喬布斯喬幫主掌舵的最後幾年。2007年,蘋果釋出了第一代iPhone。2008年,蘋果應用商城App Store上線。2010年,蘋果推出了平板電腦iPad。2011年,蘋果成為了全球市值最高的公司。
然而2011年之後,許多果粉都說,喬幫主的離世,標誌了蘋果輝煌時代的結束。
雖然,蘋果在庫克的領導下,市值和財務表現依舊高歌猛進。2018年蘋果成為首家市值突破1萬億美元的公司。2020年,蘋果市值翻倍,突破了2萬億美元。
這些不斷膨脹的資料之下,科技圈卻一直討論著蘋果在創新上的“減速”。
但,即便在這樣的情況下,蘋果其實依然選擇了一條挺難走的路。
這次跳票之後,很多技術分析人士也都在討論蘋果的技術卡點。如果只能用一個關鍵詞來說的話,大概是:一致性。
Apple Intelligence和AI升級版Siri要想做出來,就必須把之前不斷膨脹出來的各種事物,統一。
比如,系統的統一。
你可能不知道,蘋果其實有兩個系統。一個是負責處理傳統任務的簡單系統,一個是負責複雜查詢的高階系統。AI助手想要順暢執行,就得統一這兩個系統。
同理,還有手機、電腦、平板、VR眼鏡等蘋果裝置之間的統一。又比如第三方語言模型接到蘋果系統,隱私保密功能的統一。
所以,AI智慧助手都要攻克的,比如上下文理解能力,多模態AI模型,API、AI幻覺等等,蘋果要想出頭,不說做得更好,至少得滿足平均水平,對吧?
實際上,亞馬遜的Alexa+也曾經歷過多次延遲釋出。測試中出現了回答錯誤的問題,跳票。響應延遲影響了使用者體驗,跳票。又比如AI模型的訓練資料不足、資源分配問題,以及與舊裝置的相容性問題……跳票。
而在滿足AI助手通用功能的基礎上,想要打出差異化,還有蘋果自己想要做的個性化智慧系統,語義索引,裝置端處理,私有云計算。
等等等等,等等等等。又在蘋果的肩上,壓下了重重的幾筆。
所以你就明白,這次蘋果宣佈的AI升級,太難了。
蘋果到底遇到了什麼,我不知道。但是想要做好AI智慧助手,想要打出差異化,它就是這麼難。
就像喬布斯曾說過的那句話:
“ 消費者並不知道自己需要什麼,直到我們拿出自己的產品,他們就發現,這是我要的東西。”
我也不知道蘋果什麼時候可以攻克,甚至不知道能不能攻克。
但是,毫無疑問,蘋果是一家偉大的科技企業。還有這麼多的粉絲朋友,在翹首以盼改革性的產品出現。
所以,祝福蘋果,早點攻克技術難關。
繼續創新。
繼續。Think Different。
P.S.
這個世界,變化得越來越快了。
人工智慧,全球格局,消費市場,產品趨勢,新興行業,營銷手段……每天都在改變。
看著這些變化,你可能會感到焦慮、迷茫。但看懂這些變化,你也許就能從中找到屬於自己的機會。
所以,我每年都會讀大量的書,見大量的人,去參訪,去調研,去思考,並且在每年10月份,在年度演講上與你彙報和分享。但是,這依然有個挑戰。那就是,年度演講,一年只有一次。很多變化,其實等不到那個時候再講。
所以,我和我的團隊,正式宣佈:隆重推出,進化的力量·劉潤年中大課!
6月7日,請允許我用兩個半天的時間,與你分享:上半年怎麼樣?下半年怎麼辦?
前半天,我們會重點關注“全球格局”和“科技浪潮”。因為,這兩個最大的變化的“發源地”,常常影響著千行百業的命運。後半天,我們會重點關注“消費市場的新機會”和“企業核心能力的建設”。因為,這兩個企業最重要的變數,直接關係著你的增長。
不做現場直播。也不做事後回放。就讓我與你,獨家分享。
好了。我的朋友。
點選下方購票連結,就可以瞭解到更加詳細的票務資訊。現在搶先購買,或是組團前來,還可以享受到更低的“早鳥價”。
6月7日,我們,現場見!

*個人觀點,僅供參考。

參考資料:

2、Anthropic最新年化營收突破14億美元,Claude助力“Manus”AI代理爆紅,華爾街見聞
https://wallstreetcn.com/articles/3742844?keyword=Anthropic
3、2025年1月OpenAI勁敵Anthropic擬募資20億美元,估值達600億美元,華爾街見聞
https://wallstreetcn.com/articles/3738598?keyword=Anthropic
4、智慧音箱鼻祖Alexa,終於接入大模型,虎嗅網
https://www.huxiu.com/article/4065025.html
5、谷歌反擊:Project Astra正面硬剛GPT-4o、Veo對抗Sora、新版Gemini變革搜尋,機器之心
https://www.jiqizhixin.com/articles/2024-05-15
6、Apple says some AI improvements to Siri delayed to 2026, Reuters
https://www.reuters.com/technology/apple-says-some-ai-improvements-siri-delayed-2026-2025-03-07/
7、Introducing Apple Intelligence for iPhone, iPad, and Mac, Apple
https://www.apple.com/newsroom/2024/06/introducing-apple-intelligence-for-iphone-ipad-and-mac/
8、蘋果終於承認!新版個性化Siri延遲到2026年,新浪網
https://finance.sina.com.cn/roll/2025-03-09/doc-inenztuq0786581.shtml

主筆/ 木言聲  編輯 / 二蔓  版面 / 黃

這是劉潤公眾號的第2540原創文章

品牌推廣 培訓合作 | 商業諮詢 | 潤米商城 | 轉載開白
請在公眾號後臺回覆  合作 


相關文章