你的AI用錯了,這些問題才是它的“主戰場”

AI解決複雜問題的能力取決於若干因素,這些因素可能提高(也可能降低)AI的有效性。其中,最關鍵的因素包括:是否有可用的高質量資料、潛在解決方案的數量、目標是否清晰,以及需要適應不斷變化的評判系統。當這些要素缺失或定義不清時,就會帶來挑戰。
AI的發展突飛猛進,它的潛力能帶來變革,讓研究人員、產品團隊和終端使用者都為之著迷。不過,儘管AI大受歡迎,但它只能解決非常具體的問題。在這篇文章中,我們將提供指導,幫助企業瞭解什麼問題適合利用AI解決,什麼不適合。這樣,當企業面臨的問題與AI所擅長的能力不一致時,企業仍然能找到解決方案,並在克服這些障礙後,找到更多能為企業和社會帶來更大利益的AI專案。
我們以谷歌DeepMind為例,DeepMind是Alphabet的AI實驗室,致力於解決現實世界中極具挑戰性的問題。筆者中的三人(保羅·切爾維尼、基婭拉·法羅納託和馬歇爾·範阿爾斯泰因)從事針對科技平臺發展的學術研究,也在多個領域中對AI進行了創新實踐,並從中汲取了專業知識。除此之外,作者之一的普什米特·科利在谷歌DeepMind工作,擁有第一手經驗。
以下內容可以判斷AI是否適合解決某個問題,但我們並沒有提供一個包含所有判斷標準的清單。尤其考慮到,這些判斷標準可能因不同的AI應用領域而有所不同。我們最主要的目的是找到最為關鍵的判斷標準。
AI能解決這個問題嗎?
AI解決複雜問題的能力取決於若干因素,這些因素可能提高(也可能降低)AI的有效性。其中,最關鍵的因素包括:是否有可用的高質量資料、潛在解決方案的數量、目標是否清晰,以及需要適應不斷變化的評判系統。當這些要素缺失或定義不清時,就會帶來挑戰。我們需要用創新的方法來克服這些挑戰。以下是出現這四種要素和挑戰時應採取的措施:
1、缺乏高質量資料
資料是任何AI模型最關鍵的輸入,但資料規模往往比資料質量更受關注。雖然,大語言模型(LLM)的發展趨勢表明,不斷增加的資料量可以幫助獲得高質量模型和輸出結果,但這種趨勢是否會繼續保持下去仍有待探討。
事實證明,資料質量與資料規模同樣重要,甚至比後者更重要。某些情況下,如果你有一個相對較小但質量很高的資料庫作為起點,你甚至可以透過生成虛擬資料來增加資料的規模。
這就是研究AlphaFold的團隊最初面臨的情況。AlphaFold是谷歌DeepMind的突破性技術,可以準確預測蛋白質結構的三維形狀。這項技術正在加速幾乎所有生物學領域的研究。
2017年,AlphaFold處於初始開發階段,開發團隊僅掌握了約15萬個3D蛋白質結構資料點。這些結構是幾十年來透過昂貴且耗時的技術手段(如X射線晶體學或冷凍電鏡),運用實驗確定的。(單一蛋白質結構需要至少一位博士生來研究)對於機器學習系統來說,這只是一個很小的資料集。
不過,研究團隊透過預測未知的蛋白質序列的結構,成功地擴充了這些資料。他們構建了一個AlphaFold的原型版本來實現這一點。這個版本足夠強大,能夠生成一百萬個新摺疊蛋白質的預測結果。
接著,團隊使用這個版本的AlphaFold來評估自身的預測結果有多準確。透過這個自我提煉過程,團隊將得分前30%的預測結果重新加入訓練模型的資料集中,與真實資料一起使用。這樣,資料集的規模就擴充套件到了約50萬個摺疊蛋白質,足以訓練出一個最終版本的AlphaFold。
需要注意的是,儘管在當時的情況下,這種訓練方法的效果顯著,但必須非常謹慎地用生成的虛擬資料來訓練模型,因為可能會造成遞迴學習的風險:即用過去模型迭代的預測結果作為輸入來影響後續迭代,會放大前一輪模型迭代中傳遞下來的錯誤和不準確性,導致模型的效能下降。
但是,如果一開始使用的資料集非常大但質量很低,那麼想要透過合成數據來提高資料質量就會非常困難。從網際網路上抓取的資料——可能包含各種資訊、格式、語言、主題和方式,就屬於規模大但質量低的資料集。多數情況下,嘗試提升其質量並不值得,因為需要花費大量的努力和時間。且在這種資料集中,模型也找不到合成數據的“正確答案”——比如,當詢問哪個食譜能做出完美的比薩時,答案最可能是“這取決於情況”。這種細微差別和對上下文的需求,使得模型無法結構化語言和常識,從而難以創造出高質量的資料集。
2、潛在的解決方案太多
當一個問題有太多解決方案時,想要透過“蠻力”的方法——窮舉測試所有的答案組合來解決問題,就變得不切實際了。從歷史上看,這種問題一直是透過啟發式的方法來解決的:用一些簡單的規則,找到能滿足大多數情況的“足夠好”的解決方案,而不是最優解。
針對有無數解決方案的複雜問題,運用AI是一種前景廣闊的選擇。然而,隨著潛在解決方案越來越多,如何驗證每個方案的質量也變得更加困難。例如,LLM擅長生成有創意和多樣的答案,但也面臨著“幻覺”現象的問題,即生成與事實不符的資訊。這削弱了人們對其的信任。因此,找到方法,確保LLM生成的解決方法是正確的、可驗證的,已成為推動LLM能力發展的關鍵。
3、缺乏明確的、可衡量的目標
目標函式(也稱為獎勵函式)是AI模型試圖實現的目標或輸出。換句話說就是,我們要向模型提出正確的問題。確定“你希望模型做什麼?”是任何機器學習系統中最困難的部分之一。以象棋或圍棋等遊戲為例。這些遊戲有清晰且可衡量的目標,比如分數或一套決定勝者的規則,而且迭代成本低,讓AI能快速學習。
但在現實世界中,目標通常是複雜且無序的,我們沒有一個簡單的度量標準來衡量進展。如果沒有明確且可衡量的目標,定義“好”的標準就會變得困難。目標越模糊,模型的表現就越差。
回到AlphaFold的例子。生物學中,蛋白質摺疊有明確且可衡量的目標,而AlphaFold的目標是將實驗檢測出的3D摺疊蛋白質結構與計算預測出的結構之間的差異最小化。衡量成功的一個好方法是,每兩年舉行一次的結構預測關鍵評估(Critical Assessment of Structure Prediction,CASP)競賽。這項賽事類似於蛋白質摺疊的“奧運會”,它彙集了來自世界各地的最優秀的團隊,互相比較預測蛋白質結構的計算方法。參與這一競賽,讓AlphaFold的研究團隊能夠獲得對模型表現的客觀“評分”,並與其他團隊進行比較。
向AI給出清晰的目標和衡量標準是一個挑戰。尤其是在社交媒體等環境中,“參與度”常常被看作是衡量專案成功與否的指標,透過點贊、分享、評論或在平臺上花費的時間來衡量。最佳化參與度可以推動使用者活動和收入,但也可能帶來意想不到的後果。比如,它可能會放大極端思想,或傳播聳人聽聞的內容、虛假資訊等,抑或是鼓勵成癮行為,傷害使用者的長期福祉。
這些陷阱突顯了設計多目標最佳化框架的重要性,該框架可在參與度和其他關鍵指標之間取得平衡,例如內容的準確性、觀點的多樣性和使用者滿意度等。在簡單的評判指標外,納入人類反饋、道德準則和更廣泛評估標準,有助於讓AI生成有意義且可持續的結果,同時避免造成傷害。
4、當“好”無法被寫進程式碼裡
組織面臨的問題通常是動態變化的。加上前述的無法簡單識別某個解決方案是否有效,AI可能會有逐漸偏離最佳答案的風險。為了克服這一挑戰,越來越多的技術開始採用帶有人類反饋的強化學習(RLHF)。
這種“人類參與”的技術使得模型能夠從資料之外的人類洞察中學習。RLHF特別適用於那些AI難以基於清晰演算法編寫解決方案,但人類能夠直觀地判斷模型輸出質量的情況。
DeepMind最近與YouTube Shorts團隊的合作就是一個很好的例子。由於短影片的製作通常較為迅速,創作者在影片標題或描述中往往只新增少量資訊,使得觀眾很難找到他們想看的短影片。
生成準確的影片描述是AI要解決的問題:每個影片都是獨特的,透過啟發式方法生成的通用描述只能用來大致地分類影片(例如,它是一個體育影片或園藝影片),但不足以在個別層面上提高影片的獨特性。然而,詳細且個性化的影片描述才是觀眾找到他們喜愛的內容的前提。
人類擅長憑直覺判斷什麼是一個“好”的影片描述。而計算機歷來很難做到這一點,所以也很難為每個影片都編寫出“好”的描述。透過直接將人類反饋輸入到模型的下一輪迭代中,模型能夠透過試錯學習,直觀地掌握什麼樣的描述是“好”的,並不斷地最佳化它。模型透過不斷學習和適應新資訊,使得它能夠隨著社會審美和規範的變化而不斷進化。
谷歌DeepMind與YouTube產品團隊合作,部署了一個生成式AI模型,能夠為每個影片生成文字描述,這些描述被儲存在YouTube的系統中,來為使用者提供更好的搜尋結果。這個解決方案現在已經應用到所有新上傳的YouTube短影片中。
我們應該抓住哪些機遇?
企業可以利用上述標準來確定,什麼問題適合用AI解決。接下來要做的就是,從符合標準的大量AI應用機會中做出選擇。根據解決方案的影響力和範圍來確定部署AI的優先順序,不僅對谷歌有用,對整個社會也很有幫助。
DeepMind團隊將這種方法稱為“根節點問題”(root node problem)。可以把世界上的所有知識想象成一棵巨大的樹,樹枝代表不同的領域。在這棵樹中,每個“節點”是一個連線點,像一塊墊腳石,引導到其他分支。根節點是這棵樹的起點——一切其他事物生長的原始位置。如果解決了一個根節點問題,就會衍生出全新的研究領域和理解,這些新的領域又為探索和創新應用開闢了全新的道路。
AlphaFold專案很好地契合了這一標準,因為解決蛋白質摺疊這一重大挑戰不僅能推動更好的藥物發現進展,如瘧疾疫苗和癌症治療藥物,還能促進其他領域的發展,如開發能降解塑膠的酶來應對汙染問題。
在AlphaFold釋出之後,馬克斯·普朗克發展生物學研究所(the Max Planck Institute for Developmental Biology)的進化生物學家安德烈·盧帕斯(Andrei Lupas)在《自然》雜誌中寫道:“這將改變醫學,改變研究,改變生物工程,改變一切。” 2024年,諾貝爾獎委員會授予德米斯·哈薩比斯(Demis Hassabis)和約翰·朱珀(John Jumper)諾貝爾化學獎,表彰他們在開發AlphaFold中作出的巨大貢獻。
為了找出根節點問題,公司應當安排AI專家與其他領域專家之間進行討論。早期的DeepMind團隊就已經運用了這種方法。除了機器學習之外,團隊特意聘請了大量來自不同學科的人才,涵蓋了生物化學、物理學、哲學和倫理學等。這種多元化的專業背景可以激發不同學科之間的思想碰撞,找到解決問題的新方式。
迭代創新
一旦組織確定了根節點問題,產品團隊就會戰略性地選擇要部署哪些AI,並開始產品化過程。
產品化時,應避免兩大風險。第一,僅關注公司已確定能著手解決的根節點問題和其涉及的領域。這種做法可能會錯失重大機會。2020年AlphaFold釋出時,谷歌內並沒有適合的產品團隊來有效利用其研究成果(例如新的藥物化合物)。對此,Alphabet建立了Isomorphic Labs,專注用AI發現新藥物。這個專案可以完全由公司建立,也可以透過戰略合作伙伴關係實現。關鍵在於,創立Isomorphic Labs使研究和產品部門整合為了一個新公司,能夠促進兩者之間的快速發展。
第二個風險是,以為自己可以預測技術的演進,預見新的應用場景。與其遵循一個確定的路徑,組織應保留自己的選擇權,擁抱不確定性,允許AI解決方案的不斷演變,響應技術進步和使用者需求,並確保在整個過程中持續收集反饋。
前進之路
隨著AI的不斷發展,組織在部署AI時必須深思熟慮。本文提供了一個戰略框架,以找到適合用AI解決的問題——這些問題與AI的優勢相吻合,解決它們將為創新和影響開闢出令人驚喜的新路徑。透過關注根節點問題並促進跨學科的合作,組織不僅能有效地利用AI推動商業增長,還能推動社會進步。
關鍵詞:AI
保羅·切爾維尼(Paolo Cervini)基婭拉·法羅納託(Chiara Farronato)普什米特·科利(Pushmeet Kohli)馬歇爾·範阿爾斯泰因(Marshall W. Van Alstyne)| 文  
保羅·切爾維尼是AI、可持續發展和企業創新領域的戰略顧問。此前,他是《哈佛商業評論》義大利版的內容協調員。基婭拉·法羅納託是哈佛商學院格倫和瑪麗·簡·克雷默工商管理副教授,也是哈佛大學數字設計研究所 (D^3) 平臺實驗室的聯合首席研究員。她還是美國國家經濟研究局和經濟政策研究中心的研究員。普什米特·科利是谷歌DeepMind的科學和戰略副總裁,領導AI科學研究專案,包括AlphaFold、SynthID等。馬歇爾·範阿爾斯泰因是波士頓大學奎斯特羅姆商學院教授、麻省理工學院數字經濟計劃的數字研究員,以及哈佛大學伯克曼·克萊因中心的訪問學者。
DeepL、ChatGPT | 譯   張雨簫 | 編校
推薦閱讀
《哈佛商業評論》中文版 聯絡方式
投稿、廣告、內容和商務合作
↓點選閱讀原文進入哈評中文網,閱讀更多精品內容


相關文章