
來源:數字開物

以下是圓桌實錄,經翻譯編輯:
主持人:我們的爐邊談話時間會稍微縮短。我想給今天在臺上的各位專家科學家們提出一個挑戰,看看各位是否接受。我們會盡量長話短說,因為最終我們的時間比預期要少。我想知道我們是否可以開始探討社會智慧的概念,因為這當然是我們經常聽到的一個話題。首先我想請教您,關於社會智慧,它的基本內涵包括理解情緒、感知意圖以及人際互動。您認為目前的人工社會智慧有哪些侷限性?
Asu Ozdaglar:太棒了。這個話題我非常感興趣。我覺得我們正處在一個真正的轉折點。許多小組都強調了這一點,我認為這也是我在許多演講中看到的共同主題。人們都在談論 AI 助手、多智慧體等等。我的意思是,我們似乎都預測到將來它們會無處不在。我想強調的是,目前很少有問題或研究關注這些智慧體將如何與人類互動,甚至更廣泛地說,它們之間如何互動。這些 AI 智慧體將代表人類行動或為人類提供建議,而人類又身處各種社會和經濟互動之中。因此,它們基本上將直接或間接地,面臨彼此相關的決策。我認為,儘管人們對 AI 及其社會影響感到興奮,但在如何思考這個問題上,我們可能甚至沒有進行充分的概念化。
主持人:讓我們繼續探討剛才的話題。我想邀請 Mike 也加入討論,因為剛才提到了決策的制定方式和過程。Mike,您過去曾談到過關於 AI 的發展,認為不應僅僅專注於創造自主的類人智慧體。您如何看待這種社會性視角,以及它最終如何影響我們對智慧的理解?
Michael I. Jordan:嗯,我認為如果我們從五萬年後的角度回顧這個時代,最重要的成就不是娛樂,而是我們創造了文化、藝術、溝通方式以及各種啟發人心的事物。這才是人類的本質。對我而言,技術如果不能與人類的文化創造和精神追求相結合,我就不太感興趣。我不希望技術僅僅是像一副眼鏡,提醒我 9 點有個預約。我真切希望技術能夠豐富人類的體驗,更重要的是,它不應僅僅侷限於個人體驗。對我來說,世界不僅充滿了需要建模的事物,更充滿了與我互動的人們。我不瞭解他們的知識,他們也不瞭解我的知識,而且無法將所有資訊都囊括在一個系統之中。因此,我希望能構建經濟系統。在我的職業生涯中,見證了反向傳播演算法的興起,看著錯誤率不斷下降。那時我就意識到,蠻力 AI 終將成為現實。但我並不想僅僅止步於此。我希望確保 AI 系統是可靠和值得信賴的。因此,我開始轉向統計學,並對統計學產生了濃厚的興趣。Jan 可能在他的演講中提到過,我過去常常過多地提及 “統計學” 這個詞。而近十年,我的關注點轉向了經濟學。我發現經濟學原理無處不在,資訊不對稱、人與人之間的誤解,這些問題都讓我意識到,將人們聚集在一起,就能創造出個體無法企及的成就。所有這些方面,正是我在討論中所關注的,不僅僅是社會智慧,更是文化、互動以及創造新事物的能力。正如土木工程這樣的傳統技術創造了建築和橋樑,從而讓人類能夠從事全新的活動。
主持人:所以,Mike,我理解您的意思是,目前缺失的環節,或者說需要彌補的差距仍然存在。現在我想請 Stephanie 加入討論,因為我認為增強社會智慧至關重要。您對此有何看法?關於如何改進,我認為這正是 Mike 想要表達的,即加深對社會科學的理解,並強調集體性而非個體性。我們如何提升集體應對能力?
Stéphane Mallat:關於社會智慧,我認為 AI 是否能夠提升它,這確實是一個值得探討的問題。當然,AI 確實改善了跨文化交流,但在社會認知方面,我們反而看到了兩極分化現象,例如在社交網路上。因此,我對此並不樂觀,原因之一是信任問題,這些AI 系統掌握在公司手中,而這些公司的自身利益,與追求和平社會互動的目標可能存在衝突。第二點是關於 AI 是否有能力將我們聚集起來,為了共同目標而行動。這裡確實存在一個關於 AI 給出的任何診斷結果的可解釋性問題。全球變暖就是一個明顯的例子,科學界對此的解釋非常清晰,也給出了明確的要素,但我們仍然沒有就應對方案達成共識。因此,我不太確定 AI 能否在這方面提供幫助。現在,您提出的第三點是社會科學。我認為社會科學領域存在非常有趣的潛力,我可能要在這裡做一些簡化概括,但我仍然堅持認為,社會科學在很大程度上依賴於基於少量事實的低維度模型解釋。而現在,我們擁有了實驗和資料,這為構建更復雜的模型,包括網路模型,提供了可能。但是,同樣,在社會科學中,就像物理學一樣,我們不僅僅對預測感興趣,更在於理解現象背後的機制。而這正是 AI 在社會科學領域面臨的挑戰。我們擁有預測系統,但對現象背後機制的理解仍然非常不足。
主持人:非常感謝各位的真知灼見,Jan 早些時候也提到了很多相關理解。現在我想稍微轉換一下話題,因為今天觀眾提出的許多問題都圍繞著生成式AI 的可持續性。考慮到時間有限,我就直入正題了。Bernard,我想請教您,在開發節能演算法方面取得了哪些進展?這些演算法最終能夠幫助我們應對當前面臨的全球性挑戰。
Bernhard Schölkopf:首先,能源消耗確實是一個令人擔憂的大問題。目前的情況是,如果所有的搜尋查詢都被 GPT-4 這樣的大語言模型所取代,那麼粗略估計一下,其能源消耗可能就會佔到全球總能源消耗的 10% 甚至更多。而且我與一些年輕人交流時發現,很多人表示他們現在已經不怎麼閱讀文字了。如果有人給他們一篇文件,他們會先用 GPT-4 總結一下。可以預見,這類工具的使用者會越來越多。因此,能源消耗確實是一個非常重要的議題。當然,現在大家也在致力於開發更小型的模型。就我個人而言,我認為開發小型模型與追求模型規模的不斷擴大,並期望透過拓展來提升效能是同等重要的。從科學角度來看,探索如何構建更小型的模型可能更具意義。但我認為,同樣重要的是要考慮計算叢集的可持續性。
目前,世界各地都在大規模地建設計算叢集,但很多時候,人們並沒有充分考慮這些叢集所在地的能源供應情況。芬蘭的 Lumi 叢集在這方面樹立了一個很好的榜樣。如果我沒記錯的話,他們似乎是在某個偏遠地區找到了一家廢棄的造紙廠。那裡靠近水力發電站,電力供應充足。他們只是將計算裝置填滿了整棟建築,甚至無需新建混凝土結構,這也能減少大量的二氧化碳排放。而且我記得這個叢集完全使用可持續能源供電。我認為各國都應該認識到計算叢集的重要性。也許企業已經意識到了這一點,但一些歐洲國家有時將建設叢集視為一種 聲望工程,一種為了剪綵和在報紙上露臉的政績工程。然後,他們將叢集部署在那些在可持續能源方面並不理想的地方。我認為芬蘭在這方面做得很好,他們將叢集建在了人跡罕至的偏遠地區,雖然位置偏僻,但能源供應是可持續的。
主持人:好的,看來在節能演算法方面已經取得了一些進展,但顯然還有很多工作要做。接下來,我們繼續探討可持續性這個話題。Jan,您之前提到過,有些 AI 系統的效能還不夠理想,並且存在一些問題。您如何看待可持續 AI 的發展目標?您認為目前在可持續 AI 發展方面的合作是否充分?因為今天我們聽到了很多關於合作的討論。
Yann LeCun:嗯,答案是肯定的,合作是足夠的。原因有很多。首先,全球所有資料中心的總耗電量大約佔全球電力消耗的 3% 左右,注意是電力消耗,不是所有能源消耗。所以佔比不算特別大,雖然不可忽略,但也沒那麼誇張。問題在於,如果我們像我之前描述的那樣,未來每天都大規模使用大語言模型,並且有數十億使用者都在使用,那麼 AI 的能耗會不會急劇增加,佔到能源消耗的很大一部分?我的答案是不會,因為這會受到經濟因素的制約。我是說,人們願意每年花費 2000 歐元來使用 AI 助手嗎?如果要使用最頂級的 AI 系統,目前的成本大概就是這個水平。可能沒多少人願意花這麼多錢,對吧?我最近和一些印度的朋友交流,他們正在考慮建設資料中心,以便向印度民眾提供 AI 助手服務。他們計劃的預算規模比目前的成本要低 10 到 100 倍。他們表示,如果要為 8 億印度人民提供服務,成本必須降低 20 到 30 倍。因此,降低 AI 能耗有巨大的驅動力。這是使 AI 在經濟上可行的唯一途徑,只有這樣才能回收在基礎設施方面的鉅額投資。許多公司投入了大量資源,例如每家公司都有數百名工程師致力於硬體研發,開發專門的晶片來加速推理運算。還有許多初創公司也在做同樣的事情。此外,還有很多人在更底層的函式庫和編譯器層面進行最佳化,以儘可能提高效率。還有人嘗試將大型模型提煉成小型模型。還有人使用混合專家模型,這樣就可以針對簡單問題使用簡單模型,而針對複雜問題使用更復雜的模型。
總而言之,降低 AI 能耗的驅動力是真實存在的,人們已經在積極開展相關工作了。經濟激勵是驅動一切的根本因素。因此,並非人們忽視了這個問題,或者沒有采取行動。另一個方面,許多大型科技公司,也就是所謂的“超大規模企業”,他們中的大多數都設定了實現碳中和的目標,有些甚至已經實現了。例如,Meta 公司實際上已經實現了運營層面的碳中和,雖然不包括供應鏈,但運營層面確實實現了碳中和。他們實現碳中和的方式主要是透過購買可再生能源。因為資料中心不可能完全依靠太陽能供電,對吧?因為夜間也需要執行。Meta 公司是美國最大的可再生能源買家。
主持人:所以您的意思是,激勵機制是存在的,關鍵在於如何落實到位。下面我想將可持續性與倫理道德聯絡起來。Asu,正如我們所知,可持續發展和倫理道德都是需要努力實現的目標,需要切實落實到位。我們如何確保在 AI 討論中,透明度和可解釋性始終佔據優先地位?因為有些 AI 理念非常複雜,普通人可能難以理解。
Asu Ozdaglar:這是一個非常好的問題。我認為我們需要採取多方面協同的方法。首先,我們需要確保未來的勞動者、研究人員和學生都更加充分地認識到 AI 工具,瞭解它們的能力和侷限性。另一方面,我個人非常關注人與 AI 的互動。AI 工具應該如何幫助人類和人類決策者?我認為,要實現 AI 模型的潛力,就必須高度重視我之前提到的“可讀”和“可理解”的架構。缺乏可讀性會帶來問題。已經有證據表明,在放射科和醫療領域引入 AI 工具,實際上並沒有起到預期的幫助作用。例如,AI 可能會引入新型的錯誤,甚至是 AI 出現之前根本不存在的錯誤,因為醫生和放射科醫生並沒有真正理解 AI 系統給出的建議。這涉及到人與 AI 之間的溝通問題。AI 系統固然強大,可以提供各種各樣的資訊,但如果人與 AI 之間的溝通沒有經過周全的考慮和設計,反而可能會引發各種問題。例如,最近有很多新聞報道稱,AI 實際上使放射科醫生的工作變得更糟。原因在於,醫生可能會誤讀 AI 給出的訊號和建議,他們無法從 AI 的建議中獲得完整的統計資訊。這就意味著,醫生不確定 AI 是在重複他們已知的資訊,還是在提供新的建議,從而 受到“確認偏差”等因素的影響。因此,我認為我們必須繼續關注 AI 模型的透明度和可讀性,無論我們如何稱呼它。與此同時,也要確保對人們進行充分的培訓,使其能夠更好地與 AI 工具協同工作。
主持人:我的意思是,您剛才提到了關於誤解以及誤解可能導致的問題。Mike,我想請問您,如果我們從國家或國際層面來看,在確保剛才提到的那種透明度方面,政府、公司以及我們個人分別扮演著什麼樣的角色?
Michael I. Jordan:您想讓我談談這個問題嗎?我的意思是,我認為監管應該在我們真正開始瞭解這項技術能夠做什麼之後再進行。我在今天的演講中談到了均衡。我們會將許多事物投入應用,它們將以各種方式與人互動,人們會創造新的事物,新的市場將會出現,新的文化也將應運而生。我希望看到所有這些,並希望它們蓬勃發展。一旦我們瞭解了人工智慧能做什麼和不能做什麼,我們就可以進行監管,以確保整個系統以有益於社會福利的方式執行,並避免產生不良的外部影響等等。過早的監管只會扼殺創新。如果我們不瞭解正在發生什麼就進行監管,那將是非常糟糕的主意。
主持人:Eric 早些時候表示,在人工智慧方面,應該全速前進,以便了解技術的現狀,然後再像您所說的那樣制定框架,因為如果不先實踐,我們又怎麼能知道未來會怎樣呢?您是否也認同這種觀點?
Michael I. Jordan:是的,當然。任何技術最有趣的地方都在於那些我們從未預料到的應用。就像一個 25 歲的年輕人突然想到,化學工程現在已經可以用來製造氯氣,從而確保游泳池的安全。然後,他們又發現化學工程還可以用於製造藥物以及其他各種應用。這正是我所期待的。我希望看到人工智慧的發展,我更認同人工智慧的互補性概念,即人工智慧應該補充人類的能力。我希望人工智慧能夠以某種方式融入我們的生活,從而使我們的生活更加激動人心和有趣。我認為,當我們在創造事物或者與他人互動時,往往是最快樂的。如果技術能夠支援我們實現這些目標,我完全贊同。但如果技術妨礙我們,並試圖告訴我們該做什麼,我就不贊同。
主持人:很高興能聽到您對這個問題的看法。您認為在倫理方面,主要的考慮因素是什麼?我們是應該繼續全速前進,還是應該停下來,更早地完善相關框架?當然,這只是您個人的觀點。
Stéphane Mallat:您剛才提到了監管。很明顯,美國和歐洲對這個問題的看法有所不同。但如果您仔細思考一下我們想要監管的系統,就會發現監管本身也是實驗的一部分。如果我們等到最後才進行監管,我們將不知道如何進行有效的監管。監管應該隨著事物的發展而逐步完善,否則,如果我們等到最後才進行監管,可能會徹底陷入混亂。所以我傾向於認為監管實際上是系統不可或缺的一部分。無論如何,公司一直都受到監管。到處都有各種法規。因此,問題始終在於監管的程度是多一些還是少一些,而這顯然是目前大西洋兩岸存在分歧的地方。
主持人:我指的是,關於“先監管還是後監管”的這種二分法,或許反映了美國和歐洲的不同觀點。Bernard,很想聽聽您的見解。我們應該先監管還是後監管?或者說,我們應該在哪個階段開始監管?
Bernhard Schölkopf:嗯,我認為,如果我們回顧一下歐洲的做法,就會發現他們進行了諮詢,試圖獲得技術專業知識。但也許並非所有技術領域的人都認為他們獲得了足夠的技術專業知識。令我有點驚訝的是,我與之交談過的許多參與監管的人,他們似乎真的為自己成為首批進行監管的人而感到自豪。這讓我感到有點不舒服,好像我們歐洲真的以成為監管速度最快的地區而自豪。這可能是一個極端。另一個極端是我們只會進行實驗,然後打破它。或許雙方可以互相學習。在真空中進行監管沒有任何意義,因為沒有人能夠預測技術的發展。
主持人:好的。我明白了,您的意思是應該找到一些共同點。我看到一位來自美國的朋友想要補充一些看法。我認為現在有很多關於監管的討論,歐洲顯然在這些討論中處於領先地位。但是,與此同時,如果我們從人類行為的角度來考慮,拋開人工智慧不談,就會發現人類行為本身就受到明確的規範,對吧?例如,在醫療保健應用中,在某些應用場景下,我們不能提供醫療建議。除非獲得資質認證,否則我不能這樣做。但是,現在人工智慧模型最吸引人的地方之一恰恰在於此。如果你讓你的母親使用人工智慧模型,她們首先會問,我應該用什麼藥?我應該用這個藥嗎?還是應該用那個藥?所以我認為,這正是我思考監管問題的出發點,監管應該從人類系統已經受到監管的領域開始。在這些領域,已經投入了大量的工作進行監管體系的建設。因此,與其試圖找出人工智慧的風險點,並透過人工智慧系統本身來定義風險,不如真正從人類以及人機互補性的角度入手,因為這些系統最終將被人類使用。因此,如果我們從已經存在監管的應用領域開始著手,這可能是一種比較簡便的方法。除此之外,我同意 Mike 的觀點,另一方面是需要建立適當的激勵機制,也許可以由政府出面,激勵那些對社會有益的方向,從而促進人類福祉。我們是否可以在這些方向上投入更多的研究和開發?我認為這可能是最有效的方法之一。
Yann LeCun:關於監管,我有一個非常簡單的觀點。我認為監管人工智慧系統的部署是完全合理的。當然,例如,如果你的汽車配備了駕駛輔助系統,你肯定希望在產品上市之前,有政府機構對其進行充分的測試。如果人工智慧被用於醫療診斷,例如分析 X 射線或其他醫學影像,那麼需要進行某種形式的臨床試驗等等。因此,對應用進行監管是完全沒有問題的。我認為過去最具爭議的討論點在於,有些人認為人工智慧即使不部署也具有內在的危險性,並試圖說服政府監管人工智慧的研發活動。我認為這種觀點極其危險,而且極具破壞性。事實上,這簡直是中世紀的矇昧主義,恕我直言。而且,這樣做會帶來非常危險的後果,原因我之前已經解釋過了,那就是,如果將人工智慧技術鎖起來,你就會被少數幾家公司監管俘獲,而這些公司集中在美國和中國。因此,我們需要開源模型。如果任何監管措施將開源模型做壞事的責任歸咎於技術的發起者,那麼開源模式將無法生存。
主持人:我理解您的意思,您提出了一個很有意思的觀點。如果我們超越那種關於監管的常見討論,比如“監管過多”或“監管不足”的風險。今天我們討論了一些這之外的風險。人們擔心,人工智慧演算法最終可能存在偏見,並且在資料保護方面做得不夠。我們應該如何解決這些問題?又該如何讓人們相信,正如您一開始所說,人工智慧並非從一開始就令人恐懼?
MichaelI.Jordan:你看,任何黑箱系統都不可避免地會存在偏見,特別是對於那些我們知之甚少、處於認知邊緣的領域。所以,這就是為什麼我們仍然需要統計學家。你需要能夠判斷,“對於這個問題,我沒有足夠的資訊給出解答,答案很可能需要修正,或者你需要加入一些金標準資料,來輔助黑箱系統給出的結果。”圍繞這些黑箱系統,實際上存在著一個完整的體系。大語言模型(LLM)以及所有相關的技術,它們本身並不能解決所有問題。它們只是工具,需要配合其他技術和方法,才能發揮作用。而且,它們始終會存在偏見。當然,有時偏見也可能是有益的。
主持人:邁克,您認為在什麼情況下偏見會是好事呢?
MichaelI.Jordan:有時候偏見是好的,因為它可以幫助我們看到某些確實可能發生的模式。這是一種“偏向性”,但不一定意味著它是絕對真理。關鍵在於,“不帶偏見”本身就是一個毫無意義且無用的概念。重要的是如何合理地運用偏見。在正確的時間,以正確的方式施加偏見,要考慮具體情況和個體差異。不要對所有人應用相同的規則,認為在所有人身上平均下來就沒有偏見了。不,要針對不同的人制定不同的規則,因為那樣才能對人們更好,才能提升社會福祉。這又回到了經濟學。我們需要的概念是關於聚合和集體的。這些概念本身就帶有偏見,而這種偏見是可取的。我希望有價格歧視。我年紀大了,就希望能買到更便宜的電影票,對吧?這有什麼問題嗎?實際上這對每個人都有好處。
主持人:當然。所以您是想說,偏見不一定是負面的,甚至在某些時候可能是有益的。
MichaelI.Jordan:我們現在對“偏見”這些詞彙的使用過於寬泛了。“偏見是壞的,倫理是好的”,我們只是在用這些流行語,但背後並沒有深入思考。我們需要構建完整的理論框架,深入理解這些概念。技術是壞的嗎?大語言模型是壞的嗎?好與壞,這種二元對立的思維方式太“50年代”了。
Bernhard Schölkopf:而且有趣的是,我們往往會不自覺地將負面事物與機器聯絡起來。我認為,我們看到了很多可能發生的負面情況,但我更認同一種樂觀的視角,積極的事情也可能發生。機器做出的決策過程,有時可能比人類的決策過程更透明。如果一個決定對你不利,但如果這個決定是人類做出的,你可能並不會因此得到多少安慰。所以,如果我們能夠更徹底地分析機器的公平性和偏見問題,也許在某些情況下,這反而是有利的。我們過於關注這些風險,卻可能忽略了機器獨有的一些優勢。我個人比較關注的一個問題,也與邁克提到的相關,就是機器生成內容和人類生成內容之間的區別。目前,網際網路上的大部分文字內容仍然是人類創作的,大部分音樂也仍然是人類創作的。但未來,情況可能會變得非常混亂。也許大部分文字都是機器生成的,大部分音樂也是機器生成的。作為人類,如果我不知道內容是由機器生成的,我會感到有些被欺騙。我想知道哪些內容是人類創作的,是那些傾注了心血和藝術創造力的人創作的。我希望能夠事先知曉這些資訊。
YannLeCun:隨著時間的推移,你會知道的。如果你在讀的是署名為馬塞爾·普魯斯特的作品,但實際上是由生成式AI完成的,讀幾頁之後你就會發現不對勁了。
主持人:我們還是回到“什麼是人類創作”這個話題上來。
StéphaneMallat:那是猜測,不是嗎?
主持人:我想問問您關於監管的問題。我認為我們討論的是“詞語”本身。我完全同意,“監管是好還是壞”這種二元對立的觀點是沒有意義的。我們所處的環境一直都受到監管。各種激勵機制都是監管的結果。我們並不反對監管,所以問題在於如何進行監管,而不是是否應該監管。
YannLeCun:當然,監管對人工智慧發展來說可能是好事。回顧自動駕駛汽車興起的時候,人們都在討論,如果出現這樣的情況:一邊是祖母,另一邊是母親和兩個孩子,自動駕駛系統該如何抉擇?我記得有一次和博世的工程師交流,他告訴我,“你看,安全氣囊的工作原理是,我們無法100%保證安全氣囊不會傷人。實際上,安全氣囊過去也曾造成過傷亡。但是,有專門的測試機構來評估安全氣囊的安全性。最終,專業人士會達成共識,認為總體而言,配備安全氣囊利大於弊。”也許未來自動駕駛汽車也會是這樣,我們可以設立權威機構進行評估和認證。這也能保護程式碼開發者和銷售自動駕駛汽車的公司,避免最終將責任全部歸咎於人類,好像機器做的一切都要追溯到某個需要為此承擔責任的人。
主持人:這真是一場引人深思的辯論。我意識到我需要轉變看待問題的方式,尤其是在偏見問題上。斯蒂芬妮,我想請您談談,因為我們已經討論了偏見。現在讓我們更Broad一些,比如社會操控,例如利用人工智慧來傳播特定的政治觀點。我們該如何應對這種情況?這有多危險?關於偏見問題,邁克建議我們可以從另一個角度來看待,那麼對於社會操控,我們是否也可以用不同的視角來審視?
StéphaneMallat:我認為約書亞明天可能會詳細闡述各種風險。顯然,現在存在深度偽造技術,而且大語言模型有可能生成大量的虛假資訊等等。但這些風險,我想我們大多數人都已經有所瞭解。我相信Yann肯定有話要說。
YannLeCun:大語言模型出現已經有一段時間了,而且開源的大語言模型也已經存在很久了,包括幾年前就開源的模型。我與負責內容稽核的同事交流過,他們的工作是防範網路攻擊、虛假資訊和機器人程式等。但他們表示,並沒有看到機器人程式大量生成內容的情況。這種情況並沒有發生。所以,之前一直有人認為,我們會被大語言模型生成的虛假資訊淹沒,但這種情況並沒有發生。虛假資訊確實存在,但它們是由人類製造的。虛假資訊的問題不在於資訊量的多少,而在於它的傳播網路。如果你有大量的追隨者和支持者,虛假資訊就會變得很有影響力。這與虛假資訊的產量多少無關。
Stéphane Mallat:但是,即使最終惡意行為者是人類,人工智慧 也無疑為他們提供了工具,使其影響成倍增加。
Yann LeCun:謝謝你提到這點。我正要說,應對 AI 攻擊的最佳方法是發展更先進的AI 。
Stéphane Mallat:是的,但還有對齊問題。
Yann LeCun:目前最複雜的人工智慧系統。
Stéphane Mallat:我的意思是,更先進的 AI ,但由誰來控制?這才是問題的關鍵。我的意思是,這涉及到利益對齊的問題,這一點顯而易見。現在,這就引出了關於偏見的問題,對吧?正如 Mike 完全正確地指出的,不可能存在沒有偏見的系統。偏差總是會存在,這是一種權衡。因此,確保偏差不會對 AI 產生巨大的負面影響的方法是,數學上的客觀最佳化,或者說是多樣性。如果你有開源平臺,就會有各種各樣的 AI 系統,它們具有不同的觀點、不同的價值觀體系以及不同的偏見,無論是政治上的還是其他的。這樣人們就有選擇的餘地。這就像新聞媒體一樣。我們需要 AI 系統的高度多樣性,原因和我們需要新聞媒體多樣化是一樣的。
Stéphane Mallat:您說得對,但正如您所知,現在實際上存在壟斷局面。
Yann LeCun:如果出現壟斷局面,情況就不妙了。如果專有系統占主導地位,我們只能從少數幾家中國或美國西海岸的公司獲得 AI 協助,那麼就會形成壟斷。是的,肯定會出現壟斷。
Michael I. Jordan:這還與這些系統的構建方式有關。人類進化成部落和群體,從五到十人,到二十人,再到兩百人,建立民主,建立信任等等。突然間,我們開發出了一種技術,讓每個人都聽從於某一個名人。這完全是一場在過去 20 年裡對人類進行的實驗。我不確定這是否奏效,有人同意嗎?還是不同意?
主持人:可以算作半同意吧。
Michael I. Jordan:我並不認為情況樂觀,我的意思是,結論可能尚未可知,但是,嗯,它已經對人類社會造成了巨大的混亂。你可以想象這些網路會有不同的模式,例如為兒童建立一個專屬領域,孩子們可以在這個領域裡活動,而成年人則在另一個領域裡。但現在的情況是,每個人都在聽 Donald Trump 或是 Beyonce 的。我們正在進行一場大規模的社會實驗,並寄希望於技術能自行解決問題。但我認為我們並沒有那麼樂觀,我不確定拐點何時會出現,但目前的情況並沒有顯示出任何好轉的跡象。
主持人:好的,我只是覺得時間有限,雖然我們可以繼續深入探討很多問題。我想說,今天大家對 AI 的討論都很積極。我想以一個積極的結尾來結束今天的討論,然後我們可以接受幾個提問。請各位用一句話概括一下,你們對 AI 的未來發展最樂觀的方面。
Stéphane Mallat:樂觀的方面有很多,但當您提出這個問題時,我腦海中立刻想到了一件事,我想從積極和中立兩方面來談談。我認為有一個問題我們經常忽略,它既非積極也非消極,那就是教育,以及 AI 對學校教育的影響。這可能是變革發生最快的領域之一,因為孩子們行動非常迅速,並且快速地使用 AI 工具,而教師們在這方面顯得有些不知所措。因此,我認為這是一個非常重要的領域,我們應該積極投入精力,以便了解如何幫助教師適應這種情況。他們比大學老師面臨的挑戰更大。在大學裡,我們主要考慮自身如何適應,但這相對來說並不複雜。中小學教育則更有趣,也更重要。我認為這是一個我們應該積極關注的領域。
主持人:好的,Stéphane,我理解您的意思是,應該將注意力集中在教育系統上。Bernard,您對 AI 的哪些方面感到樂觀?
Bernhard Schölkopf:我認為我們正面臨著許多全球性問題,特別是氣候變化問題,以及未來的大規模流行病問題等等。我看到有若干這樣的問題,沒有 AI ,我們根本無法解決。我不是說 AI 一定能解決所有問題,但例如氣候問題,我看不出有什麼政治解決方案。也許 Mike 可以提出一種機制或自動設計的機制,但即便如此,要讓各國和公司都接受這個機制也是非常困難的。所以我認為,最終我們必須投入大量精力去尋找能源儲存和能源生產的技術解決方案。我認為能源儲存甚至比能源生產更重要,因為現在太陽能發電已經很便宜了。此外,還需要碳捕獲技術,因為即使我們減緩碳排放的速度,仍然需要清除大氣中的一部分碳。可能還需要改變地球反照率的技術,以便對氣候變化,甚至是流星撞擊這樣的危險做出快速反應。總之,有很多全球性問題,沒有 AI ,我們是無法應對的。
主持人:Bernard,我理解您的意思是關注可持續發展。Asu,您怎麼看?您對 AI 的前景持樂觀態度嗎?
Asu Ozdaglar:嗯,我對人類與 AI 的互補性,或者說是親人類的 AI 非常期待。我認為 AI 應該真正地賦能和促進人類發展,幫助人類更好地完成工作、科學研究或創造性任務。為了實現這個目標,我認為我們需要轉變重點,改變願景,將技術與人類行為和市場結合起來。這可能也是我和 Mike 的一些共識,即為什麼經濟學和社會科學在這些討論中如此重要。我相信我們有希望實現這個目標,但這需要我們關注正確的願景和議程。
Michael I. Jordan:是的,我以前並不算是 AI 領域的人,因為在我看來, AI 就像 Frankenstein (弗蘭肯斯坦),我們試圖創造一個像我們人類一樣的東西,但我們人類已經夠多了。我更希望我們人類之間能夠更好地互動。所以,是的,我認同人類與 AI 的互補性,以及 AI 在音樂創作等領域的應用前景。我對這些方面持樂觀態度。但人類這個種族也充滿了衝突,我們常常為了資源爭吵不休,而且資源是有限的。經濟學告訴我們如何應對稀缺性。矽谷的許多問題讓我感到擔憂,因為我認為他們沒有意識到稀缺性的存在。他們似乎認為技術可以消除稀缺性,創造出我們想要的一切。但這在現實世界中是不可能的。資源總是有限的。如果某些人佔有了大量資源,其他人可獲得的資源就會減少。我們需要找到讓人們在這種情況下感到滿意,並進行貿易和互動的方法。我認為世界在這方面正在倒退。我不確定 AI 是否能有所幫助,但我樂觀地認為,如果人們以正確的方式思考, AI 可以提高透明度,促進溝通,緩和目前世界各地存在的衝突。
主持人:Mike,您實際上是在倡導人類與 AI 的互補性,以促進社會進步。
Michael I. Jordan:即使是在大語言模型 出現之前,翻譯系統就已經很不錯了。所以,也許 AI 可以用於科學研究。我不會說普通話,但我可以用法語對著麥克風講話。順便說一句,我的法語還不錯。
主持人:AI 用於科學研究。
Michael I. Jordan:透過 AI我可以將法語翻譯成普通話,並與其他人交流。AI 用於科學,目的是為了讓我們更幸福。我希望人類參與其中,而不是被排除在外,我不想剝奪人類的樂趣。
Stéphane Mallat:沒錯,如果那樣做,就恰恰是將人類排除在外了。AI 用於科學研究非常令人興奮。AI 用於數學也令人著迷,因為我們正在取得許多新的發現。
Michael I. Jordan:是的,Terry Tao 以後可能會因為 AI 的輔助,在數學領域取得更大的成就。
Stéphane Mallat:是的,在科學領域, AI 有著令人驚歎的應用前景。
主持人:驚人的事情,令人興奮。Yann輪到你了,你對這種樂觀情緒有什麼看法?
Yann LeCun:當然, 生成式AI用於科學,尤其是在醫學領域,目前是非常令人興奮的。我個人不直接從事這方面的工作,但是,我非常支援我的同事們參與其中。我的意思是,我們確實有很大的希望,能夠找到解決人類最重大問題的方案,可能包括利用新材料來應對氣候變化,或者用於能量儲存等等。我的一些同事實際上正在研究這些問題。所以這非常令人興奮。而且在醫學成像等領域,已經部署了很多進展。即便如此,我認為最終AI 將使人們變得更聰明。因為所有 AI 都將是輔助性的。你知道,我們談論自主 AI 和諸如此類的概念,但沒有人會開發出一種不以某種方式輔助人類的 AI 系統。因此,這種需求是真實存在的,人們正在為此努力。這不像存在兩種型別的AI:一種是完全自主、不與人類交流的 AI,另一種是旨在與人類協同工作的 AI。 所有的 AI 都被設計為與人類協同工作。但是目前,如何讓人工智慧與人類進行適當的互動,這個問題在待解決的問題列表中排名第 354 位,而我們仍在努力解決排名第 5 位的問題。
所以,這就是為什麼人們正在研究這個問題,因為我們仍然需要解決重大的概念性難題,才能實現更高階的互動。嗯,但顯然,所有的 AI 都將是輔助性的。因此,我認為我們未來與甚至 超級智慧系統的互動模式,嗯,將類似於政治、商業、科學或學術領域的領導者,擁有一群比他們更聰明的幕僚。我的意思是,在政界這肯定是事實,大多數政治家的幕僚都比政治家本人更聰明。嗯,所以,我們將與比我們更聰明的“虛擬人”一起工作的概念並不新鮮。我一直都在這樣做。我身邊的大多數同事都比我聰明。嗯,所以這將是我們與 AI 之間的關係,它們將放大我們的智慧,使我們更具創造力,效率更高。AI 可能會對社會產生類似於 15 世紀印刷術的顛覆性影響,促進知識的傳播,因為目前 AI 本身就是一種知識傳播的途徑,對吧?
主持人:所以,智慧放大這就是你非常熱衷的,非常感謝你。今天時間過得真快。我想知道我們的博士生們在不在現場,如果可以的話,我們只能再問兩個非常簡短的問題。嗯,我想請你們迅速來到臺上,這樣我們就可以向我們出色的專家組提出問題。好的,就兩個問題。是的,或者你們可以站在這裡,或者去臺上。這取決於你們,隨你們選擇。在哪裡舒服就在哪裡。需要麥克風嗎?好的。揚,我可以把麥克風遞給你嗎?哦,不用,你們那裡有兩個麥克風。女士,請對著麥克風講話。好的,請開始提問。
提問者1:感謝各位的討論。假設我們希望加強監管,當然,我的理解可能不一定正確,但這只是一個假設。您認為政策制定者對 AI 最大的誤解是什麼?這種誤解阻礙了他們有效地進行監管,我們應該如何糾正這些誤解?
主持人:好的,有人對這個問題的答案特別有想法。Yann 你想先回答嗎?
Yann LeCun:我認為,那種認為 AI 本質上是危險的,並且可能導致人類滅絕的想法,完全是一種謬論,根本就是錯誤的。這種誤解導致政府傾向於監管研發,甚至可能導致開源和開放研究被非法化。我認為這極其危險。
主持人:請問第二個問題。
提問者2:好的,我的問題更多關於教育,也想問問在座各位 AI 領域的教授。現在研究進展非常迅速,論文的標題對於 10 年前畢業的人來說可能已經難以理解了。嗯,對於想要進入這個領域的學生來說,鑑於我們無法預測他們畢業時的情況,他們應該學習什麼才能經得起時間的考驗?更廣泛地說,在通識教育中,教師應該教什麼?尤其是在學生們使用 AI 工具完成家庭作業的今天。嗯,所以我認為教育應該如何變革?
Michael I. Jordan:這和幾個世紀前的資訊是一樣的:學習數學。是的。不,要學習數學,學習思考,學習抽象思維。沒錯。你知道,是的,這些工具可以幫你解決微積分問題,但那又怎樣?它們只是在已有的基礎上構建。就像計算器一樣。你不需要做算術運算。你現在可以在此基礎上繼續發展。所以,繼續學習吧。嗯,我學到的每一分數學知識都讓我感到快樂,它們在我的生活中都非常有用,並且幫助我與他人建立聯絡。
Asu Ozdaglar:如果允許我補充一點,除了數學之外,基礎知識也非常重要,這些基礎知識可以涵蓋不同的領域。邁克提到了三個領域。我想補充最佳化 。
Michael I. Jordan:工程本質上就是最佳化。
Asu Ozdaglar:我們達成共識了。關鍵是要思考哪些基礎工具。嗯,許多演講中提到的人工智慧模型或想法,都很大程度上依賴於這些基礎知識。
主持人:好的,所以要回歸基礎。非常感謝你們精彩的提問。非常感謝我們的專家組,今天和你們的對話非常愉快。非常感謝。

新增徐老師微信
立即諮詢
國際在職“MBA/EMBA/DBA”


點選底部“閱讀原文”檢視更多
在職“MBA/EMBA/DBA”課程
↓↓↓↓↓↓↓↓↓↓↓↓