
人工智慧已融入我們的生活,我們正努力讓它更直觀、更易懂,讓每個人都能輕鬆掌握、靈活應用。

人工智慧(AI)已無處不在。然而,我們往往察覺不到它的存在,而它也並非完美無缺。作為推動重要決策的核心技術,人工智慧深刻影響著個人和社會。我們的專案正在探索創新方法,力求讓人工智慧更直觀、更易懂,讓更多人真正理解並受益於這一技術。
建立對人工智慧運作方式的清晰認知至關重要。只有這樣,我們才能在個人和社會層面共同作出明智決策,以應對這項既普及又隱形、既複雜又可能出錯的技術。正如英國政府最近釋出的《人工智慧委員會路線圖》所指出的:
瞭解人工智慧相關產品,意味著能夠理性、自信地使用它們;知道該提出哪些問題,警惕哪些風險,關注潛在的倫理與社會影響,並把握人工智慧帶來的機遇。如果缺乏基本的人工智慧素養,英國不僅會錯失技術創新的紅利,還可能因消費者與公眾決策的失誤而面臨風險,甚至陷入盲目樂觀或無謂恐慌的誤區。
——英國人工智慧委員會(AI Council)
(注:人工智慧委員會是英國政府的獨立專家諮詢機構,負責提供政策建議,並推動人工智慧生態系統的發展。)

我們可以從多個角度來解釋人工智慧,以不同方式介入,使其更易理解、更透明。

· 在人工智慧系統內部:開發工具,幫助工程師和資料科學家深入解析機器學習模型的運作方式。這一領域主要屬於可解釋人工智慧(XAI)的研究範疇。
· 作為人工智慧系統的介面:在產品或系統的使用者介面中,提供直觀的解釋,讓使用者理解AI的執行邏輯。例如,“……因為你愛看《反恐特警組》……”這樣的推薦理由。
· 圍繞人工智慧系統:在AI的應用場景中,以更廣闊的視角解釋其運作方式。這可以透過營銷文案、FAQ(常見問題與解答)、教程影片或使用者引導等形式,讓使用者更順暢地融入AI驅動的服務。
· 社會與媒體中的人工智慧:人工智慧的社會認知受其在文化、媒體中的呈現方式影響。調整視覺形象、語言表達、隱喻和敘事方式,能塑造公眾對AI的理解。例如,在學校、大學及終身教育中最佳化AI知識的普及方式,或透過新聞、影視作品提升大眾對AI的認知水平。

為何重要
我們的專案旨在幫助公眾更好地理解這項影響深遠、應用廣泛的技術,從而減少不必要的恐慌,也避免盲目炒作。這符合我們的公共使命,即“提供公正的新聞和資訊,幫助人們理解並積極參與周圍世界”,以及“支援所有年齡段的人持續學習”。BBC 也已公開承諾,將向大眾解釋人工智慧(AI)和機器學習(ML)的工作原理。
我們認為,提升對機器學習的理解至關重要,主要基於這項技術的四大特性:

圖片致謝:stack(Alex Fuller)/ Ghost(Pelin Kahraman)/ box icon(Fithratul Hafizd)/ Error 404(Aneeque Ahmed)——均來自 Noun Project
· 人工智慧無處不在:從語音助手、電視推薦、新聞推送,到照片搜尋、保險評估、健康診斷,AI 已滲透到我們日常生活的方方面面,影響幾乎所有人。
· 人工智慧隱形執行:AI 驅動著眾多系統的決策與預測,但大多數情況下,我們並未察覺它的存在。即使是明顯的應用場景,比如在手機上搜索“狗”照片,也沒有任何提示表明 AI 正在幕後發揮作用,更不用說它具體是如何工作的。
· 人工智慧複雜難解:AI 的運作機制不透明,難以解釋,甚至連專家和從業者都難以完全理解特定 AI 系統的決策邏輯。這不僅是技術本身的特性,也加深了公眾對 AI 的認知障礙。
· 人工智慧並非萬無一失:AI 的錯誤往往出乎意料,難以預測,並且不同於人類的思維方式。訓練資料或演算法程式碼中的偏差和錯誤可能會無意間滲透進系統,而這些問題無法像普通程式漏洞那樣輕易修復。更嚴重的是,AI 可能被濫用,放大人類的偏見,或為不當行為提供技術支援。一旦 AI 出錯,影響可能涉及現實世界的方方面面,從考試成績到求職申請,再到警方監控與司法判決。

我們的行動

我們的專案正在構建原型,力求用更易懂的方法解釋人工智慧。以下是一個鳥類識別AI的實驗截圖,展示了實驗性、不確定性、可理解的特徵,並解釋了資料和偏差。我們與學齡兒童進行測試,瞭解他們的認知座標。基於此,我們將開發針對兒童的迷你講解器,揭示人工智慧的陷阱與怪癖。

同時,我們正在開展一個專案,以創造更具表現力的影像來呈現機器學習和人工智慧,摒棄老套的機器人和虛擬大腦形象,尋找更合適的替代方案。我們與AI團隊舉辦研討會,並與倫敦傳媒學院的課程合作,開拓更多可能。

往期回顧
