
這是一場與AI有關的實驗。
前段時間,受出版機構之邀,與《AI領導課》作者大衛·德克萊默對話。
大衛·德克萊默是美國東北大學教授,體驗式人工智慧研究所研究員。他被“全球管理大師”(Global Gurus)組織評為全球前三十位管理大師和演講者之一。
我調教Deepseek擬出了10個話題,請大衛教授作答。其中的中英翻譯也由AI工具完成。只是不知大衛教授的答案部分借力AI幾許。
期待這篇文章對你有用。對了,文章標題同樣來自於人機協同。
作 者:陳為正和島總編輯
來 源:正和島(ID:zhenghedao)

答:資料可用於輔助最佳化決策,但其本質終究只是資料。歸根結底,仍需由人類判斷資料的相關性與有效性——這種決斷力是計算機無法具備的(機器不做判斷)。
換言之,決策者必須在某個節點停止資料探勘,開始行動,此時直覺將發揮作用,判斷何時資料量已充足並啟動符合人類目標的決策。
這一觀點包含兩層關鍵含義:第一,資料本身並非戰略。若將其視為戰略,只會將人類降維為資料點,陷入歷史資料依賴。這種“簡化論”試圖讓人類像計算機般思考,違背了“以人為中心”的AI與資料應用原則。真正服務於人類的預測,需要結合前瞻性判斷能力,基於資料篩選出最恰當、公平且人性化的決策。
第二,資料能生成洞察,生成式AI可產出海量內容。但這些成果如何轉化為對人類社會、商業有價值的存在?這需要人類停止資料沉迷,將生成內容轉化為知識,並融入以人為本的決策應用。
由此引出的結論是:除培養領導者掌握AI基礎認知(理解AI的能力邊界)外,我們更需著重培育其直覺判斷力。這要求透過加強倫理意識、情商、同理心與協作能力等軟技能訓練,使領導者獲得超越資料的決策智慧。

答:在我看來,這兩種方式(盲目投資技術卻無戰略協同、因組織慣性阻礙變革)在推進AI應用時都存在侷限性,本質上會導致相似後果。具體而言:若企業無明確戰略就採用AI,組織慣性將隨之產生——人們無法透過運用AI來增強效能。企業首先要明確AI本身不是戰略。
太多公司將單純採用AI視為獲取競爭力的戰略,這是錯誤的。當下任何公司都在投資AI,因此單純的投資AI無法帶來任何競爭優勢。成為純粹的“AI驅動型公司”並不能使組織超越競爭對手。
相反,樹立“AI賦能型企業”的思維模式——即將AI投資視為助力更高效實現戰略目標的決策——才能取得更好成效。這種認知伴隨著一個核心理念:AI不是萬能工具!換言之,AI並非所有問題的解決方案。企業領導者必須明確:採用AI的決策應基於清晰的商業問題、目標與預期作用。
對某些問題而言,AI可能並非最佳解決方案,此時堅守最佳實踐更為明智。因此,AI應用不僅是技術工程,更是商業領導者透過優先提出最具價值的業務問題、評估AI是否最優解來啟動的過程。
若判定AI是更優解,領導者必須深度參與AI應用程序,因為此時進入組織轉型階段——需要將AI解決方案整合至現有崗位體系,並獲得相關員工的接納。
這表明,人機協同才是創造企業價值的正確路徑。未來不僅是自動化,更是AI服務於人類智慧的增強時代。要實現這種工作形態,需要具備行為科學導向的以人為本的領導力,確保AI的開發與應用方式與人類工作、思考及決策模式相契合。
藉助AI的計算能力提升人類智慧,我們既能讓組織更高效,同時也能使其比以往更具人性溫度。因此,AI的目標不是讓員工變得更像機器,而是幫助其成為更完整的人。

答:管理者通常傾向於維持現有的平穩狀態,不會輕易採取過於激進或顛覆性的行動來改變現狀。基於此理念,如今的組織管理者主要承擔執行例行檢查與管理資料的職責,以確保組織架構內的穩定性與控制力。
事實上,對於大多數管理工作而言,60-70%的職責涉及資料管理。這類任務可由AI輕鬆完成,因此,我認為“演算法管理(MBA)”已成為當下正在發生的現實。
不過,這種演算法管理僅在我們稱為“封閉系統”(資訊完備且任務多為常規且重複性)中能有效運作。在“開放系統”(環境多變且不確定)中,由AI處理協調與監督將更為困難,因為這些情境需要更多不可預測的決策及直覺判斷能力——這正是領導者(而非管理者)需具備的特質。
事實上,管理關乎穩定與控制,而領導力更側重應對變化與不確定性。
因此,若中國企業將中層管理者純粹定位為維持穩定與流程控制的角色,其職能終將被AI取代。
但需注意的是:為確保AI在全組織範圍內被良好採納與整合,需要各個層級的領導力發揮作用——這些領導者能闡釋各類崗位為何需要AI、AI的使用規範,並在全組織建立信任。要滿足這些要求,人的參與依然不可或缺。

答:AI能夠基於資料進行預測並將決策最佳化為建議,但這些建議的可行性、公平性及人性化程度仍需人類評估,且人們要求此類任務必須由人類參與而非AI獨立完成。
究其原因,當決策涉及切身利益時,人類更傾向於由真實的人做出判斷,因為普遍不信任AI能維護人類利益。這種不信任源於AI系統本質上無法具備“善意”——它們缺乏主動服務他人利益的意願。
這些系統透過遵循統計模式與預設目標的演算法執行,其內部邏輯不存在自主意圖。
由於無法形成觀點並做出判斷,人們認為AI系統缺乏本真性,這意味著它們對世界執行規律及人類行為動因的認知存在根本侷限。正因如此,AI系統不可能真正具備維護人類利益的意願。
人們普遍擔憂:若AI成為主要決策者,鑑於其建議與決策機制缺乏善意,可能導致人類被簡化為透過AI賦能即可最佳化產出的商業資源,進而侵蝕人性本質。
為避免這種異化,組織需思考如何讓AI與人類經驗融合以擴充套件而非縮減人性內涵。這要求將AI重新構想為增強人類創造力、同理心與自我實現的合作伙伴。
該視角迫使企業從根本上重新評估組織結構與績效標準:不應僅關注效率提升,而需建立衡量並獎勵人性化成果的框架,例如評估員工福祉改善程度、人際互動質量、創造性問題解決的深度等。
為確保這種以人為本的AI應用原則得以貫徹,領導決策權必須始終由人類掌握。

答:當大多數資訊已知時,AI可以最佳化決策,但同時多數資料反映人類行為、特徵與習慣,而人類存在偏見,因此資料也必然帶有偏見痕跡。隨著AI模仿並放大資料中的趨勢,它將不可避免地產生帶有偏見的洞見與建議。
為對抗AI與資料偏見,人類必須參與評估AI的輸出、建議與決策——儘管人類自身存在偏見,但他們擅長識別他人決策中的偏見,一旦意識到問題,便可檢視AI的決策。
然而,AI發展速度過快,若要對每個AI決策實施監管,我們可能需要用AI來監管AI,這將導致偏見被進一步放大,因為監管AI無法識別被監管AI的偏見。這意味著人類仍需承擔監管職責,但代價可能是AI發展與創新的速度放緩。如何解決這一困境?
答案或許在於“快速試錯與快速學習”的智慧。這需要透過建立受監管的沙盒來實現。在沙盒中,企業與社會可建立測試創新型AI應用的環境,但這類旨在釋放創造力的生態系統仍需置於監管框架下。
受監管沙盒需要私營企業與政府的深度協作。另一個新興解決方案是“決策劇場”——多元利益相關方在此透過AI生成的視覺化方案進行協同問題解決與倫理評估的對話空間。這種參與式路徑能確保技術進步與人類價值觀及文化敏感性達成平衡。
註釋:沙盒就是在一個裝滿細沙的盒子裡我們可以盡情的塗鴉,無論畫的好不好,最後只要輕輕一抹,沙盒裡的細沙又會迴歸平整。“監管沙盒”(Regulatory Sandbox)的概念由英國政府於2015年3月率先提出。按照英國金融行為監管局(FCA)的定義,“監管沙盒”是一個“安全空間”,在這個安全空間內,金融科技企業可以測試其創新的金融產品、服務、商業模式和營銷方式,而不用在相關活動碰到問題時立即受到監管規則的約束。再講得直白一點就是,監管者在保護消費者/投資者權益、嚴防風險外溢的前提下,透過主動合理地放寬監管規定,減少金融科技創新的規則障礙,鼓勵更多的創新方案積極主動地由想法變成現實,在此過程中,能夠實現金融科技創新與有效管控風險的雙贏局面。

答:如先前所述,人工智慧時代的領導力必須以人為本,從而賦能人類與AI協同工作,並將AI定位為助力人類全方位提升效能的工具。
只有這樣,AI才能以促進人性發展的方式被應用。在人機協作的賦能過程中,魅力型領導者能促使人們傾聽領導者關於“為何及如何運用AI實現集體目標”的論述,並對此保持開放態度。
這種領導魅力幫助領導者以真實的方式建立連線,使AI應用對相關方產生意義。另一方面,人機規則制定(亦稱規則程式碼化,RaC)則偏離以人為中心的規則制定與遵循路徑,轉向更數字原生、自動化且高效的模式。
RaC雖能幫助領導者保持全域性觀,卻無法替代人類領導者透過真實性與魅力促使AI被接納、從而推動人機共生化(以助力人類發展為核心)的作用。
鑑於任何AI應用專案都應被視為“人類優先、AI其次”的戰略,同理,未來領導力需保持以人為本的真實核心——即以AI服務於人類及整個人類文明發展為核心。因此,規則程式碼化(RaC)應居於次要地位,發揮輔助功能。

答:是的,這兩者可以共存。“關係”代表著一種基於“真實性”的信任層級,這種信任具有可持續性,其內在動機是維護關係網內成員的利益,不受外界不確定性的影響。
因此,它構成了一種超越情境模糊性的強力“社會性契約”。若要讓AI增強這種人類特有的關係型信任,就必須使其服務於促進善意與相互關懷。
但此舉存在挑戰:當人們意識到AI系統並不真正具備關懷能力——僅呈現一些表面的關心時,可能會對信任構建過程產生負面影響。事實上,儘管AI具備速度、可擴充套件性和模式識別等技術優勢,它仍無法替代建立信任所需的人類特質:同理心、關懷意識和共同目標感。
為確保AI能有效促進信任,建議採取以下措施:

答:創新與控制可以並行不悖,正如我們在討論受監管沙盒的應用時所見證的。在這些沙盒中,我們鼓勵跳出常規思維,在此過程中可開展情景規劃、納入社會大眾/員工/利益相關者的意見,並最終就商業、社會、政治和經濟問題形成結論。監管機構、內部治理委員會和獨立審計機構需確保這些沙盒中使用的AI系統是促進而非危害公共利益的。

答:人工智慧的部署並非毫無風險。它可能導致組織僵化,引發技能退化危機,放大社會不平等,固化歷史偏見,並導致解決方案趨同化與思維多樣性衰減——這些效應非但無法增強集體智慧,反而會削弱社會發展的內生動力。
我們必須清醒認識這些非預期後果,確保AI技術真正服務於集體智慧提升而非弱化。這種潛在威脅在東西方同樣存在。
事實上,無論是東方還是西方,人工智慧的真正價值都體現在人機協作中,其終極目標應是促進人性化發展——這裡的“人性化”本質上是一種集體存在狀態。作為人類合作伙伴,AI能夠在以下維度增強集體智慧:
集體記憶強化者:透過整合分散的知識節點,構建組織知識圖譜;實現隱性經驗的視覺化傳承,避免“組織失憶”
集體注意力協調者:智慧識別關鍵任務優先順序,降低任務切換成本;建立動態注意力分配機制,提升群體認知效率
集體推理加速器:融合多元化思維模式,生成突破性解決方案;構建目標導向的推理框架,優先服務群體核心訴求
這種協作正規化的核心在於:AI不應替代人類的判斷主體地位,而應作為認知增強工具,幫助人類突破個體認知侷限,在更廣維度上實現集體智慧的湧現與昇華。

答:當前,智慧體已具備自主執行任務與自我學習的能力,但這些智慧體主要應用於任務相對固定、重複性高的封閉場景。隨著技術的進步,AI確實能逐步應對更復雜的場景,甚至模仿人類行為、意圖與情感。
但必須明確的是,這種“模仿”(基於資料學習所得)存在本質侷限:即使AI能近乎完美地模擬人類情感表達,使觀者難辨真偽,研究表明認知錨定效應的關鍵作用——當人類獲知互動物件是AI時,其情感傳遞效果立即清零,甚至引發負面感知。這源於人類對“真實性”的終極訴求:我們不僅需要形式上的情感表達,更要求決策主體具有內在的情感動機。
尤其在涉及利益分配的決策場景中,人們對領導者的期待遠超演算法最佳化,而是道德主體性的存在證明。
研究證實:人類領導者做出的決策被普遍認為更具道德合法性,因其包含三個演算法無法複製的維度:
當AI提供10個合規的裁員方案時,人類領導者從中選定某方案的過程本身,就是在進行組織價值觀的儀式化展演。這種需要理解而不僅是瞭解人類的能力,構成了人類領導者的終極壁壘——正如醫生選擇手術方案時,患者需要的不僅是統計資料,更是對“生命體驗者”的同理心共鳴。
因此,關乎人類根本利益的重大選擇,必須交由具備道德主體性的人類自己完成。


點選底部“閱讀原文”檢視更多
在職“MBA/EMBA/DBA”課程
↓↓↓↓↓↓↓↓↓↓↓↓