市場調研:儘管存在不確定性 CIO仍希望加強AI治理

隨着AI的使用、創新和監管混亂超過認可的標準,IT領導者只能開發內部方法來減輕AI風險,依靠框架、工具和他們的同事來正確使用AI。

隨着越來越多的生成式AI項目從概念驗證轉向生產,CIO將承擔額外的壓力,制定AI治理政策來保護企業以及其工作。

美國政府、歐盟、以及頂級市場研究人員並不缺乏AI治理框架,但毫無疑問,隨着生成式AI創新速度超過正式標準,CIO們將需要在2025年制定和完善內部AI治理政策——並讓整個高管團隊參與這一過程,以確保他們不會孤軍奮戰,觀察人士這樣表示。

這方面也存在着司法不平衡的情況。

“根據2024年2月的一項調查,在負責任的AI政策制定和行爲準則的制定方面,美國組織與歐洲組織不相上下,但在建立歐盟AI法案建議的多學科/跨部門治理委員會方面落後於歐洲組織,”IDC研究總監Grace Trinidad表示,她敦促CIO們不要獨自承擔AI治理的責任。

例如,IDC建議把NIST AI Risk Management Framework管理框架作爲適當的標準,幫助CIO在內部制定AI治理策略,以及歐盟AI ACT規定,Trinidad表示,他在“IDC PeerScape:保護AI模型和應用的實踐”報告中引用了AI治理某些方面的最佳實踐。

Trinidad指出,有CIO承認實施AI治理的方法是多種多樣的,大多數CIO已經開始實施至少一些計劃,儘管並非所有計劃都已經到位。

爲此,網絡公司Ciena首席數字信息官Craig Williams表示,該公司已經成立了AI工作組來解決治理挑戰。

他說:“我不認爲未來AI治理會是由單個實體或政府本身負責的——這太具挑戰性了。然而,企業需要建立自己的治理流程,以確保端到端問責制。我們認識到AI系統需要透明度、公平性和問責制。因此,我們竭盡全力確保讓利益相關者參與到治理流程中。”

專家和IT領導者表示,這種跨職能的努力是關鍵。

Williams表示:“治理實際上是相互傾聽和學習,因爲我們都關心結果,但同樣重要的是,我們如何獲得結果本身。一旦你跨過那座橋樑,你就可以快速轉向AI工具和實際項目本身,這更容易操作。”

隨着AI創新蓬勃發展,TruStone Financial Credit Union也在努力建立一個全面的AI治理計劃。

TruStone執行副總裁、首席技術官Gary Jeter表示:“每週都在涌現新的生成式AI平臺和功能。當我們發現的時候會阻止訪問,直到我們能夠徹底評估我們控制的有效性,”他舉例說,他之前曾決定阻止訪問Google NotebookLM以評估其安全性。

和很多企業一樣,TruStone已經部署了一個名爲TruAssist的生成式AI平臺,這個全公司範圍使用的平臺主要用於制定政策和程序。

Jeter說:“所有[大約] 560名團隊成員都在使用這個AI工具,快速訪問500多項政策和程序,大大節省了時間,帶來了巨大的價值。我們在2023年11月啓動了價值證明試點,並在2024年2月向所有團隊成員推廣,這個速度非常快,我們學到了很多東西。我們採取了更保守的方法,利用生成式AI開發面向團隊成員的應用,但我們正在取得進展。”

AI治理框架和平臺

另一家大型企業Travelers的高級副總裁、首席技術和運營官Mojgan Lefebvre表示,Travelers公司一直在開發自己的AI治理戰略。

Lefebvre說:“作爲Travelers治理框架不斷髮展和成熟的一部分,我們還打造了一個負責任的AI框架,這個框架提出了指導我們開發和使用AI、高級分析和建模的基本原則,目標是幫助確保我們以負責任和合乎道德的方式行事——符合我們業務和文化核心的、負責任的商業價值觀。”

有觀察人士指出,AI治理不僅要保護企業免受數據泄露或知識產權盜竊,還要使成本與預算保持一致。

GAI Insights首席執行官、首席分析師Paul Baier表示,IT領導者應該“非常務實、謹慎而緩慢地將生成式AI應用推向生產,因爲高管和IT部門仍在學習如何管理企業應用的風險,而且實際成本會隨着使用而上升”。

Baier表示,增加生成式AI風險和成本的另一個因素是“大多數組織中存在大量‘影子IT’,因爲員工使用個人賬戶使用ChatGPT等工具來處理企業數據”。

Gartner表示,企業組織可以控制AI使用的一種方法是實施AI治理平臺,Gartner將AI技術確定爲2025年的第二大戰略趨勢,並預測到2028年,與那些沒有AI系統的組織相比,實施了AI治理平臺的組織與AI相關道德事件少了40%。

Gartner聲稱,AI治理平臺的好處包括創建、管理和執行“確保負責任地使用AI的政策,解釋AI系統的工作原理,模擬生命週期管理,提供透明度以建立信任和問責制”。

挑戰是什麼?Gartner表示:“AI指南因地區和行業而異,很難形成一致的做法。”

未來的挑戰

有觀察人士表示,CIO還需要調整能夠適應未來變化的AI治理框架,特別是如果出現“有能力的AI”(ACI)。

“我們正在評估哪種AI使用政策最適合我們現在的需求,並採用一種能夠在我們前進和學習尚不知道的東西時提供靈活性的模型。” Baptist Memorial Health Care首席信息數據官Tom Barnett說。

這將帶來什麼結果還是一個很大的未知數,尤其是考慮到過去兩年中AI取得的進展,使這個問題複雜化的,不僅是正在出現複雜的AI法規,還有商業模式和市場本身的變化。

兩年前ChatGPT首次亮相的時候,OpenAI創始人認爲,生成式AI需要得到妥善管理,這是OpenAI成爲非營利組織的一個關鍵原因。從那時起,除兩位創始人外,其他創始人均已離職,OpenAI正在努力將其核心業務重組爲一家不再受非營利董事會控制的營利性公司。

Gartner負責雲、邊緣和AI基礎設施技術和服務的副總裁Sid Nag表示,自2021年以來,NIST的AI Safety Institute Consortium and Center for Responsible AI在AI治理方面取得了進展,但目前還沒有獲得批准的監管標準來指導CIO,因此CIO們正在面臨着越來越大的壓力,需要他們走出實驗階段,轉而從大手筆投資生成式AI平臺和工具中獲利。

他強調,沒有一份文件能夠涵蓋風險的所有方面,也沒有明確的權力來強制使用每天都在發展的生成式AI。“AI就像一列失控的火車,每個人都想從中賺錢,”他說。

儘管如此,很少看到CIO或高管層對AI治理不屑一顧。無論企業大小,他們都很清楚,生成式AI落入不當之手可能會帶來災難。

醫療設備租賃公司US Med-Equip的首席執行官Antonio Marin表示,AI使他的公司能夠快速發展,但在治理方面,所有人都必須做好準備。

Marin表示:“我們正在將AI治理作爲數據和網絡安全治理的一部分。”他補充說,當POC從沙盒轉移到生產中時,風險就會激增。“在某些情況下,我們的高管層把AI視爲解決某些流程問題的方法。他們把AI視爲獲得市場份額或降低運營成本、同時保持高質量客戶體驗和卓越運營的機會。”

TruStone的Jeter預計,未來在適當的時候,監督成爲一項法律和監管要求。“我將審查員和內部/外部審計師視爲合作伙伴,他們有着與我們的價值觀一致的共同目標。因此,我沒有任何擔憂。”