Fabio Lauria

高階主管投資人工智慧指南:了解 2025 年的價值主張

2025 年 3 月 18 日
在社交媒體上分享

隨著 AI 投資趨勢進一步演進至 2025 年,高階主管在 AI 實作的策略性決策上,面臨越來越大的壓力。隨著企業快速採用人工智能工具 - 22% 的企業廣泛實施,33% 的企業有限使用 - 了解如何評估和實施人工智能解決方案已成為維持競爭優勢的關鍵。在 Andrew Burgess 所著的《The Executive Guide to Artificial Intelligence》一書中,作者為希望瞭解並在組織中實施 AI 解決方案的企業高管提供了全面的指南。

本書於 2017 年由 Springer International Publishing 出版,提供企業如何利用人工智慧的實用概述。今天發生了什麼變化?

2025 年人工智能的當前投資趨勢

AI 格局正經歷前所未有的成長,各機構為了保持競爭力而進行更多重大投資。

基本知識

Burgess 強調,一開始就必須定義與業務策略一致的明確目標,這項原則至今仍然有效。在書中,他指出了人工智能的八大核心能力:

  1. 圖像辨識
  2. 語音辨識
  3. 搜尋與資訊擷取
  4. 聚類
  5. 自然語言理解
  6. 優化
  7. 預測
  8. 了解(今天)

從 2018 年到 2025 年的演變:

自從這本書寫成之後,人工智能已經從新興技術變成主流技術。Burgess 認為是未來性的「理解」能力,隨著大型語言模型 (LLM) 和生成式 AI 技術的出現,已經有了顯著的進展,而這些技術在 2018 年尚未出現。

AI 投資決策的策略架構

四個基本問題

在評估 AI 投資時,關鍵是要專注於這些關鍵問題:

  1. 定義業務問題
  2. 成功的指標
  3. 實施要求
  4. 風險評估

注意:這個四個問題的架構來自於現有的知識,Burgess 的書中並沒有明確提出。

建立有效的 AI 策略

採用框架:

Burgess 提出了建立 AI 策略的詳細框架,其中包括:

  1. 與企業策略一致- 瞭解 AI 如何支援現有的企業目標
  2. 瞭解 IA 的雄心 - 如果需要,請定義:
    • 改善現有流程
    • 轉型業務功能
    • 創造新的服務/產品
  3. IA 成熟度評估 - 以 0 到 5 的等級來確定組織目前的成熟度:
    • 手動處理 (0 級)
    • 傳統 IT 自動化 (Level 1)
    • 基本隔離自動化 (Level 2)
    • 自動化工具的戰術實施(第 3 級)
    • 各種自動化技術的戰術實施(第 4 級)
    • 端對端策略自動化(第 5 級)
  4. 建立 IA 熱圖- 識別機會最大的領域
  5. 開發商業案例- 評估「硬」與「軟」效益
  6. 變革管理- 規劃組織如何適應
  7. 制定 IA 路線圖- 制定中長期計劃

從 2018 年到 2025 年的演變:

Burgess 的架構在今日仍有令人驚訝的相關性,但需要以下列考量作為補充:

  • AI 道德與法規(例如歐盟 AI 法)
  • AI 的環境永續性
  • 負責任的 AI 策略
  • 與量子運算等新興技術整合

衡量 AI 投資的 ROI

投資報酬率的決定因素:

Burgess 識別出不同類型的 AI 優勢,分為「硬」與「軟」兩種:

硬體效益:

  • 降低成本
  • 避免成本
  • 客戶滿意度
  • 合規性
  • 風險緩解
  • 損失減輕
  • 減少收入損失
  • 創造營收

軟性效益:

  • 文化變遷
  • 競爭優勢
  • 光暈效果
  • 啟用其他效益
  • 實現數位轉型

到目前為止:

AI ROI 的衡量已經變得更加複雜,有了特定的框架來評估生成式 AI 的影響,這在 Burgess 寫這本書時還不存在。

實施 AI 的技術方法

解決方案的類型:

Burgess 提出了實施 AI 的三種主要方法:

  1. 現成的 AI 軟體-現成的解決方案
  2. AI 平台- 由大型科技公司提供
  3. 自訂IA 開發- 自訂解決方案

對於第一步,他建議考慮:

  • 概念驗證 (PoC)
  • 原型
  • 最小可行產品 (MVP)
  • 最風險假設測試 (RAT)
  • 試點

發生了什麼變化:

自 2018 年以來,我們見證了

  • 無程式碼/低程式碼解決方案的 AI 工具民主化
  • AI 雲端平台的大幅改善
  • 生成式 AI 和 GPT、DALL-E 等模型的成長。
  • 自動化部分資料科學流程的 AutoML 解決方案崛起

考慮風險與挑戰

人工智慧的風險:

Burgess 用了整整一章來討論人工智能的風險,他指出:

  1. 資料品質
  2. 缺乏透明度- 演算法的「黑箱」特性
  3. 非故意的偏見
  4. 人工智能的天真- 上下文理解的限制
  5. 過度依賴人工智能
  6. 錯誤的技術選擇
  7. 惡意行為

從 2018 年到 2025 年的演變:

自從寫了這本書之後

  • 對演算法偏見的疑慮已成為重要問題(待決定)
  • 隨著威脅增加,AI 安全已變得非常重要
  • AI 法規已成為關鍵因素
  • 深度偽造和生成式 AI 虛假資訊的風險已變得重大
  • 隨著人工智慧的廣泛使用,隱私權的疑慮也隨之增加

建立有效的 IA 組織

摘自 Burgess (2018) 的著作:

Burgess 建議:

  • 與供應商和合作夥伴共建 AI 生態系統
  • 建立卓越中心 (CoE),並設立專門團隊
  • 考慮擔任首席資料官 (CDO) 或首席自動化官 (CAO) 等職務

從 2018 年到 2025 年的演變:

從那時起

  • 首席 AI 官 (CAIO) 的角色已屢見不鮮
  • AI 現在通常已整合至整個組織,而非孤立於 CoE 之中。
  • 人工智能的民主化帶來了更多分散式的營運模式
  • 所有員工人工智慧素養的重要性浮現

總結

摘自 Burgess (2018) 的著作:

Burgess 最後說到:

  • 不要相信炒作,而要專注於真正的業務問題
  • 儘快開始 IA 通路
  • 透過了解 AI,讓公司面向未來
  • 在樂觀與現實之間採取平衡的方法

從 2018 年到 2025 年的演變:

Burgess 呼籲「不要相信炒作」,這句話在 2025 年仍然具有令人難以置信的意義,尤其是圍繞著產生式人工智能的過度炒作。然而,採用 AI 的速度已變得更加重要,尚未開始 AI 之旅的公司現在發現,相較於那些遵循 Burgess 建議提早開始(在 2018 年!)的公司,自己處於相當不利的地位。

2025 年的人工智能格局比 2018 年所能預測的更複雜、更成熟,也更能融入企業策略,但 Burgess 所概述的策略調整、價值創造和風險管理等核心原則,仍然出奇地有效。

Fabio Lauria

執行長暨創辦人 Electe

Electe 的 CEO,我幫助中小企業做出數據驅動的決策。我撰寫關於商業世界中人工智慧的文章。

最受歡迎
註冊以獲取最新消息

在您的收件箱中接收每週新聞和見解
。不要錯過

謝謝!已收到您提交的資料!
哎呀!提交表格時出錯了。