當銀行客服不再是人:金融業 AI 代理革命的狂奔與煞車
從 Klarna 裁掉 700 人又回頭招聘、到富國銀行 2.45 億次零事故互動,金融業正經歷 AI 客服最劇烈的範式轉移。當「代理式 AI」取代傳統聊天機器人,銀行爭的不只是效率,更是信任。誰能在合規紅線內跑最快,誰就拿下下一個十年的客戶入口。
金融業 AI 客服爆發!一分鐘速讀
代理式AI: 金融客服正從「腳本式聊天機器人」升級為「代理式 AI」,具備自主推理、跨系統執行交易、完成多步驟任務的能力。
效率神話破滅: Klarna 的 AI 助手一個月內處理 230 萬次對話、取代 700 名客服,但隨後因無法處理高情緒互動,被迫重新招聘人類員工。
合規軍備競賽: 美國金融業監管局 FINRA 2026 年報告首度將 GenAI 列為受監管技術,要求銀行建立審計軌跡、可解釋性與「認識你的代理(KYA)」協議。
技術分層防線: 富國銀行的 Fargo 用「小型語言模型過濾個資,匿名化後才送雲端 LLM」的分層架構,完成 2.45 億次互動零資料外洩。
信任才是終局: 僅 17% 的美國消費者對銀行使用 AI 感到「非常舒適」,22% 完全拒絕。勝負取決於誰能讓客戶忘記自己在跟機器說話。
從聊天機器人到 AI 代理
一位美國消費者在手機上打開銀行 App,用語音問了一句:「我想把房貸轉貸到利率更低的方案,幫我看看怎麼做。」
三年前,這句話會觸發一個罐頭式的回覆:「請撥打客服專線 1-800-XXX-XXXX,我們的貸款專員將為您服務。」但現在,AI 助理開始自動拉取他的貸款餘額、信用評分、還款紀錄,比對當前市場利率,列出三個可行方案,並在對話中直接引導他完成線上申請。整個流程不到三十分鐘,過去至少要三到五個工作天。
這個場景已經在 Rocket Mortgage 的客戶端實現,背後使用的是矽谷新創 Sierra 的 AI 代理平台。它代表了一個正在金融業擴散的結構性變化:客服 AI 從「回答問題的機器人」,升級成「替你完成任務的代理人」。
從「回答問題」到「達成目標」
業界將這個轉變稱為「代理式 AI(Agentic AI)」。要理解它跟傳統聊天機器人的差異,最直接的方式是看它處理同一個問題的方式。
假設客戶詢問:「我想做一筆國際匯款。」
傳統機器人的反應是提供步驟說明,把流程以條列方式呈現,頂多附上一個連結導向匯款頁面。代理式 AI 的做法完全不同:它驗證收款人的帳戶資訊,對照反洗錢規則檢查交易風險,執行轉帳操作,並在 App、簡訊和 Email 三個渠道同步更新狀態。
Deloitte 在 2025 年底發布的金融業 AI 報告中指出,這種轉變的技術基礎是大型語言模型與「工具使用(Tool-use)」架構的結合。LLM 負責理解語意與推理,Tool-use 架構則讓 AI 能即時調用核心銀行系統、外部 API 和資料庫,完成從查詢到交易的完整流程。
兩代系統的差異可以從五個維度來看:邏輯基礎從腳本規則變成自主推理;任務複雜度從單一查詢(查餘額)變成多步驟工作流(房貸申請審批);數據整合從靜態 FAQ 變成即時存取;產出焦點從資訊傳遞變成交易執行;學習模式從人工重新訓練變成持續自我修正。
這個市場有多大
2024 年全球 AI 客服市場規模約 120 億美元,多家研究機構預估 2030 年將逼近 500 億美元。金融業是導入速度最快的行業之一,約 60% 的銀行和保險公司已經在某種程度上使用生成式 AI。
創業公司的估值膨脹速度同樣驚人。Sierra 由前 Salesforce 執行長 Bret Taylor 創立,2025 年以 100 億美元估值完成 3.5 億美元融資。另一家新創 Decagon 在 2023 年成立,專注於 AI 客服代理與語音機器人,2024 年估值 15 億美元,2026 年初再融 2.5 億美元後跳升至 45 億美元。JPMorgan Chase 內部已部署超過 450 個生成式 AI 使用案例,其中編碼助手為技術團隊帶來 10% 至 20% 的生產力提升。
McKinsey 的研究更進一步量化了經濟驅動力:在收入增長放緩的環境下,銀行必須透過提高勞動生產率來維持股東回報。將日常任務委派給 AI 系統後,軟體開發和後台營運等領域的生產力提升幅度達到 40%。這讓 AI 客服從「nice to have」變成了「must have」。
效率的誘惑與代價:Klarna 的警世故事
如果只看數字,Klarna 的 AI 客服實驗堪稱完美。
2024 年初,這家瑞典先買後付巨頭宣布其 AI 助手上線第一個月的成績:處理了 230 萬次客戶對話,佔總量的三分之二,工作量相當於 700 名全職客服人員。平均解決時間從 11 分鐘縮短到 2 分鐘,預計全年增加 4,000 萬美元利潤。到了 2025 年第一季,Klarna 的人均營收成長了 152%。
這些數字讓 Klarna 成為全球金融業 AI 轉型的標竿案例,被各大財經媒體反覆引用。Klarna 執行長 Sebastian Siemiatkowski 也多次公開表示,公司已停止招聘客服人員,未來的方向是全面 AI 化。
當假唱被拆穿
但故事在 2025 年中出現轉折。Klarna 悄悄解除了客服職位的招聘凍結,開始重新僱用人類員工。
原因是 AI 模型在處理需要情感判斷的客訴時表現掙扎。當客戶因為帳單爭議而情緒激動,或是遇到涉及個人財務困境的複雜情況,AI 的回應雖然在技術上正確,卻缺乏讓客戶感到被理解的能力。一位金融科技分析師將這種現象命名為「Milli Vanilli 效應」,典故來自 1990 年代那個被揭發假唱的流行樂團:當品牌用數位仿製品替代真人互動,一旦無法滿足期望,消費者的反感會比從未使用 AI 更強烈。
MIT 的研究團隊在 2025 年提出了 EPOCH 框架,歸納出 AI 目前無法複製的五種人類特質:同理心(Empathy)、存在感(Presence)、觀點與判斷(Opinion)、創造力(Creativity)、希望(Hope)。在遺產規劃、債務危機、重大投資決策這類場景中,客戶需要的是基於倫理和情感判斷的建議,機率運算無法替代。
RFI Global 的調查數據讓這個問題更加具體:僅 17% 的美國家庭對銀行使用 AI 感到「非常舒適」,22% 的人完全拒絕。也就是說,在金融業這個以信任為基礎的行業中,有超過五分之一的客戶明確表達了對 AI 的抗拒。
Klarna 的教訓是效率數字再漂亮,如果客戶在關鍵時刻覺得自己在跟一台不懂人情的機器說話,品牌累積的信任可以在一次糟糕的互動中被消耗殆盡。
那些把 AI 客服做對的銀行
Klarna 的故事說明了「做過頭」會怎樣。但金融業也有把 AI 客服做對的案例,而且做得相當出色。
富國銀行 Fargo:2.45 億次互動零事故的秘密
富國銀行在 2023 年推出的虛擬助理 Fargo,到 2024 年底已累計處理 2.454 億次客戶互動。這個數字本身已經驚人,但更值得注意的是另一項紀錄:零敏感資料外洩給模型、零需要人工緊急介入的重大幻覺事故。
Fargo 的成功來自一套嚴謹的分層隱私架構。當客戶用語音發出請求,系統先由本地語音辨識將語音轉為文字;接著由一個小型語言模型(SLM)在銀行內部環境中過濾所有個人識別資訊(PII),包括帳號、身分證字號、地址等;過濾完畢後,匿名化的文字才被發送給雲端的大型語言模型解析意圖並生成回覆。整個過程中,雲端 LLM 從未接觸到任何客戶的敏感數據。
這套架構解決了金融業導入 AI 最核心的矛盾,LLM 的能力需要雲端算力支撐,但銀行的客戶資料不能離開安全邊界。富國的做法是讓 SLM 擔任「守門員」,在資料離開銀行防火牆之前完成脫敏。
2024 年 Fargo 的使用量超出原本規劃的一倍,西班牙語用戶也快速成長。相較之下,花旗銀行等同業當時仍對讓 LLM 直接面向客戶持保留態度。富國用實際運營數據證明,透過完善的模型編排與管控,大規模 AI 客服可以在安全與效率之間取得平衡。
英國首個代理式金融助手
英國的 Lloyds Banking Group 走的是另一條路線。2025 年,該集團報告生成式 AI 計畫創造了約 5,000 萬英鎊的價值,並預計 2026 年隨著代理式 AI 向 2,100 萬行動應用客戶推廣,這個數字將超過 1 億英鎊。
Lloyds 推出了英國首個代理式 AI 金融助手。與 Klarna 的「全面替代」策略不同,Lloyds 的 AI 定位是「增強人類」。它不只回答問題,還能主動幫助客戶審視消費習慣、管理預算,並在受監管的框架內提供儲蓄建議。同時,Lloyds 在內部部署了 AI 搜尋工具 Athena,將員工搜尋資訊的時間減少了 66%。前線員工因此能更快找到解決客戶問題所需的資料,而不是被 AI 取代。
Lloyds 的思路可以這樣理解:AI 負責處理重複性的低價值任務,釋放出來的人力則專注在需要判斷力和關係維護的高價值工作上。這比 Klarna 的「砍員工」更容易獲得內部員工的接受,也更符合英國監管環境對金融消費者保護的期待。
星展銀行 DBS Joy:傳統 Chatbot 的「軟升級」
新加坡星展銀行的案例則展示了一條風險更低的轉型路徑。
DBS Joy 最初於 2018 年上線,是一個標準的規則式聊天機器人,靠關鍵詞匹配和決策樹運作。2024 年起,星展試點將生成式 AI 接入 Joy 的後端,2025 年 11 月全面上線。升級後的 Joy 全年無休為 4,000 多家企業客戶提供諮詢,不到一年已處理超過 12 萬次對話,客戶滿意度提升 23%。
星展的做法是沿用原有品牌和管道(包括 WhatsApp 介面),在背後換上生成式 AI 引擎。客戶的使用習慣不需要改變,但對話品質大幅提升。遇到複雜需求時,Joy 會順暢銜接到專屬客戶經理,而非硬撐。
這種「軟升級」策略對亞洲銀行特別有參考價值。它避免了「大爆炸式」系統替換的風險,也不需要對外宣傳「我們裁掉了多少客服人員」這種容易引發負面觀感的訊息。Joy 已率先在新加坡推出,計畫陸續擴展至香港和印度。
澳洲聯邦銀行 CBA:AI 用來防詐騙與普惠金融
澳洲聯邦銀行(CBA)把 AI 的重點放在客服以外的地方,但最終同樣服務了客戶體驗。
CBA 的「客戶參與引擎」(CEE)即時分析數十億個數據點,成功將客戶詐騙損失減少 70%,詐騙案件量減少 30%。另一個亮點是「福利查找器」,透過簡單的 AI 問答,幫助客戶發現他們可能有資格申請但不知道的政府補助。自 2019 年上線以來,這個工具已協助客戶累計取得約 12 億澳元的福利。
CBA 的案例說明 AI 在金融業的價值不限於「接電話」和「回訊息」。當 AI 能夠主動偵測異常、預防風險、連結客戶與社會資源,它就從一個成本優化工具升級為品牌信任的建構者。
供應商戰國時代:專用化 vs. 平台化的對決
銀行在選擇 AI 客服供應商時面臨一個根本性的抉擇:要選深耕金融的專家,還是功能覆蓋面更廣的企業級平台?
專用型玩家:Posh AI 與 Kasisto
Posh AI 的市場定位非常明確:為美國的信用合作社和社區銀行提供 AI 客服。這類機構通常缺乏與大型銀行抗衡的研發預算,但同樣面臨會員對數位化服務的期待。Posh AI 號稱是「首個由金融業專家打造的 AI 平台」,服務超過 100 家金融機構,產品涵蓋語音助理、聊天機器人和內部知識助理。
Posh 的核心優勢在於它的模型經過金融術語和場景的預訓練,減少了幻覺風險,且能與信用合作社的核心銀行系統深度對接。對於資源有限、無法自行微調大型模型的小型機構,這種「開箱即用」的方案省去了大量前期工程。
Kasisto 走的是更高端的路線。它的 KAI-GPT 是業界首個銀行專屬大型語言模型,最新的 v4 版本擁有 128,000 個 token 的上下文窗口,在精選的金融數據集上訓練。Kasisto 的客戶名單包括摩根大通、西太平洋銀行等全球大行。其推出的 KAI Answers 應用讓客服人員能快速查詢政策、法規和產品資訊,用生成式 AI 解讀複雜的合規文件。
Kasisto 總裁公開表示過一個觀點:唯有專為銀行優化的 LLM 才能同時滿足合規、準確和安全的要求。通用模型在回答「你們的信用卡遲繳利率是多少」這類問題時,幻覺風險遠高於經過金融語料微調的專用模型。英國 AI 公司 Aveni 的測試也支持這個判斷:在金融監管指南上訓練的專屬模型,杜撰內容的概率顯著低於通用 chatbot。
Sierra:「按結果付費」的新商業模式
Sierra 是這波浪潮中估值最高、話題性最強的新創。其 100 億美元估值背後有一個關鍵賣點:「按結果付費」。傳統 AI 客服按對話次數或月費收費,Sierra 的模式是只有當 AI 完全獨立解決了客戶問題、無需轉接人工時,才向企業收費。
這個定價邏輯對預算審查嚴格的金融業極具吸引力,因為它將供應商的利益與客戶的實際成效綁在一起。Sierra 聲稱超過半數客戶年營收超過 10 億美元,已在金融業拿下數個指標性案例:Rocket Mortgage 用 Sierra 將貸款再融資流程從數日壓縮到約 30 分鐘;企業信用卡公司 Ramp 用 Sierra 處理了 90% 的客服聊天請求,完全不需要人工介入。
Sierra 的弱點同樣值得注意。根據多份獨立評測,Sierra 在處理複雜的入站電話路由和 IVR(互動式語音應答)整合方面的成熟度,不如傳統聯絡中心供應商。對於仍然高度依賴電話的傳統銀行,語音延遲和通話控制是無法迴避的實務問題。此外,Sierra 主要聚焦於客戶服務工作流,如果銀行希望將 AI 擴展到 IT、HR 或財務後台,Sierra 的功能深度就不夠了。
傳統客服巨頭的反擊
面對 Sierra、Decagon 這批新創的攻勢,傳統聯絡中心供應商也在快速轉型。Talkdesk 推出「銀行自動駕駛儀」(Autopilot for Banking),利用生成式 AI 自動總結知識並解決複雜場景,針對零售銀行提供預建流程。Genesys Cloud CX 則用機器學習預測最佳客戶互動時機,據報在某些案例中將每次客戶訪問的營收提高了 29%。
Zendesk 引入了類似 Sierra 的按解決案數計費模式。Salesforce 和 Microsoft 則提供底層模型加合規工具的組合,讓銀行自行訓練專屬客服 AI。這些大廠的優勢在於成熟的企業級部署能力和全通路整合經驗,但在 AI 原生的創新速度上,確實比新創慢了一拍。
對銀行而言,選擇供應商的邏輯取決於自身條件。資源有限的社區銀行傾向 Posh AI 這類「開箱即用」方案;需要深度金融專業知識的中大型銀行可能選 Kasisto;追求結果導向定價且以數位渠道為主的機構則偏好 Sierra;而規模龐大、電話渠道佔比高、需要跨部門整合的全球性銀行,大概率會繼續依賴 Genesys 或 Kore.ai 這類全端平台。
銀行怎麼馴服 LLM
供應商的競爭最終落在技術架構的選擇上。金融業對 AI 的要求比其他行業更嚴苛:答案必須正確、數據必須安全、回應必須快速、決策必須可追溯。這四項條件同時滿足的難度,催生了一系列針對金融場景的技術方案。
小型語言模型(SLM)的崛起
儘管 GPT-4 和 Claude 等超大模型佔據了媒體版面,金融機構在實際部署中正在戰略性地轉向小型語言模型(SLM)。SLM 的參數量遠小於旗艦大模型,可以在銀行自己的伺服器上運行,敏感的客戶數據永遠不需要離開機構的防火牆。
SLM 在金融場景中的優勢很具體。第一,低延遲:支付驗證和即時欺詐檢測需要毫秒級回應,雲端大模型的網路往返時間難以滿足。第二,數據主權:GDPR 和各國數據駐留規定要求敏感資料留在特定地理範圍內,本地部署的 SLM 天然合規。第三,成本:SLM 的訓練和推理成本僅為大模型的零頭,對需要大規模部署的銀行而言,每年可節省數百萬美元。
精準度方面的數據同樣值得關注。經過金融語料微調的 Llama 3 模型,在特定合規任務上的錯誤率比通用模型低 70%。富國銀行 Fargo 的分層架構,SLM 在前端過濾,LLM 在後端推理,就是這種「大小模型混合部署」思路的代表。
當然,SLM 也有明顯限制。在需要廣泛世界知識或複雜推理的場景中,SLM 的表現不如大模型。因此主流做法是依任務性質分配:高頻、低複雜度、涉及敏感數據的任務交給 SLM;低頻、高複雜度、已完成脫敏的任務交給雲端 LLM。
RAG:讓 AI 回答有據可查
檢索增強生成(RAG)是目前金融業降低 AI 幻覺最廣泛採用的技術方案。它的原理是在 LLM 生成回答之前,先從銀行內部經過驗證的知識庫中檢索相關資訊,讓模型以檢索到的內容為基礎回答,而非憑訓練時的記憶臆測。
在客服對話中,RAG 的運作方式是這樣的:客戶問「我的信用卡海外交易手續費是多少」,系統先從產品文件資料庫中檢索該客戶持有的卡別對應的費率表,把這段文字塞入 LLM 的上下文,LLM 再據此生成自然語言回覆。回答的每一個數字都有明確的文件來源,可供事後追溯。
金融領域實施 RAG 有一個特殊的技術挑戰:權限感知。如果 AI 為了回答一個普通員工的問題,而檢索到了高管的信用報告或未公開的財務數據,這就構成災難性的資料外洩。因此現代金融 RAG 架構必須在數據層實施嚴格的存取控制列表(ACL),確保 AI 只能「看到」當前使用者有權限看到的資料。Microsoft Fabric 等平台已經將這種權限控制內建在資料架構中。
幻覺管理:從兩位數降到接近零
即便有 RAG,幻覺風險仍然無法完全歸零。MIT 2025 年的一篇論文分析了多個金融問答場景中的 LLM 表現,發現幻覺率從 3% 到 27% 不等,取決於問題的複雜度和模型的訓練數據覆蓋範圍。在金融業這種零容錯的環境中,即便 3% 的幻覺率也可能意味著每天數千次錯誤回覆。
為了進一步壓低風險,業界發展出多層防線。第一層是前述的 RAG,讓回答有據可查。第二層是結果驗證:AI 回答生成後,系統自動將內容與已知事實比對,標記可疑之處供人工復核。第三層是多模型共識機制,讓 GPT-4、Claude、Gemini 等不同 LLM 同時回答同一個問題,只有當答案一致時才輸出給客戶。第四層是 NeMo Guardrails 等工具,在輸出前進行事實核查,確保回答有明確的證據支持。
Chime 部署 Sierra 平台後,其客服主管公開表示 AI 代理「幾乎沒有幻覺問題」,並強調這在金融服務中至關重要。不過「幾乎沒有」和「完全沒有」之間的距離,正是人機協作仍然必要的原因。目前的共識是:AI 處理第一線互動,但涉及金額重大、合規敏感或客戶情緒激動的案件,系統需要設定明確的轉接閾值,將對話移交給人類客服。
語音 AI 與全通路:下一個戰場
文字聊天只是 AI 客服的一半。對金融業而言,電話仍然是最重要的客服渠道之一,全球金融業每年在聯繫中心外包上的支出超過 1,000 億美元,佔全球外包市場的 25%。語音 AI 如果能分擔其中哪怕一小部分,節省的成本就以十億美元計。
800 毫秒的門檻
語音 AI 在金融場景中面臨一個嚴苛的工程挑戰:延遲。在電話對話中,任何超過幾百毫秒的沉默都會讓客戶感覺對方「卡住了」,破壞對話的自然感。人類之間的正常對話輪替間隔約 200 到 500 毫秒;如果 AI 的回應超過 800 毫秒,客戶的信任感會明顯下降。
到 2025 年,領先的語音 AI 平台(如 Retell AI、PolyAI)已透過原生多模態模型直接處理語音輸入而非先轉錄為文字再處理,將端對端延遲壓到 800 毫秒左右。這個數字距離「讓客戶完全忘記對方是 AI」還有差距,但已經達到實用門檻。
深偽聲音的威脅與防禦
語音 AI 帶來便利的同時,也打開了新的安全漏洞。犯罪者利用生成式 AI 進行語音複製(Voice Cloning),只需幾秒鐘的音頻樣本就能偽造客戶的聲音,通過傳統的電話身分驗證。這種攻擊被稱為「Vishing」,金融業是首要目標。
銀行的防禦策略是部署「被動語音生物識別」技術。與傳統做法要求客戶念出特定密碼短語不同,被動識別在通話的前幾秒鐘於後台無感完成驗證。它分析的不只是聲紋,還包括說話的節奏、微顫和其他目前技術難以合成的生物特徵。反欺詐系統同時加入了專門檢測合成語音痕跡的「反欺騙」演算法,形成雙重防線。
語音生物識別市場正在快速成長,Fortune Business Insights 的報告預估其規模將在 2034 年前持續擴大。對銀行而言,這項投資的邏輯很直接:如果語音 AI 成為客服的主要入口,那麼保護這個入口不被偽造聲音攻破,就是基礎建設等級的需求。
全通路的終極願景
現代客戶期望在電話、App、網站、WhatsApp 之間無縫切換,且每次切換後不需要重複說明自己的問題。這個「全通路」(Omnichannel)願景聽起來簡單,實務上極度複雜。
目前的做法是讓一個統一的 AI 大腦支撐所有渠道。Posh AI 提供的就是這種「單一 AI 引擎、多渠道輸出」的架構,確保語音熱線、網站 Chatbot、App 內搜尋給出的答案前後一致。Sierra 的願景也類似:讓 AI 代理成為企業與客戶互動的主要介面,橫跨簡訊、電話和各種即時通訊平台,同時保持對話上下文的記憶與個性化推薦。
更遠的想像是,客戶可以直接在智能音箱或車載系統中向銀行 AI 諮詢或辦理業務。要實現這一步,銀行需要讓自家的服務能被 Alexa、Siri、ChatGPT 等外部 AI 平台安全地存取。這涉及標準化的 API 介接,以及嚴格的授權與數據隔離機制。模型上下文協議(MCP)就是在這個背景下被提出的方案,讓銀行像調用 API 一樣,讓外部 LLM 在獲授權且隔離的情況下存取客戶帳戶資訊,同時嚴格控制數據外流。
監管海嘯來了:FINRA 2026 與「認識你的代理」
金融業的 AI 客服發展再快,最終都得在監管的框架內運行。2025 到 2026 年間,監管環境出現了結構性的收緊。
FINRA 2026 報告:GenAI 首度被列為受監管技術
美國金融業監管局(FINRA)在 2026 年度監管報告中首度將生成式 AI 列為受監管技術,要求會員機構滿足與關鍵系統同等的合規嚴謹性。報告的核心要求包括:確保模型輸出的準確性與可靠性、建立專門政策辨識並緩解 AI 偏見與不實風險、對 AI 模型進行隱私及安全的嚴格測試,以及對第三方 AI 供應商加強審核。
FINRA 的立場代表了監管機構的態度轉變:從「觀察」進入「主動監管」。對銀行而言,這意味著 AI 客服的上線流程將變得更像傳統的系統變更管理,需要完整的測試報告、風險評估、以及持續的監控機制。
三大合規新要求
從 FINRA 報告和其他監管動態中,可以歸納出三個正在成形的合規新要求。
第一是「設計可解釋性」,對於拒絕貸款申請或標記帳戶異常等高風險決策,AI 必須能提供人類可讀的理由。監管機構不接受「黑箱評分」作為決策依據。這對技術架構的影響很直接:銀行需要在 AI 系統中內建解釋模組,記錄模型在每個決策節點的推理路徑。
第二是「不可篡改的審計軌跡」。代理式 AI 的每一個自主行動,查詢資料庫、計算利率、執行交易,都必須被記錄在不可竄改的日誌中。部分機構已經開始探索用區塊鏈技術建立永久性的決策譜系,以備監管審查。
第三是「認識你的代理」(Know Your Agent, KYA)協議。類似於銀行對客戶執行的 KYC(認識你的客戶)流程,KYA 要求金融機構對部署的 AI 代理進行「身分認證」:限制代理只能在預批准的參數範圍內轉移資金、存取資料和做出決策。如果 AI 代理的行為超出預設邊界,系統必須自動中斷並通知人類監督者。
這三項要求共同構成了一個訊號:監管機構希望 AI 在金融業的應用是透明的、可追溯的、有邊界的。銀行如果在合規架構上走捷徑,後續的監管成本可能遠高於前期投入。
MCP:銀行安全連接 LLM 的新介面
在技術標準層面,模型上下文協議(MCP)正被視為金融機構安全連接自身資料庫與外部 LLM 的重要基礎設施。透過 MCP,銀行可以像調用 API 一樣,讓 LLM 在獲得明確授權且資料隔離的前提下,存取客戶帳戶資訊來回答高度個人化的查詢。
MCP 的價值在於它定義了一套標準化的資料交換規範,讓不同的 LLM 供應商可以用統一的方式與銀行系統對接,同時讓銀行保留對資料存取的完全控制權。這個概念還在早期發展階段,但已被多家金融科技公司和雲端平台列入 2026 年的產品路線圖。
馬克碎念
大家都在說 AI 客服的技術有多厲害,但真正決定勝負的是一個非技術問題,你敢讓 AI 做到什麼程度?
Klarna 敢讓 AI 直接取代 700 個人,結果撞上「消費者根本不想跟沒有同理心的機器談錢」這堵牆,只能默默把人招回來。富國銀行的做法保守得多,花大量工程資源設計「不讓 LLM 碰到客戶資料」的防線,結果反而是 2.45 億次互動零事故、全行業最漂亮的成績單。
這裡面有一個很反直覺的邏輯,在金融業,AI 客服做得最好的機構,往往是那些對 AI 最不信任的機構。正因為不信任,所以設計了多層防線、分層架構、人機協作機制,結果反而讓 AI 在嚴格的框架內發揮了最大價值。
Sierra 的「按結果付費」對機構用戶來說很誘人,但本質上是在押注一件事,AI 能獨立解決的問題比例會持續上升。如果 FINRA 的監管越來越嚴格,要求越來越多的決策必須有人類參與,Sierra 的商業模式就會面臨天花板。Posh AI 和 Kasisto 走的「金融專用模型」路線看起來沒那麼酷,但在監管收緊的環境下,「我的模型是專門為銀行訓練的,幻覺率比通用模型低 70%」這句話會越來越值錢。
當 AI 成為客戶與銀行之間的主要介面,誰擁有這個介面,誰就掌握了客戶關係。如果銀行把 AI 客服完全外包給 Sierra 或 Kasisto,有一天會不會發現,客戶對「那個很懂我的 AI 助理」的忠誠度比對銀行品牌本身還高?這跟過去銀行把支付入口讓給 Apple Pay 或 Google Pay 的邏輯很像:技術層的控制權一旦讓出去,要拿回來的成本極高。
而五分之一的美國消費者完全拒絕銀行使用 AI,這個比例在未來幾年會下降還是上升?我認為取決於一件事:銀行能否把 AI 藏在足夠好的體驗背後,讓客戶根本不需要去想「我是在跟人還是跟機器說話」這個問題。
富國銀行 Fargo 處理了 2.45 億次互動,大多數客戶甚至不知道背後的架構有多複雜。這可能才是金融 AI 客服的最終形態:最好的 AI,是你感覺不到它存在的 AI。


