4月10日,以“人工智能與金融未來”為主題的國民財富發(fā)展研究合作平臺2025春季峰會正式召開。會上,中國銀行首席信息官孟茜就銀行業(yè)如何擁抱人工智能,特別是如何應用大模型發(fā)表主題演講。
孟茜認為,從銀行的行業(yè)來看,要做好三個“共治”;從銀行機構來看,要做好三個“協(xié)同”;此外,要統(tǒng)籌好發(fā)展和安全的關系,筑牢安全與風險三道防線。
銀行業(yè)要做好三個“共治”
從今年DeepSeek-R1模型推出以后,已經(jīng)有20多家銀行都部署了私有化的DeepSeek,但主要還是國有大行和部分科技實力比較強的股份制銀行!爸虚L期來看,大模型如果要在全行業(yè)廣泛應用,需要關注并解決三方面的問題!泵宪缰赋。
一是算力基礎共治。雖然DeepSeek等技術降低了算力門檻,但是它的火爆也激發(fā)出了更多的應用場景,市場算力的總需求其實是有增無減的,要滿足銀行業(yè)特別是中小銀行的算力需求,是否應該加強金融專用算力基礎設施的建設,構建靈活的算力架構,并且通過集約化的運營去提升算力的使用率,同時還要加快現(xiàn)在國產(chǎn)化算力在適配大模型時存在的一些效率和兼容性的問題。
二是行業(yè)模型共治。目前預訓練的基礎大模型金融知識的配比只占到了5%左右,也導致了金融的專業(yè)性不足,限制了在金融場景的深度應用。為此,部分國有大行已經(jīng)嘗試開始進行二次訓練企業(yè)的大模型。考慮到行業(yè)大模型在促進推廣、降低成本等方面的作用,是否需要整合行業(yè)資源、建設行業(yè)大模型也成為銀行同業(yè)現(xiàn)在正在討論的一個熱點話題。建議大型金融機構應該和中小金融機構加強交流和合作,縮小金融業(yè)機構在金融間的數(shù)字鴻溝。
三是行業(yè)數(shù)據(jù)集共治。金融業(yè)對數(shù)據(jù)的隱私保護和使用的要求是非常高的,支撐行業(yè)共享共用的金融語料現(xiàn)在比較缺乏,是否可以考慮組織行業(yè)在數(shù)據(jù)分級分類管理的基礎上,共同推進建設金融公共語料庫,進而降低各個金融機構單獨構建的投入成本,同時可以建立統(tǒng)一的金融人工智能應用的評測體系,制定標準化測試數(shù)據(jù)集和評測的方法,提高評測結果的可比性和權威性,以提升大模型在我們金融應用的質量和水平。
銀行機構要做好三個“協(xié)同”
對于銀行業(yè)金融機構而言,在孟茜看來,擁抱人工智能要做好三個“協(xié)同”。
一是場景和技術協(xié)同,合理應用人工智能技術。應該說不同的人工智能技術有不同的特征和優(yōu)劣,不同的金融場景的需求也各不相同。目前來看,大模型技術既不能一統(tǒng)人工智能應用的天下,也不是所有的業(yè)務場景的普世解,各機構還是要建立KYA機制,結合業(yè)務場景、風險特征、算法特點,合理選擇大小模型,通過大小搭配、高低組合,在實現(xiàn)高效應用的同時,可以有效地降低成本。
二是業(yè)務和科技協(xié)同,實現(xiàn)應用創(chuàng)新敏捷迭代。要搭建企業(yè)級人工智能應用框架和體系,實現(xiàn)算力、數(shù)據(jù)和專家知識的高效共享,需要降低應用的門檻,要能夠支持業(yè)務人員通過使用工具箱就能夠自行開展業(yè)務驗證、場景孵化的工作,同時還要加快培養(yǎng)既懂金融又懂人工智能應用的復合型專家型人才,負責推進業(yè)務的全面智能化轉型。要通過技能培訓形成人人會用、人人在用的人工智能工具,才能將人工智能的優(yōu)勢轉化為實際的一個業(yè)務價值。
三是組織和技術協(xié)同,構建人機相適的新型組織模式。人工智能的深度應用會重塑銀行原有的崗位職責、業(yè)務流程和決策模式,人機協(xié)同也將成為銀行機構未來的一個常態(tài),銀行要逐步構建起人工智能和行業(yè)專家緊密協(xié)作的這么一種新型的模式。
孟茜認為,未來在金融行業(yè)中涉及信息處理、初級分析和標準化客服等這些重復性比較高、規(guī)則比較明確的工作,可能會被逐步地替代。未來的金融從業(yè)者或將轉型為AI訓練師與策略的指揮官,需要掌握數(shù)據(jù)解讀、模型調優(yōu)以及倫理審查等復合的技能,由行業(yè)專家去處理更加復雜和情感類的任務,實現(xiàn)人與智能的優(yōu)勢互補。
筑牢安全與風險三道防線
孟茜指出,人工智能在應用過程當中會面臨數(shù)據(jù)泄露、算法黑箱、模型攻擊等一系列的風險挑戰(zhàn),也會帶來侵犯個人隱私、沖擊法律和社會倫理等問題。近期,小米SU7智駕交通汽車交通事故在全社會再次引發(fā)了人工智能安全的討論,要確保人工智能應用的安全、可靠、可控,可以從三方面再做一些重點工作。
一是要筑牢企業(yè)治理防線。銀行機構自身要逐步建立健全企業(yè)級人工智能的治理機制,將人工智能的管理要納入到全面風險管理的框架,強化科技倫理和消費者權益保護的審核,建立健全包括模型開發(fā)、驗證、部署、監(jiān)控和退出的全生命周期的管理機制,通過統(tǒng)一的管理來確保企業(yè)對人工智能應用的主動地掌控。
二是要筑牢業(yè)務安全防線。就如智能駕駛是輔助駕駛,無論如何都不能脫手一樣,當前銀行在應用大模型等人工智能技術時,必須將業(yè)務流程的最終責任還是要落實到人。如何落實業(yè)務流程的最終責任其實是有待進一步的研究和探索的,包括在法律法規(guī)層面,也需要有明確的規(guī)范和指引。
現(xiàn)階段從實操中來看,一方面,要明確人工智能的輔助和效率工具的定位,在關鍵業(yè)務環(huán)節(jié)還是要建立強制性人工審核的機制,確保員工對關鍵業(yè)務流程的掌控;另一方面,在風控、授信、投資等高風險的業(yè)務領域,還是要審慎使用,應該優(yōu)先選擇精確度高、可解釋強的人工智能的方案,確保問題可追溯、責任可落實。
三是要筑牢技術安全防線。盡管DeepSeek為行業(yè)發(fā)展帶來了諸多的便利,但金融市場風險涉及領域廣泛,AI大模型的廣泛應用可能也會誘發(fā)新的問題,比如數(shù)據(jù)質量不可控,比如在訓練數(shù)據(jù)中存在偏差,這些都會導致模型輸出的結果不公正或者是不準確,從而誤導投資者。另外,由于AI幻覺和黑箱的特點,當出現(xiàn)投資失誤或者風險事件時,有可能會很難溯源找出問題的根源,無法及時采取有效措施去控制和管理風險。
另外,生成式人工智能在部分場景應用時也需要使用到大量的隱私數(shù)據(jù),在部署和訓練時,要更加防止信息泄露的風險。人工智能的普及還可能會帶來更為復雜的網(wǎng)絡攻擊的行為,為此,銀行在應用大模型的過程當中,還是要堅持模型不聯(lián)外網(wǎng)、數(shù)據(jù)不出行、敏感信息不入模這些原則,并利用技術手段通過輸入輸出端的多層審核防護攔截違法內容、防御惡性指令等等,實現(xiàn)內容安全和交互安全的雙重保證。
【免責聲明】本文僅代表作者本人觀點,與和訊網(wǎng)無關。和訊網(wǎng)站對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。郵箱:news_center@staff.hexun.com
最新評論