AI大模型要否納入投顧牌照監管?業內激辯,關鍵點在行為實質和技術形態
炒股就看,權威,專業,及時,全麵,助您挖掘潛力主題機會!
創新驅動發展,監管如何與時俱進。
伴隨近期陸續有投資者向以DeepSeek為代表的大模型尋求股票基金投資建議,新的問題衍生出現:通用大模型是否應納入證券投資谘詢牌照監管。
該話題具有討論空間,是因為一方麵當前已有不少投資者開始利用DeepSeek等通用大模型提供的投資建議來買賣股票或基金,可能構成證券投資谘詢活動;另一方麵,當前大模型為通用大模型,並非金融領域的專用模型,主要具備“工具”屬性,技術中立或可成為不納入證券投顧牌照監管的理由。
券商中國記者采訪多名券商人士發現,既有觀點稱“應統一監管”,也有的認為不宜“一刀切”管理。
展望未來,監管部門在AI投顧業態中扮演怎樣的角色,如何探索出新的治理路徑,值得持續關注。
爭議是否納入投顧牌照監管
今年春節以來,陸續有年輕投資者向DeepSeek-R1、豆包請求推薦股票、基金等證券投資建議。對此,有證券從業人員向券商中國記者提出困惑,AI大模型在提供股票投資建議時,是否應該持有投顧牌照。
券商中國記者注意到,在豆包APP平台上,不同入口獲取的證券投資谘詢結果呈現出顯著的監管差異。當券商中國記者向豆包要求推薦股票,豆包會給出多個具體的股票建議,包括倉位和買入價位。當券商中國記者向在豆包APP上線的股票智能體“華泰股市助手”提出相同問題後,遭遇“碰壁”,其表示不能給出直接的買賣建議,但會提供資金麵、技術麵等信息供分析決策。
同一APP上出現截然不同的谘詢結果反映出不同入口背後主體的屬性差異。華泰證券作為持牌金融機構,受到監管規定約束。但在用戶需求角度看,豆包的直接薦股建議可能更有吸引力。
那麽,以DeepSeek、豆包為代表的大模型是否應該納入證券投資谘詢牌照監管,受到業內關注。
部分受訪的券商人士認為應納入投顧牌照監管。華福證券有關負責人認為,盡管目前AI大模型薦股薦基建議尚未商業化,但這些建議已對投資者決策產生影響,納入監管能夠確保AI大模型提供的投資建議具備專業性和合規性,有效避免誤導投資者。相關人士也認為應該與現有監管保持一致,要對客戶的適當性進行校驗,給予投資建議對市場交易價格產生的衝擊要進行統一監控。
不過,也有券商人士認為要多方麵考慮該問題,不應“一刀切”。銀河證券財富管理首席投資官、產品中心總經理張嘉為表示,僅從AI技術本身來看,這些AI工具更多具備的是“模型”和“工具”的屬性,在不商業化的前提下,投資者在自主使用的過程中,無需納入投資谘詢牌照監管的必要性。“但是,如果有機構依據這類模型搭建商業化模式並給出具體的投資建議,或者未來薦股行為實現商業化,就屬於投資谘詢行為,理應納入投資谘詢牌照監管。”
相關人士也有相似觀點。他表示,以DeepSeek為例的通用模型平台主要以數學、物理、常識等問題進行訓練,並非以金融投資問題訓練,模型在證券行業中的應用能力是“模型泛化”的成果之一。“如果對這些平台做‘一刀切’管理,從某種角度上來說反而會限製模型能力的進一步發揮,對模型的進化提升存在潛在的負麵影響。”
在該人士看來,金融服務的風險傳導機製決定監管應聚焦“行為實質”而非“技術形態”,比如以專業服務平台為代表的智能投顧平台、以證券機構為主體在智能體平台建立的對客Agent智能體就需要納入投顧牌照監管,因為這些平台達到輸出投資建議的三個標準:具有明確指向性,比如提供個股或者基金代碼;形成持續性服務,而非用戶單次測試;產生實質影響,用戶會據此交易。
技術中立能否豁免合規責任
除了主體屬性存在爭議外,在合規性方麵,DeepSeek等通用大模型平台提供投資建議背後的底層數據、算法模型、生成的投資邏輯和相應結論等是否應該納入監管、技術中立能否豁免合規責任等話題,也存在討論空間。
比如,近期屢有出現“數據汙染”的消息。有用戶反應,DeepSeek在推薦基金時,抓取的信息來源包括某基金產品的廣告投放。又如,“AI幻覺”問題,即模型生成與事實不符、邏輯斷裂或脫離上下文的內容。在Vectara HHEM人工智能幻覺測試中,DeepSeek-R1顯示出14.3%的幻覺率,遠超行業平均水平。
對此,有部分券商人士認為,AI大模型對用戶而言,僅僅是多了一個參考信息的來源;並且用戶輸入不同的提示詞後也會產生差異較大的分析結果。從此角度看,AI技術是中性的,提供最終結論的選擇與判斷仍取決於用戶本人。
也有券商人士持不同意見,認為AI輸出的內容合規可信非常重要。前述國信證券相關人士表示,思維鏈輸出的交互形態,潛意識引導了用戶的認知,讓用戶更加容易認同分析的結果,但同時也讓大模型的幻覺變得更加隱蔽。“深度使用DeepSeek就會發現,金融數據容易被錯誤引用,對於原始信息的真實性無法求證,生成的內容容易被搜索結果誤導等問題,因此需要相關監管部門加強該領域的監管。”
證券人士表示,目前AI直接用於投資谘詢存在技術風險,算法模型和資產配置邏輯存在不穩定、不可靠等風險。
華福證券負責人建議,監管可考慮要求平台披露算法邏輯和風險提示,能夠讓投資者更清楚地了解投資建議的依據和風險,從而維護金融市場的穩定和公平。
東莞證券相關人士表示,在智能投顧業務監管方麵,一是建議加大智能投顧監管沙盒試點,加快智能投顧業務屬性與準入管理具體規範製定;二是鑒於我國資本市場個人投資者占比較大的情況,AI的發展應用應參考當下的高頻量化交易的監管策略,將智能投顧相關策略依據市場結構、流動性和價格發現產生方式進行分類研究,既不可“一概而論”也不能“聽之任之”。
不必憂慮趨同性風險
此外,有市場觀點稱,伴隨AI薦股未來的廣泛應用,可能會引發投資者的群體性操作,導致市場波動。多名受訪人士認為,“趨同性”風險確有可能存在,但概率不大。
上述華福證券人士認為,由於很多機構可能基於相似的市場數據、算法模型和理論基礎來構建自己的AI投資係統,當市場出現某些特定信號時,大量基於相同算法的投資決策有可能同時發生。因此需要謹慎看到AI在投研與投資谘詢領域的運用。
“防範上,我們可以通過監管引導機構在算法設計上增加差異化,鼓勵機構結合自身的研究優勢、數據特色來優化算法。同時,加強投資者教育也至關重要,引導投資者理性看待AI投資建議,不盲目跟風,從而降低因算法趨同帶來的市場波動風險。”該名華福證券人士表示。
張嘉為稱,趨同性的出現取決於三方麵是否發生共振:一是具體應用場景和應用模式,二是底層數據來源範圍,三是客戶提問的提示詞。但實際展業中,三者共振導致“趨同性”的概率不大。因為持牌金融機構通常多方麵提升策略多樣性、交易分散性、模型多樣化協同、業務技術深度融合及風控預警。同時,各家機構擁有不同的客戶數據、投顧數據、資訊數據等,數據庫一致性的概率不大,再者,客戶千人千麵,提問的提示詞高度重複的概率也不大。
平安證券經紀業務事業部相關負責人以量化交易的策略發展為例,稱這是類似一個循環的過程:發現策略、獲利、失效、再挖掘新的策略。“在技術升級的初期階段,可能會出現‘羊群效應’,比如大家用的模型、數據源或者訓練方法都差不多,短期內引發趨同交易,但這也可能導致策略收益下降甚至虧損,進而推動市場從同質化走向差異化。”