背景:在數(shù)字經濟蓬勃發(fā)展的今天,健康醫(yī)療領域正經歷著深刻的變革。伴隨大數(shù)據(jù)、人工智能、物聯(lián)網等新興技術的廣泛應用,醫(yī)療健康行業(yè)迎來了前所未有的發(fā)展機遇。大模型作為人工智能的重要組成部分,在人工智能領域中占據(jù)著關鍵地位,代表了當前人工智能技術發(fā)展的一個重要方向。
近年來,醫(yī)療資源的供需矛盾日益凸顯,人們對于高效、精準醫(yī)療服務的需求不斷增長。同時,醫(yī)療數(shù)據(jù)的爆炸式增長也為醫(yī)療大模型的發(fā)展提供了肥沃的土壤。在這樣的背景下,醫(yī)療大模型應運而生,它利用先進的算法和大量的醫(yī)療數(shù)據(jù),為醫(yī)生提供更準確的診斷建議和治療方案,為患者帶來更好的醫(yī)療體驗。而其中,混合專家系統(tǒng)在醫(yī)療大模型中展現(xiàn)出了獨特的優(yōu)勢。它結合了多種不同類型的專家知識和技術,能夠更加全面地分析醫(yī)療數(shù)據(jù),提高診斷的準確性和可靠性。混合專家系統(tǒng)可以整合醫(yī)學專家的經驗知識、先進的數(shù)據(jù)分析技術以及人工智能算法,實現(xiàn)優(yōu)勢互補,為醫(yī)療決策提供更強大的支持。
一、AT-MoE技術架構
公司聯(lián)袂百位院士專家,依托自主研發(fā)的醫(yī)學垂類大模型“長城健康”,創(chuàng)新應用AT-MoE(Adaptive Task-planning Mixture of Experts,AT-MoE)自適應任務規(guī)劃混合專家架構技術,自主研發(fā)了上百項院士專家模型,通過APP全面應用于基層醫(yī)生的實踐教育、居民健康管理等場景。
在不斷發(fā)展的人工智能領域,大型語言模型 (LLM) 已經成為一股強大的力量。它們在各種任務中都取得了顯著的進步,在多個行業(yè)和領域中具有革命性的潛力,通過自動化復雜任務并提供智能見解來實現(xiàn)。盡管取得了巨大的成功,現(xiàn)有的 LLM 在特定領域仍面臨重大挑戰(zhàn)。在預訓練階段,LLMs通常缺乏專門的領域知識,尤其是在醫(yī)療領域。在預訓練期間有限的醫(yī)學領域語料庫限制了它們處理與診斷、治療和醫(yī)學研究相關任務的能力。在醫(yī)療領域,數(shù)據(jù)的復雜性和多樣性構成了診斷和治療的巨大挑戰(zhàn)。大量的醫(yī)療信息,包括病歷、科研論文和臨床指南,需要復雜的模型來準確分析和解釋這些數(shù)據(jù)。傳統(tǒng)的方法往往無法應對醫(yī)療數(shù)據(jù)的復雜性和變異性。混合專家(MoE)架構為解決這些挑戰(zhàn)提供了一個有希望的解決方案。通過整合多個模型的專業(yè)知識,MoE 架構比單個模型更有效地處理復雜的任務。目前,在大型模型領域主流的 MoE 架構專注于在模型級別引入基于門控機制的稀疏激活 MoE 層,并替換 Transformer 層中的前饋組件。然而,在醫(yī)療等復雜場景中,特別是那些需要專業(yè)知識和可解釋性的領域,現(xiàn)有的MoE架構仍然難以實現(xiàn)高質量的融合學習效果。在典型的基于MoE架構的Mixtral 8x7B模型技術報告中可以發(fā)現(xiàn),所有領域的分配分布非常相似,這表明在該MoE架構中尚未明確學習到特定領域的專家模式。
為了克服以上問題,大專家.COM提出了一種自適應任務計劃混合專家(AT-MoE)的架構。這種架構旨在利用多個領域中的專業(yè)知識,并確保模型的可信度、可控性和可解釋性。首先,我們使用參數(shù)高效的微調技術(如LoRA),訓練了若干任務專用的專家,使我們的子模型能夠在專門領域具有更好的問題解決能力和可解釋性。隨后,我們訓練了一個創(chuàng)新的層內自適應分組路由模塊,允許根據(jù)復雜的任務指令進行更有效的模塊融合,從而提供最佳的任務解決方案。具體地,我們提出了一種AT-MoE架構,以解決傳統(tǒng)MoE方法在處理復雜任務時的局限性,特別是對于單個指令包含多個意圖的情景。AT-MoE架構的核心在于其動態(tài)權重分配機制。這種多模塊融合方法增強了系統(tǒng)應對復雜和多樣挑戰(zhàn)的能力。傳統(tǒng)的MoE缺乏任務級別的專門訓練,因此在整個模型架構中沒有特定于任務的專家。知識的混合和冗余阻礙了專家的專業(yè)化程度。相比之下,AT-MoE最初對各種任務場景進行了專家網絡的訓練。每個專家模型都有一個明確的任務領域屬性。為了保證模型訓練和推理的效率,我們采用了LoRA的微調方法來高效地訓練每個專家子模型。對于復雜的任務場景,AT-MoE采用一種創(chuàng)新的自適應分組路由方案。對于每一層我們訓練不同的分組融合模塊。對于專家模型,在根據(jù)不同的任務類型分配權重后,應首先對每個組內的權重進行分配。需要注意的是,每個組內權重的分配也遵循一定的規(guī)范化分布。以醫(yī)療場景為例,分組可以分為三大類:1)第一類專家主要關注功能性問題,如病例生成、處方藥、分診和指導;2)第二類專家主要圍繞基于領域知識的問題。該組中的每個專家代表特定領域的專業(yè)技能,例如外科手術、放射學和病理學;3)第三類專家主要負責風格類型。例如,一些專家僅提供明確結論,而其他專家則提供參考意見。通過以上自適應分組路由策略,可以合理分配任務場景下的專家權重并從而提供最佳綜合答案。此外,AT-MoE使用所有任務的合并訓練數(shù)據(jù)集來訓練一個預合并的LoRA表示通用專家。通過動態(tài)地將通用專家和任務分組融合專家的權重進行融合,使得模型具有更強的泛化能力。在推理階段,還可以根據(jù)任務的需要,人工地對不同的LoRA模塊進行MASK,模型會自動地根據(jù)當前的MASK狀態(tài)進行實時地動態(tài)權重重新分配,從而進一步提升模型的可控性。
“院士專家大模型”通過應用AT-MoE技術,破解了普通醫(yī)療大模型在應對復雜醫(yī)療問題時所產生的“幻覺”問題,大幅提高回答的前后一致性及準確度,化解了普通MoE混合專家系統(tǒng)在優(yōu)化算法和可解釋性上難以兼顧的困局,通過智能調度機制,實現(xiàn)不同領域專家模型間的動態(tài)協(xié)作,讓不同的院士專家解決不同患者的不同問題,最后組合給出精準的解決方案,確保了模型在處理各種復雜醫(yī)療問題時的高效性和準確性,從而實現(xiàn)了“精準醫(yī)療”。
未來,大專家.COM將圍繞可信智能技術,強化運用自主創(chuàng)新的AT-MoE技術,持續(xù)推進“大模型+醫(yī)療健康”深度融合,全面賦能醫(yī)療健康行業(yè)數(shù)字化發(fā)展,推進智慧醫(yī)療建設,更好服務于醫(yī)、服務于民,提升患者的就醫(yī)體驗和人民群眾健康管理水平,助力提升人民群眾獲得感、幸福感、安全感。
未經數(shù)字化報網授權,嚴禁轉載或鏡像,違者必究。
特別提醒:如內容、圖片、視頻出現(xiàn)侵權問題,請發(fā)送郵箱:tousu_ts@sina.com。
風險提示:數(shù)字化報網呈現(xiàn)的所有信息僅作為學習分享,不構成投資建議,一切投資操作信息不能作為投資依據(jù)。本網站所報道的文章資料、圖片、數(shù)據(jù)等信息來源于互聯(lián)網,僅供參考使用,相關侵權責任由信息來源第三方承擔。
Copyright ? 2013-2023 數(shù)字化報(數(shù)字化報商業(yè)報告)
數(shù)字化報并非新聞媒體,不提供新聞信息服務,提供商業(yè)信息服務
浙ICP備2023000407號數(shù)字化報網(杭州)信息科技有限公司 版權所有浙公網安備 33012702000464號