李東洋,劉秦民
(廣州中醫藥大學馬克思主義學院,廣東 廣州 510006)
2023年3月15日,OpenAI 發布了自然語言處理的大模型 GPT-4, ChatGPT的能力得到大幅提升,自然語言處理技術在醫療服務領域具有廣泛應用前景,尤其是ChatGPT的無障礙人機溝通技術[1]。隨著科技的不斷發展和推廣,ChatGPT作為目前最先進的自然語言處理技術之一,可廣泛用于協助醫患溝通、提供線上醫療咨詢服務以及進行病例分析和預測等方面,雖然現在還沒有一個成熟的應用模式,但其應用前景仍十分廣闊[2]。
醫患之間的有效溝通一直是醫療領域中的重要問題。傳統觀點認為,醫生與患者之間的交流,因為醫生時間比較緊張,容易導致誤診、不良治療方案等后果。作為OpenAI最新推出的智能模型,ChatGPT在提供醫療的答案方面表現得十分出色,并且能夠有充足的時間與患者溝通交流,還能夠為患者提供更好的解決方案,同時幫助緩解溝通障礙所帶來的困難。
家長型、信息型、闡釋型和協商型是醫患溝通中的四種角色類型,它們在醫患溝通中各自具有不同的特點和優勢。通過ChatGPT這一先進的人工智能技術,這些角色類型可以得到延展和變革,使得醫患間的溝通更加順暢、準確和高效。比如,在家長型角色方面,ChatGPT可以為患者提供更多個性化、細致入微的關懷和指導;在信息型角色方面,ChatGPT可以更加準確地回答患者的問題,并提供最新的醫療信息和知識;在闡釋型角色方面,ChatGPT可以更好地幫助患者理解自身疾病和治療方案,并為其提供針對性建議;在協商型角色方面,ChatGPT可以與患者進行深入交流,并根據其反饋調整治療方案[3]。
此外,ChatGPT在醫患溝通方面具有重要的跨文化、多語言交互功能。尤其是在面對不同文化背景、不同語言水平的患者時,ChatGPT能夠彌合交際障礙、拓寬溝通渠道。同時,ChatGPT具有自然語言處理能力,在多種語言環境下支持智能交互和對話生成,為醫患溝通提供便利性和高效性。
加州大學圣地亞哥分校在社交網站找到195個真實的醫患問答,將相同的問題交給ChatGPT,在其回答之后再交給專家盲評,結果表明,ChatGPT不僅在信息質量這一方面打敗了人類醫生,在人類的同理心這一方面也擊敗了人類醫生[4]。2023年5月,Belong.Life推出了Dave:世界上第一個針對癌癥患者的對話式AI。它只關注于癌癥領域,致力于24小時為患者提供醫患間的溝通。盡管上述二者都還是處于公益的、測試的階段,但毫無疑問其未來的潛力不可限量。
ChatGPT在醫患間溝通方面應用前景十分廣闊。它不僅可以提高醫患交流的效率和準確性,還能夠有效地解決文化差異、語言障礙等問題。通過為患者提供全面、專業、人性化的支持,ChatGPT有望成為未來醫療服務中不可或缺的一部分。
在傳統的醫療服務中,醫生往往需要面對面地與患者交流。這可能占用大量的時間和資源,并且受到一些人為因素的影響。而通過ChatGPT,患者可以得到更加高質量和準確的醫療咨詢服務。與此同時,ChatGPT技術也為醫生提供了一個新型的工作方式,能夠在不同時間和空間中協助他們完成相關任務。
線上AI醫療咨詢具有隨時隨地、專業診斷和治療方案以及便捷等優點??梢灶A見的是,在線上AI醫療咨詢中,患者只需使用手機、電腦等設備連接應用或平臺即可進行醫療咨詢,無需消耗大量等待和排隊時間。這種遠程診斷方式解決了患者看病難、就醫不便等問題。更使得以患者為中心的溝通模式(patient-centered communication, PCC)在ChatGPT中有了更大的實現可能,通過ChatGPT,醫療機構可以實現在線PCC,有效提高醫生與患者之間的溝通效率,并且可以更好地滿足患者個性化需求。此外,ChatGPT也可以幫助醫生更好地了解患者,包括了解他們的健康狀況、特殊需求等信息,從而能夠為患者提供更加個性化和全面的醫療服務[5]。
我國在2023年2月25日所展示的華佗GPT,在多輪問診場景中,研究團隊成員收集了涵蓋20個科室的100個多輪對話進行評估。結果顯示,華佗GPT在處理更加復雜的多輪問診場景中的表現優異,在某些性能方面甚至超過GPT3.5。但華佗GPT也仍處于免費的、公益的測試階段,待技術成熟之后,其研究院才會尋找合適的應用場景,形成新的業務模式和商務模式,以便于華佗GPT的落地與推廣應用[6]。
與傳統的面對面醫療服務相比,在線上AI技術的支持下,ChatGPT能夠幫助患者快速地獲取準確、全面并且及時的醫學咨詢服務。通過人工智能技術和大數據分析技術的支持,ChatGPT也具備相對較高的精度和可靠性,并且能夠隨時視情況進行自我迭代和更新。
線上AI醫療咨詢還有很好的普及性和可推廣性。其依托于互聯網等技術手段,使得在線上AI醫療咨詢可以迅速推廣或擴展到各個地區、國家,甚至全球范圍內。這也意味著在未來,線上AI醫療咨詢將會成為人們日常生活中一個必需且更加廣泛應用的醫療資源形式。
ChatGPT在病例分析和預測中具有廣泛的應用前景。傳統上,當患者到醫院就診時,醫生需要收集患者的個人信息、過往病史、家族遺傳史以及當前出現的癥狀等信息。根據這些信息,醫生需要對患者進行初步分析并制定治療計劃。而且在醫療診斷過程中,醫生需要閱讀大量的文獻并進行復雜的數據處理才能作出正確的判斷。但是,在某些情況下,醫生可能會遇到罕見的疾病,無法作出準確的診斷。這時候,ChatGPT就可以派上用場了。通過對大量數據進行分析并應用ChatGPT,可以對患者未來可能會出現的疾病進行預測。當患者輸入自己的個人信息時,ChatGPT可以預測患者未來可能會出現的疾病,并給出相應建議。當患者輸入自己的個人信息時,ChatGPT可以根據這些信息來預測該患者是否存在某種疾病的風險。這樣不僅可以幫助醫生更好地制定治療方案,還可以幫助患者提前了解并采取措施進行預防。同時,ChatGPT還可以結合EHR數據評估個體化的干預效果。相比傳統的RCT方法,ChatGPT可以更全面、更精準地分析患者個體差異和治療效果,并提供針對性的治療建議。這意味著,ChatGPT可以大大提高醫生在診斷和治療方面的工作效率和精度,同時為患者提供更加個性化、精準的醫療服務[7]。
例如,在肝癌診斷方面,醫生通常需要查閱大量與患者相關的數據資料、臨床解剖等專業文獻,以確定確診結果。然而這種傳統方式往往需要耗費很長時間,而且很容易出現誤差。借助ChatGPT的自然語言處理能力,可以采用疾病數據進行訓練,使其學習到與肝癌相關的各種規律和特征,最終輸出一個比較準確的肝癌診斷結果。
在醫學領域,預防比治療更加重要。中醫的“治未病”備受關注。因此,希望能夠提前發現某些患者是否存在患某種疾病的風險。借助ChatGPT,可以利用大量相關數據資料進行訓練,并通過該模型來預測患者可能會出現哪些健康問題。
例如,在心血管疾病預測方面,可以利用大量相關數據資料訓練ChatGPT,并通過該模型來預測 患者可能會出現哪些心血管系統相關的問題。通過這種方式,可以幫助患者及時采取措施進行治療或預防。因此,在個性化定制病例分析中,ChatGPT具有廣泛的應用前景,并將成為醫生和患者共同信賴的重要工具之一。
雖然現在還沒有相關的產品推出,但也已經有大量的相關測試數據,其潛力不可限量。
ChatGPT 在醫學領域的應用雖然具有重要意義和巨大潛力,但同時也存在一些醫學倫理風險與挑戰。以下是基于其特性而預設的可能帶來的諸多風險。
ChatGPT的匹配算法可能帶來更為嚴重的個人數據隱私問題。首先,在對患者進行診斷和治療時,醫生需要訪問和收集大量敏感個人信息,包括病史、藥物治療方案、基因型等。這些信息非常私密,一旦被未經授權的人知曉或泄露,就可能導致患者隱私權被侵害,并產生嚴重的后果。
平臺風險是互聯網醫療患者隱私泄露的客觀風險之一。在使用ChatGPT等人工智能平臺時,需要關注平臺的技術水平和安全性、平臺的資質和合規性、平臺運營規模和可靠性等方面。只有具備高水平技術和良好信譽的平臺,才能有效避免或減少個人隱私泄露的風險。
政策風險是互聯網醫療患者隱私泄露的根源性風險之一。當前,對于互聯網醫療領域的監管法規尚不完備,缺乏權威性和可操作性,執行力度也較弱。
此外,由于醫療機構涉及大量個人敏感數據,攻擊者可以通過針對ChatGPT本身或相關數據庫的攻擊手段獲取和竊取敏感數據,從而導致數據安全風險。在互聯網傳輸和存儲數據存在一定風險,不僅黑客攻擊,類似技術漏洞、人工差錯等情況都可能導致患者隱私信息泄露[8]。一旦數據泄露,將會給個人和機構造成巨大損失[9]。
在醫學倫理領域,ChatGPT的算法黑盒子和可解釋性問題是非常重要的。ChatGPT作為人工智能技術應用于醫學倫理決策的關鍵工具,其算法的不透明性會影響到算法的公正性和穩定性。
第一,ChatGPT算法黑盒子問題是指人們無法直接了解算法在決策時所依據的機制。這是由于ChatGPT算法使用了復雜的神經網絡模型進行學習和推理。神經網絡是一種高度抽象化的數學模型,需要大量輸入數據以訓練模型,但卻很難直接解釋模型在決策時所依據的因素。這使得決策過程難以被了解、審查或者驗證。第二,可解釋性問題也很關鍵。可解釋性是指能夠清楚地理解一個算法在作出決策時的思考過程。這對于醫學倫理來說非常重要,因為醫生或者患者必須知道機器為什么會提出特定建議或結論。
ChatGPT的缺點也很明顯。主體行為可解釋性是判斷人工智能責任的最基本要素之一。也就是說,人工智能應該有一個基于邏輯和經驗的行為決策機制,我們可以通過這個機制理解和解釋其行為和決策過程,從而對其是否違反法律進行評估。然而,ChatGPT的自我調試和演化同時也使得其行為具有不可預測性和不可解釋性。在這種情況下,如何確定人工智能的法律責任就成了一個難題[10]。
ChatGPT的應用可能對醫患間的社會關系、責任界定和權利保護產生深遠影響。首先,由于模型具有智能化和個性化特征,它在醫學倫理問題中可能扮演更加主動和重要的角色,進而改變醫患之間的權利關系、信任度以及隱私保護等方面的社會關系。其次,在使用ChatGPT進行醫學倫理問題咨詢時,需要重新界定責任和義務的劃分。例如,在面對復雜的倫理決策時,ChatGPT可能會給出多種相互矛盾或不確定的建議。這就需要重新考慮誰來承擔最終決策的責任以及如何分配各方義務。同時,還需要思考如何避免通過模型推卸責任或喪失個體自主性[11]。最后,在使用ChatGPT進行醫學倫理問題咨詢時,也需要注意相關方利益和權利。例如,在處理涉及隱私保護、知情同意、公平公正等問題時,模型需要嚴格遵守法律、道德和倫理標準,確保相關方權益得到妥善維護,以免有失公正。
ChatGPT的偏見和歧視問題也是一個需要重視的問題。由于ChatGPT的學習依賴于大量的訓練數據,而這些數據可能不夠平衡或存在不準確的標簽,導致模型在處理特定類型問題時出現偏見或歧視,并最終導致不公平現象的出現。
ChatGPT在處理醫學倫理問題時可能存在性別、種族、文化等方面的偏見。例如,在對患者進行診斷和提出治療建議時,模型可能會對某些特定人群給出錯誤或有偏頗的建議,如對女性患者給出較為保守或不準確的治療方案。這種偏見和歧視行為會導致醫生和患者之間的信任破裂,從而影響醫療服務質量和效果[12]。
ChatGPT在醫學倫理領域下對患者的反饋機制和監管機制的建設,需要注重保障公正性。
首先,對于患者的反饋機制而言,ChatGPT可以使用自然語言處理技術幫助患者表達自己的訴求和需求。作為一種人工智能技術,ChatGPT需要能夠無視人類對話中包含的個體偏見和主觀情感,并始終以公正、客觀、中立的態度處理患者提供給它的信息。這樣,患者提供的有關疾病情況、治療效果、用藥反應等關鍵信息才能得到有效記錄并對比加以分析。其次,在醫學倫理監管方面,ChatGPT需要遵循公正和透明原則。例如,在藥品審批過程中,ChatGPT能夠輔助分析、評價藥品相關數據,輔助所有可行且合格的藥物都能獲得審批;同時要盡可能減少專家意見之間偏見和誤差所帶來的影響。此外,在臨床實驗室方面,ChatGPT也可以對臨床試驗數據處理過程進行輔助監管,防止人為因素對實驗結果造成干擾。同時,ChatGPT還需要遵守保護患者隱私的規定,在處理患者信息時要嚴格遵守相關規定。最后,在構建反饋機制時,ChatGPT需要注重公平性和客觀性。例如,如果ChatGPT協助收集患者反饋信息和實驗數據,則必須確保所采集到的數據具有代表性和可比性,不能因為個體差異而導致誤判或刻意忽略某些指標。在藥品審批或臨床試驗中,ChatGPT也不能傾向于某一特定藥品或療法,應該以客觀、公正、嚴謹的態度進行分析和評估。
ChatGPT在醫學倫理領域下對患者的反饋機制和監管機制的建設需要注重公平性問題。只有充分保障公正、透明、客觀等原則的落實,才能確保這種技術手段能夠更好地服務醫學研究和治療決策,并獲得廣泛認可和信任。
盡管ChatGPT還沒有成熟的產品,但其技術更新換代極快,或許在幾年時間內就可看見成熟的商業化產品,如國產的華佗GPT就有望在幾年內投入實際的醫療治理中。為此有必要提供對應的治理路徑,以防范基于其特性而預設的可能的諸多風險。
ChatGPT在醫學倫理方面涉及許多風險和挑戰,特別是對于此前不知曉ChatGPT的醫生或此前不了解醫學倫理的技術開發人員,需要有不同的基本知識培訓來加強他們在這個領域的專業能力,讓他們對這兩方面有足夠的認識。
技術開發人員需要了解ChatGPT在醫學倫理領域下的風險和挑戰。例如,在提供醫療診斷和治療建議時,ChatGPT需要考慮患者隱私保護、信息安全等問題,并確保其提供的信息準確、可靠、合法。而在語言處理和文化交流上也會遇到一些難以預測的情況,技術開發人員需要了解如何處理這些復雜情況。技術開發人員還需要了解醫學倫理法規、政策和規范等方面的知識。這些法律法規包括例如《中華人民共和國個人信息保護法》《醫療質量管理辦法》等。掌握這些內容可以使技術開發人員更好地了解醫學倫理領域下的行業標準,從而更好地提供醫療服務。
作為醫生,他們應該充分了解與AI醫療相關的概念、技術和倫理挑戰,這些知識能夠使他們在工作場所批判地檢視人工智能,向患者清楚地傳達人工智能的局限性,明確需要注意的風險和危害,從而賦予患者更多的決策權。最后,醫生需要通過不斷學習和提高,在使用ChatGPT技術時保持謹慎和審慎態度,尊重患者權益和隱私。只有這樣才能最大程度地減少ChatGPT在醫學倫理方面可能帶來的風險和挑戰,并更好地服務于患者的健康需求[14]。
在醫學倫理風險防范背景下,基本知識培訓已經成為技術開發人員必不可少的一部分。只有具備了相應的知識與技能,實現從無知到有知的轉變,才能使ChatGPT在醫學倫理領域下發揮最大效益。
引導輿論關注ChatGPT的方法風險非常重要。方法風險主要指由于ChatGPT提供的信息不當或錯誤而導致醫療行為出現問題。例如,如果ChatGPT給出的診斷結果不準確或建議不合理,可能會導致患者接受不必要的治療或延誤病情。這種風險對于患者的身心健康和醫療行業的信譽都會造成很大影響。比起被動接受這種風險,我們更需要通過引導輿論主動出擊。
在引導輿論關注ChatGPT的方法風險時,需要采取一系列有效措施加以防范和解決。首先,需要加強數據監管,確保ChatGPT所使用的數據來源準確可靠;其次,需要挑選優秀開發團隊,并規范運營過程,確保ChatGPT的質量和準確性;同時,在使用ChatGPT時需要注意遵守相關法律法規和倫理規范,尊重患者的知情權、選擇權和隱私權。
除此之外,定期檢查聊天記錄并加強反饋機制也是非常重要的措施。通過對聊天記錄進行檢查和分析,可以及時發現ChatGPT的問題并進行修正和改進;同時,加強用戶反饋評價系統,了解患者的意見和建議,并按照實際情況進行調整和改善,可以有效降低方法風險。
此外,應該注意到技術利維坦的問題。技術利維坦指由于技術的發展和掌握者的壟斷而導致社會、政治、文化等方面出現失衡的風險。在ChatGPT的開發和使用中,如果開發團隊或管理者利用其技術壟斷地位追求自身利益而忽略了患者的健康和權益,就會產生技術利維坦的問題。因此,在引導輿論關注ChatGPT時,需要建立公正、透明、規范的管理機制,監督ChatGPT開發和使用過程中是否存在利益沖突、權力濫用等問題;同時要加強對ChatGPT的宣傳和教育,提高公眾的科技素養,增強對AI醫療技術的理性認知和正確使用能力。只有這樣才能防止技術利維坦現象對人類造成不可逆轉的影響[15]。
由此可知,在醫學領域使用ChatGPT需要考慮到方法風險,并采取一系列措施進行防范和解決,實現由被動變主動的轉變。只有這樣,才能更好地保障患者的利益和安全,推動醫療行業向更高層次發展。
ChatGPT算法模型優化及驗證標準提高是非常重要的。這個問題涉及了醫學倫理、數據隱私保護、技術創新等方面。在此之前因為研究較少,這是相對無界限的。而為了保證研究的合法性和可靠性,ChatGPT算法模型必須具備優化和驗證標準以實現有界。針對當前的問題,可以從以下幾個方面進行分析:
首先,在技術創新方面,可以通過改進算法模型的深度學習機制和優化計算效率來提高其精度和效率。例如,使用遷移學習或元學習等方法對ChatGPT進行訓練和優化。
其次,在數據隱私保護方面,需要采取相應的安全措施來保護用戶信息不被泄露或濫用。這些措施包括數據加密、身份認證、訪問控制等。
再次,也需要注意到ChatGPT算法模型對社會和人類福祉的影響。在開發算法模型時應該做好充分的倫理和社會學調查,并從技術和社會層面推進ChatGPT算法模型優化與驗證標準提高工作。重點關注醫學倫理、隱私保護、數據準確性等方面,確保ChatGPT算法模型能夠真正成為負責任、有益和以人為本的大型語言模型(Human-centered LLM),造福人類[16]。
最后,在評估驗證標準方面,需要確立一套統一的評價指標體系,以確保ChatGPT能夠在真實場景中正確解決醫學倫理問題,并依據實際應用需求不斷完善和優化。
ChatGPT算法模型優化及驗證標準提高是一項具有挑戰性的工作,需要各方共同努力,綜合運用技術手段和管理方法,不斷探索和創新。實現由無界變有界的轉變,最終促成醫療行業的進步。
ChatGPT技術的應用需要多方共同合作和數據治理,注重共同合作模式的技術創新和治理,而不是單一組織機構的相關規范。這是由于ChatGPT技術對醫學倫理問題的解決具有重要意義,同時它也面臨著一系列技術挑戰和社會風險。
首先,ChatGPT技術的應用需要多方合作。這涉及醫院、科研機構、企業、政府等各方面的參與。針對不同領域和應用場景,需要充分發揮各方專業性優勢,共同制定數據開放標準、隱私保護規范、算法平臺等規范和標準。
其次,在數據治理方面也需要充分發揮其作用。數據治理包括了數據收集、存儲、加工和傳輸等全鏈路漏洞治理,在其中高強度的安全措施是必須要保證不泄露用戶隱私信息以及保護數據不被惡意利用。
另外,對于ChatGPT技術的優化和完善,還需要注重技術創新與治理。這包括了算法模型改進、計算資源優化、用戶體驗提升等各方面。同時,合理制定數據采集、分析和利用的規則和標準,充分保障用戶權益。
在這個過程中,相關企業應當成立行業協會,并積極發布行業技術指南。行業協會可以扮演重要的推動角色,促進ChatGPT技術的應用和發展,并引領行業規范化建設進程。同時,行業協會也需要與政府部門、學術機構等各方面合作,共同探討對于ChatGPT技術的監管與管理策略。
因此,在開展ChatGPT技術的相關工作時,建議各方秉持負責任、合作共贏、以人為本等理念,全力保障技術應用安全可靠,實現由單一變多元的轉變,并確保更好地造福人類[17]。
人們需要加強對于ChatGPT所帶來的更深層次的醫學倫理問題的研究,并注重促進倫理法律制度的完善。在這個過程中,人們需要從多個方面入手:
第一,對ChatGPT聊天內容中可能涉及的醫學倫理問題進行深入研究,同時,考慮未來可能出現的新問題,并積極尋求解決方案。
第二,在加強對醫學倫理問題的研究過程中要考慮多方關系,并確保相關研究成果符合公共利益和社會價值標準。同時,還需注重道德倫理規范,在聊天服務中要遵循醫學倫理準則和擔負起相應的社會責任。在這個過程中,要堅持以人為本的理念,強調人的主觀能動性。我們需要建立從技術開發端到應用端的全過程倫理風險審查規則,以確保ChatGPT技術在醫療領域應用時的公正、合法和安全[18]。
第三,需要進一步增強社會大眾的倫理意識和法律意識,使其能夠更好地支持ChatGPT與其他人工智能技術的發展,實現由淺層到深處的轉變,從而共同推動醫學健康領域的進步。
ChatGPT作為一種新型醫學輔助工具,雖然在提供咨詢服務、協助醫生進行診斷和治療決策等方面有著巨大的潛力,但同時也帶來了一些醫學倫理問題。這些問題涉及ChatGPT本身的功能和性能,以及整個醫療系統的運作機制和法律依據。因此,需要加強對于ChatGPT所帶來的醫學倫理問題的解決方案,尤其要注重法規監管及標準化建設,以改進其混沌無序的現狀。
在法規監管方面,需要建立健全完善的法規框架以確保ChatGPT工具在醫療領域得到正常合理的使用并且符合倫理標準。首先,需要完善相關法律法規,明確ChatGPT使用范圍、技術要求、職責與義務等,并將其納入國家監管體系中進行管理。同時,在ChatGPT開發、使用、維護等各個環節都應該遵守相關法律法規要求,并對違反規定的行為實施懲戒。
除了法規建設外,在標準化建設方面也需要采取相應措施來加強ChatGPT的醫學倫理問題解決。需要制定相關標準和規范,確保ChatGPT的開發、應用和管理程序符合道德和法律要求。具體而言,可以建立一套ChatGPT安全與倫理評估體系,包括對聊天內容、數據隱私、信息安全等方面的評估標準及方法,并將其物化為可供執行參照的法規和行業標準。同時,還需要建立全方位的合規監督機制,對ChatGPT的使用情況進行監督和評估,并對其應用效果、安全性等方面進行監測和分析。這樣可以及時識別和解決醫學倫理問題,并有效預防和控制風險。在未來的發展中,還需要加強國際合作與經驗分享,推動全球醫學倫理標準的統一和協調。只有在建立嚴格的法規標準體系,并依靠法律法規來確立生成式人工智能在醫學領域發展應用的邊界時,我們才能夠讓這項技術真正地造福于人類,并更好地推動醫療健康事業的發展[19]。
此外,在實踐運用方面也需要加強對ChatGPT所涉及的倫理問題的專業評估,并建立反饋機制。醫生在使用ChatGPT時應該被告知其輔助作用,以及在聊天過程中如何遵守患者隱私和信息保護等要求。并且需要建立起專業團隊對可能出現的醫學倫理問題進行監測和調查,并及時反饋給相關機構和社會公眾。正如華佗GPT的研究院所主張的:在制度建設方面,研究院將積極建立應用準入制度、監管制度、倫理評估制度等,以保證其醫療業務能夠穩定、安全、有序地運行。
可見,加強對于ChatGPT所帶來的醫學倫理問題的解決方案,尤其是加強法規監管和標準化建設,有利于推進ChatGPT在醫學領域的應用,實現由混亂到有序的轉變,并為維護公共利益、提高醫療質量、促進人類健康作出應有的貢獻。