(資料圖片)
財聯社5月16日訊(編輯 牛占林)世界衛生組織(WHO)周二警告稱,在醫療保健領域使用人工智能(AI)時要特別謹慎,因為用于決策的數據可能存在偏差或被濫用的風險。
毫無疑問,人工智能應用正在迅速普及,并展示出了一種可能顛覆企業和社會運作方式的趨勢,當然,也有潛力徹底改變醫療保健領域。
人工智能可以,并且在一些富裕國家已經被用于提高疾病診斷和篩查的速度和準確性;協助臨床護理;加強衛生研究和藥物開發,支持多樣化的公共衛生干預措施,如疾病監測、疫情應對和衛生系統管理。
世衛組織指出,對于人工智能的潛力以及應用前景,所有人都充滿了期待,但在實際應用過程中,對于如何將人工智能用于提升醫療信息的獲取、作為決策支持工具和改善診斷方面,目前仍然表示擔憂。
和其他行業一樣,用于訓練人工智能的醫療數據可能存在偏差,并產生誤導性或不準確的診斷信息,甚至這些模型可能被濫用來產生虛假信息。
世衛組織表示,評估使用ChatGPT等人工智能的大語言模型(LLM)的風險是“必要的”,以保護和促進人類福祉,保護公眾健康。
該組織指出,草率采用未經測試的人工智能系統可能會導致醫護人員出錯,對患者造成傷害,削弱對人工智能的信任,從而破壞或延遲此類技術在全球的潛在長期利益和使用。
在致力于利用人工智能和數字健康等新技術改善人類健康的同時,世衛組織建議政策制定者優先確?;颊叩陌踩捅Wo。
世衛組織強調,要確保人工智能符合所有國家公共利益的六項原則:一、保護人類自主性;二,促進人類福祉、安全以及公共利益;三、確保透明度、可解釋性和可理解性;四、促進責任和問責;五、確保包容性和公平性;六、促進負責任和可持續的人工智能。
與此同時,多國醫生和公共衛生專家呼吁,應停止開發通用人工智能,直到對其進行監管為止。他們認為與醫學和醫療保健相關的風險包括人工智能錯誤可能導致患者受傷、數據隱私和安全問題,以及將人工智能用于加劇社會和健康不平等的方式。