吳漢章:醫療創新需要可信賴的AI

今年來生成式AI應用爆發,每個組織的領導者都對如何利用生成式AI躍躍欲試,甚至視為組織數位轉型的最重要策略工作。但也由於生成式AI能力非常強大,世界各國紛紛訂定人工智慧相關法規,促使領導者不能只看提升技術帶來明顯增加生產力的好處,更應該思考利用此項技術時是否也考量到讓生成式AI可信任、符合倫理等。

在健康醫療領域的應用尤其如此,使用生成式AI時,更要考量如何做到保護病患的隱私、如何確保AI的正確性與可靠度等。

生成式AI的核心技術是強大的大語言模型,醫療機構如何控管大語言模型的訓練過程與落地利用則是關鍵。構成大語言模型有3個要素,分別是算法、數據與算力。在算法部分,目前已有具備開放性且可合法商業應用的選擇,如LLaMA 2、BLOOM等,可以讓使用者甚至未來的監管機構能充分評估;在數據部分,由於機構會利用飽讀網路知識的預訓練模型為基礎,加上機構的私有資料優化訓練以求更正確或更能滿足機構所需,過程中須確保利用資料時兼顧隱私與合法合規。

此外,生成式AI在利用階段時,會需要輸入病患的真實數據,所以機構須確保所利用的大語言模型高度可控,不會有洩漏與不當被再利用為訓練資料的情況;最後就是算力,生成式AI不論是訓練階段與利用階段都需要大量的算力,機構也須同時考量算力的可信賴性,例如是否利用雲服務廠商的算力等。

今年6月歐洲議會投票通過了名為《人工智慧法案》的立法草案,這是西方第1部全面的AI法規,美國也已經發布了關於生成式AI的政策藍圖。行政院預計在9月初提出《人工智慧基本法》,在今年開始的AI 2.0行動計畫中,也更著重在可信賴AI的相關工作。

無庸置疑,生成式AI已快速改變這個世界,加速各領域數位轉型以及對AI的廣泛應用,我們應該不只是當ChatGPT 的使用者,更應該嚴肅地面對產業應用中的可信賴AI議題,才能讓整個社會得益於這項近年來影響最大的技術。

資料來源: 財訊 691 期

訂閱活動及行銷 EDM