AI有醫療責任? 法學家:初期規範不一

人工智慧也要負擔醫療責任?隨著人工智慧在醫學臨床蓬勃發展,一項人工智慧高峰會報告指出,目前仍缺乏對人工智慧的有效性測試,未來發生醫療糾紛時,恐難以確認問責制度。法學家指出,法律應規範人工智慧的醫療責任,但立法初期可能出現規範不一致的現象。



醫療問責制度

衛報》報導,人工智慧在醫學臨床蓬勃發展,包括解讀掃描結果的演算法以及輔助診斷的設備,甚至協助從優化床位容量到處理供應鏈的醫院管理。然而,一項人工智慧高峰會報告指出,目前仍缺乏對人工智慧的有效性測試,未來發生醫療糾紛時,恐難以確認問責制度。



哈佛大學法學院教授科恩表示,患者可能難以證明人工智慧產品的使用設計有缺陷,不論是取得人工智慧運作原理的資訊,或是提出人工智慧造成不良後果。隨著人工智慧應用更普及,匹茲堡大學健康科學教授安格斯也認為,當人們認為事情出了問題,就會四處尋找責任。



另外,人工智慧的評估方式也存在缺陷,由於許多人工智慧設備不在美國食品藥物管理局 (FDA) 等監管機構的權責範圍內,而人工智慧設備需要在臨床中才能進行全面評估,不僅成本昂貴更是流程繁瑣。



人工智慧法律問題

HTWorld》報導,儘管專家承認人工智慧可以為醫療保健帶來巨大好處,但報告強調,隨著人工智慧在臨床環境中的應用不斷擴大,必須解決這些法律和監管挑戰。



史丹佛法學院教授梅洛指出,法院有能力解決人工智慧的法律問題,除了時間成本之外,在立法初期可能出現規範不一致的現象,甚至會增加人工智慧從創新到應用的參與者成本。

Google新聞-PChome Online新聞


最新生活新聞
人氣生活新聞
行動版 電腦版