圖片來源: 

WHO

世界衛生組織(World Health Organization,WHO)本周指出,人工智慧(Artificial Intelligence,AI)雖然具有促進人類社會健康及醫療普及的潛力,但是可能存在偏誤(bias),以富國蒐集的資料訓練的AI預測模型,用在經濟較落後的國家上可能會不準確。

本周WHO發布關於《人工智慧用於健康照護的倫理及治理》報告,說明以AI改善世界公共衛生有很大潛力,像是提升診斷和臨床治療、推動醫藥研究及提供疾病監控、疫情回應及醫療系統管理,理論上能縮小窮、富國之間的醫療鴻溝,但AI要為病患或社區居民帶來好處,AI設計及實作上必須將倫理及人權等問題放在最前面。本報告也包含全球20位公衛、醫學、法律、人權、科技及倫理領域的專家,對AI設計及實作提供的5大倫理原則及指引。

WHO報告列出的倫理原則包括,AI應保護人類自主,不傷害人權;促進人類福祉、安全和公共利益;透通,可被用戶及開發人員及主管機關理解;應促進責任及可究責性。最後是AI的包容性及平等,即使各種種族、性別、性傾向、年齡層、收入,及能力的族群都能獲得蒙受AI福祉的權利。

根據包容性及平等原則,WHO點出,AI和其他科技一樣,必須儘可能普及共享、具包容性,顧及經濟、通訊及健康環境的多元性。AI的設計應不只用於高收入國家,建立適合這些高收入地區的使用情境,也應顧及中低收入國家,並且應適用於各種裝置、電信基礎架構及資料傳輸頻寬。AI開發人員因考慮語言的多樣性,以及人民不同通訊能力和技術形態以跨越數位落差,以免產生偏誤(bias)。

WHO相信,以高收入國家人民取得資料來訓練的系統,運用在中、低收入國家人民身上,效果可能會打折扣。例如一個以單一類膚色為資料源建立的皮膚癌病變AI診斷系統,用在有多種膚色的國家社會中,可能無法產生精確的判斷,進而提升這些國家人民的罹癌風險。

WHO建議AI系統的設計、實作和使用應留意此類問題。國家投資及相關的基礎架構支援有助於去除AI系統偏誤。最好能有使用族群參與設計,此外,使用開源軟體,或是將技術開源都有助於擴大參與。

其他議題中,本指引也提及「人類擔保」(human warranty)的概念,例如AI演算法的開發及部署需有病患和臨床醫生等人類的評估,而如果AI科技使用出錯,也應被究責。

科技界也已注意包括藝術生成語音辨識照片剪裁等AI應用,都發生在白人男性中的辨識率優於其他族群,也正致力於發展包容性AI


熱門新聞

Advertisement