從生成式AI到負責任AI 以法律角度談AI的自律與他律
當ChatGPT 熱潮以雷霆萬鈞之勢橫掃全球之際,也產生了一個嚴肅的課題。那就是伴隨 AI 運用而產生的各種違法、侵權或不當的行為,到底應該要由誰負責以及應如何規範。其中的一個關鍵問題,就是是否仍由業者透過負責任 AI (Responsible AI, RAI) 的自律方式處理,還是應該由他律的法律層面加入因應,是這波 AI 熱潮下待解決的重要議題。
從 AI 這一觀念誕生以來,人們就對 AI 充滿各種幻想,也擔心 AI 發展的可能威脅。在ChatGPT 引領的熱潮下,生成式 AI 的進展一舉突破過往,甚至在 GPT- 4 和 Google PaLM 2 等新一代大型語言模型的助攻下,正朝著通用人工智慧 (AGI) 的目標邁進。隨著生成式 AI 的技術進展,人們從對 ChatGPT 從最初的擔心(被用來寫報告或論文),逐漸變成擔憂這些新興的 AI工具是否會誤導人類、傳播虛假訊息、侵犯隱私權或智財權、取代部分人類的工作、甚至被用於影響選舉結果。AI 可能導致的各種問題已開始受到各方的關注,國際間甚至出現暫緩 AI 發展的呼聲及行動,這使得原本僅存在企業界層面、屬於自律功能的負責任 AI,提昇到國家、甚至國際的層次,蛻變為法律所強制要求的 AI應負責任,問題是 AI 要如何負責呢?
負責任AI的自律展現
所謂負責任 AI,是一個對機器學習服務的深刻思考,認為各種組織在發展機器學習服務時,應重視服務對象的個體性與特殊性。根據微軟的見解,負責任 AI 是一種以安全、可靠和合乎道德的方式開發、評估和部署 AI 系統的方法,並尊重公平性、可靠性和透明度等持久價值觀。
Google 雖然最初並未使用這一名詞,但其所採行的「AI 最佳推薦實踐 (Recommended best practices for AI)」則認為在設計 AI 系統時應遵循軟體開發最佳做法,並且採用「以人為本」的方法運用機器學習技術,考慮公平性 (Fairness)、可解釋性 (Interpretability)、隱私權 (Privacy)、安全性 (Security) 等基本原則。而 Google 在 2018 年推出此 AI 原則後,TensorFlow 等團隊都依該原則發展產品,也推出負責任 AI 的工具和技巧,成為負責任 AI 的重要推手。
但是這種存在於企業層面的負責任 AI 自律原則,在生成式 AI 的推波助瀾之下,已無法因應 AI 發展所產生的各種問題,導致各界對 AI加以監管的聲量不斷的擴大,各國逐漸開始以法律方式介入,也讓負責任 AI 的自律原則面臨重大的挑戰。
暫緩AI發展的聲浪湧現
首先,由人工智慧和數位政策中心 (CAIDP)在 2023 年 3 月透過公開信以及向美國聯邦貿易委員會 (FTC) 投訴等方式,呼籲 FTC 採行措施暫停先進 AI 實驗和使用。
更受矚目的,則是由未來生命研究所 (FLI)提出的暫緩 AI 發展公開信。該信以 AI 可能會對社會及人類帶來潛在風險為由,呼籲暫緩發展比 GPT-4 更先進的 AI 技術 6 個月,直到獨立專家發展出共通的安全規範並加以實施。這封公開信吸引了特斯拉創辦人馬斯克、蘋果共同創辦人 Steve Wozniak 等千人參與連署,後續有越來越多的人士簽署這封公開信,截至 2023年 5 月 18 日,全球已經超過 27,500 人連署。
就連開發 AI 的學者專家,也對未受規範的AI 發展感到憂慮。像是被尊稱為「AI 教父」的人工智慧專家 Geoffrey Hinton,他認為生成式AI 有著難以預先控管的可能性升高。企業為了在技術上取得領先地位,恐怕會放寬相應的規範與限制,若政府機構、管理單位及科技業者自身都尚未準備好相應規範與有效控制辦法,恐怕會使得 AI 出現更多不可控的情事,甚至影響倫理道德。
出乎意料的是,就連開發 ChatGPT、引爆這一波 AI 熱潮的 OpenAI 執行長 Altman 也在5 月中於美國參議院作證時表示,「隨著 AI 科技的進步,我們明白世人對 AI 將如何改變我們的生活方式感到焦慮。我們也有同感。」他也認為,「如果這項科技出了問題,可能會非常糟糕 」。為此,他建議成立一個美國或全球監管機構,為強大的 AI 系統頒發許可證,以阻止 AI模型「狂妄的自我複製和自我滲透」,並有權「取消許可及確保符合安全標準」。
然而,就在各方對 AI 表達關切之際,微軟又丟出一顆震撼彈。根據《紐約時報》5 月17 日的報導,微軟 AI 研究團隊在 1 篇長達 155頁的論文《人工通用智慧的火花》中,證明GPT-4 展示出對人類概念和技能的理解能力,是向通用人工智慧 (AGI) 邁出的重要一步。這說明了縱使有各方的呼籲,但是仍無法對 AI 技術的快速發展造成阻礙。
為何對AI加以監管的聲量在增加?
雖然國際間已有呼籲聲浪,但是對 AI 加以監管舉措的國家仍然有限,也有許多人認為 AI尚未達到 AGI(或稱強 AI),也不具有感知與行動能力,因此不需要對正在發展中的 AI 技術加以監管。不過這並不表示 AI 不會對人類的社會與文明構成威脅,主要的原因就在於,快速發展的生成式 AI 已經具有自我學習與自我修正的能力,這些能力甚至超過 AI 系統開發人員的預期。
此外,新的 AI 已經能夠掌控語言,並透過和人類不斷的對話及互動,而使人類對 AI 產生信任關係,進而影響到人類的意見與想法。由於語言是人類最重要的溝通與創作工具,透過對語言的掌握,AI 等於取得一把打開人類精神世界的鑰匙,透過對語言的運用並取得人類的信任,可能會對人類的經濟、社會、文化、科技、宗教、甚至政治造成影響,而其影響力甚至會超越現有的各種社群媒體平台。
需要對 AI 加以適當監管的另一個原因,就在於 AI 和傳統媒體或傳播工具的差別。傳統的媒體或工具只能傳遞和散佈人類所創作的資訊或創作,並不能自行創作新的資訊加以散播,但是 AI 卻擁有自行創作的能力,甚至具有創作出一種新文化的可能。
既然 AI 有這麼強大的影響力與功能,卻可以在沒有經過任何政府機關審核與監管的情形之下,不斷的推陳出新、甚至自行公開上市,也凸顯出各國對 AI 監管方面出現的問題。這些問題的出現,使得原本僅存在於企業自律層面的負責任 AI 原則開始受到各國的關切,甚至已有部分國家試圖將此種原則提昇到法律的他律層面,其中最積極的就屬歐盟,特別針對 AI 規劃了一個完整的監管架構,也賦予負責任 AI 一個嶄新的意義。
從 AI 這一觀念誕生以來,人們就對 AI 充滿各種幻想,也擔心 AI 發展的可能威脅。在ChatGPT 引領的熱潮下,生成式 AI 的進展一舉突破過往,甚至在 GPT- 4 和 Google PaLM 2 等新一代大型語言模型的助攻下,正朝著通用人工智慧 (AGI) 的目標邁進。隨著生成式 AI 的技術進展,人們從對 ChatGPT 從最初的擔心(被用來寫報告或論文),逐漸變成擔憂這些新興的 AI工具是否會誤導人類、傳播虛假訊息、侵犯隱私權或智財權、取代部分人類的工作、甚至被用於影響選舉結果。AI 可能導致的各種問題已開始受到各方的關注,國際間甚至出現暫緩 AI 發展的呼聲及行動,這使得原本僅存在企業界層面、屬於自律功能的負責任 AI,提昇到國家、甚至國際的層次,蛻變為法律所強制要求的 AI應負責任,問題是 AI 要如何負責呢?
負責任AI的自律展現
所謂負責任 AI,是一個對機器學習服務的深刻思考,認為各種組織在發展機器學習服務時,應重視服務對象的個體性與特殊性。根據微軟的見解,負責任 AI 是一種以安全、可靠和合乎道德的方式開發、評估和部署 AI 系統的方法,並尊重公平性、可靠性和透明度等持久價值觀。
Google 雖然最初並未使用這一名詞,但其所採行的「AI 最佳推薦實踐 (Recommended best practices for AI)」則認為在設計 AI 系統時應遵循軟體開發最佳做法,並且採用「以人為本」的方法運用機器學習技術,考慮公平性 (Fairness)、可解釋性 (Interpretability)、隱私權 (Privacy)、安全性 (Security) 等基本原則。而 Google 在 2018 年推出此 AI 原則後,TensorFlow 等團隊都依該原則發展產品,也推出負責任 AI 的工具和技巧,成為負責任 AI 的重要推手。
但是這種存在於企業層面的負責任 AI 自律原則,在生成式 AI 的推波助瀾之下,已無法因應 AI 發展所產生的各種問題,導致各界對 AI加以監管的聲量不斷的擴大,各國逐漸開始以法律方式介入,也讓負責任 AI 的自律原則面臨重大的挑戰。
暫緩AI發展的聲浪湧現
首先,由人工智慧和數位政策中心 (CAIDP)在 2023 年 3 月透過公開信以及向美國聯邦貿易委員會 (FTC) 投訴等方式,呼籲 FTC 採行措施暫停先進 AI 實驗和使用。
更受矚目的,則是由未來生命研究所 (FLI)提出的暫緩 AI 發展公開信。該信以 AI 可能會對社會及人類帶來潛在風險為由,呼籲暫緩發展比 GPT-4 更先進的 AI 技術 6 個月,直到獨立專家發展出共通的安全規範並加以實施。這封公開信吸引了特斯拉創辦人馬斯克、蘋果共同創辦人 Steve Wozniak 等千人參與連署,後續有越來越多的人士簽署這封公開信,截至 2023年 5 月 18 日,全球已經超過 27,500 人連署。
就連開發 AI 的學者專家,也對未受規範的AI 發展感到憂慮。像是被尊稱為「AI 教父」的人工智慧專家 Geoffrey Hinton,他認為生成式AI 有著難以預先控管的可能性升高。企業為了在技術上取得領先地位,恐怕會放寬相應的規範與限制,若政府機構、管理單位及科技業者自身都尚未準備好相應規範與有效控制辦法,恐怕會使得 AI 出現更多不可控的情事,甚至影響倫理道德。
出乎意料的是,就連開發 ChatGPT、引爆這一波 AI 熱潮的 OpenAI 執行長 Altman 也在5 月中於美國參議院作證時表示,「隨著 AI 科技的進步,我們明白世人對 AI 將如何改變我們的生活方式感到焦慮。我們也有同感。」他也認為,「如果這項科技出了問題,可能會非常糟糕 」。為此,他建議成立一個美國或全球監管機構,為強大的 AI 系統頒發許可證,以阻止 AI模型「狂妄的自我複製和自我滲透」,並有權「取消許可及確保符合安全標準」。
然而,就在各方對 AI 表達關切之際,微軟又丟出一顆震撼彈。根據《紐約時報》5 月17 日的報導,微軟 AI 研究團隊在 1 篇長達 155頁的論文《人工通用智慧的火花》中,證明GPT-4 展示出對人類概念和技能的理解能力,是向通用人工智慧 (AGI) 邁出的重要一步。這說明了縱使有各方的呼籲,但是仍無法對 AI 技術的快速發展造成阻礙。
為何對AI加以監管的聲量在增加?
雖然國際間已有呼籲聲浪,但是對 AI 加以監管舉措的國家仍然有限,也有許多人認為 AI尚未達到 AGI(或稱強 AI),也不具有感知與行動能力,因此不需要對正在發展中的 AI 技術加以監管。不過這並不表示 AI 不會對人類的社會與文明構成威脅,主要的原因就在於,快速發展的生成式 AI 已經具有自我學習與自我修正的能力,這些能力甚至超過 AI 系統開發人員的預期。
此外,新的 AI 已經能夠掌控語言,並透過和人類不斷的對話及互動,而使人類對 AI 產生信任關係,進而影響到人類的意見與想法。由於語言是人類最重要的溝通與創作工具,透過對語言的掌握,AI 等於取得一把打開人類精神世界的鑰匙,透過對語言的運用並取得人類的信任,可能會對人類的經濟、社會、文化、科技、宗教、甚至政治造成影響,而其影響力甚至會超越現有的各種社群媒體平台。
需要對 AI 加以適當監管的另一個原因,就在於 AI 和傳統媒體或傳播工具的差別。傳統的媒體或工具只能傳遞和散佈人類所創作的資訊或創作,並不能自行創作新的資訊加以散播,但是 AI 卻擁有自行創作的能力,甚至具有創作出一種新文化的可能。
既然 AI 有這麼強大的影響力與功能,卻可以在沒有經過任何政府機關審核與監管的情形之下,不斷的推陳出新、甚至自行公開上市,也凸顯出各國對 AI 監管方面出現的問題。這些問題的出現,使得原本僅存在於企業自律層面的負責任 AI 原則開始受到各國的關切,甚至已有部分國家試圖將此種原則提昇到法律的他律層面,其中最積極的就屬歐盟,特別針對 AI 規劃了一個完整的監管架構,也賦予負責任 AI 一個嶄新的意義。