OpenAI的防堵災難計畫



草根影響力新視野(琪拉編譯)

OpenAI公司已經擬定了計畫,避免他們正在研發的強大人工智慧未來會有最危險的狀況發生。這間研發了強大聊天機器人ChatGPT的公司,這禮拜也推出了一份長達二十七頁的[預先準備框架]的文件,指出了公司會如何追蹤、評估、與預測因為他們的人工智慧模型可能引發的[大災難]的發生。

可能的風險範圍包括人類可能借用人工智慧模型創造大規模網路安全破壞,到協助製造生物、化學或核能武器等都有。另外,OpenAI表示,公司領導層擁有是否發布新AI模型的決策權,但其董事會擁有最終決定權,並擁有原本公司領導層決定的權利。

但即使在董事會否決有潛在風險的人工智慧模型之前,該公司也表示,它必須事先通過許多安全檢查。一個專門的「準備」團隊將領導多管齊下的工作,以監控和減輕 OpenAI 先進人工智慧模型的潛在風險。

麻省理工學院教授 Aleksander Madry 負責領導這家新創公司的準備團隊。他將監督一組研究人員,負責評估和密切監控潛在風險,並將這些不同的風險整合到記分卡中。這些記分卡在某種程度上將某些風險分類為「低」、「中」、「高」或「嚴重」。




圖片取自:(示意圖123rf)


準備框架指出,只有得分為[中]或以下的模型才能開始研發,並且只有得分為[高]或以下的模型才能進一步開發。該公司表示,該文件目前仍處於「測試版」階段,預計將根據回饋定期更新。

該框架讓人們再次關注這家強大的人工智慧新創公司不尋常的治理結構,上個月公司爆發事件後,該公司的董事會進行了徹底改革,導致首席執行官薩姆·奧爾特曼(Sam Altman)被趕下台,然後在短短五天內又重新上任。這部備受關注的企業大戲在奧特曼回歸後引發了新的問題:奧特曼在這間公司的權力,以及董事會對他,以及對他的領導團隊的限制。

OpenAI 表示,目前的董事會是最初的階段,並且正在組建過程中,由三名富有的白人組成,他們肩負著確保 OpenAI 最先進的技術完成造福全人類的使命的艱鉅任務。

不過這個臨時董事會因為缺乏多元化受到了廣泛的批評。一些批評者也擔心,依靠公司的自我監管是不夠的,立法者需要採取更多措施來確保人工智慧工具的安全開發和部署。

資料來源:https://edition.cnn.com

[不許轉載、公開播送或公開傳輸]


最新科技新聞
人氣科技新聞
行動版 電腦版