OpenAI自爆GPT-4o存在中等風險 AI潛在威脅不可忽視

火報記者 陳銳/報導



在人工智能領域中,OpenAI一直是技術創新的先驅,然而,隨著技術的進步,潛在風險也逐漸浮現。近期(8日),OpenAI發布了一份關於「GPT-4o系統卡」引起廣泛關注的報告,揭示了其最新AI模型——GPT-4o的風險評估結果。這份報告不僅反映了GPT-4o在多個關鍵領域的表現,還首次公開了其存在的潛在危險。



報告中詳細披露了在該模型正式推出之前所進行的各種安全措施及風險評估的結果。報告展示了GPT-4o在多個風險領域的表現,包括「網絡安全」、「生物威脅」和「模型自主性」。在這些方面,GPT-4o的風險均被評定為「低」。然而,在「說服能力」這個項目中,GPT-4o的風險則被標註為「中等」。



OpenAI自爆GPT-4o存在中等風險 AI潛在威脅不可忽視
根據OpenAI的規定,只有那些風險評級在「高風險」或以下的模型才會繼續開發。圖片來源:Copilot繪製


綜合各項風險評估後,最終的結果顯示,由於風險評級是依據最高風險項目來做整體評估,GPT-4o整體被評為「中等風險」。根據OpenAI的規定,只有那些風險評級在「高風險」或以下的模型才會繼續開發,而僅有評級為「中等」或更低風險的模型才會考慮投入部署。



此外,報告中還提到了GPT-4o可能帶來的潛在問題,這些問題包括未經授權模仿他人聲音、生成受版權保護的內容、主動識別說話者、進行無依據的推論或針對敏感特徵進行歸因,甚至有可能產生不適當的色情或暴力言論。為了防止這些風險,OpenAI提出了若干防範措施,如限制模型僅能使用經過審核的聲音素材、通過後期訓練使模型僅能識別特定類型的人物、並使用分類器和審查工具來阻止不當內容的生成。



報告中的另一個重點議題是關於GPT-4o的擬人化風險。報告指出,由於GPT-4o具有高度擬人化的聲音和語調,這可能導致用戶對人工智能產生情感依賴。這種依賴可能干擾用戶的正常社交生活。在早期測試中,已有用戶在與GPT-4o互動時表現出情感聯繫,例如使用「這是我們最後一天在一起」這樣的語句。儘管這種情感依賴對於孤獨的用戶可能有一定的慰藉作用,但從長遠來看,它可能對心理健康和社會規範產生潛在的負面影響,因此需要進一步研究這一問題。


這篇文章 OpenAI自爆GPT-4o存在中等風險 AI潛在威脅不可忽視 最早出現於 火報



最新社會新聞
人氣社會新聞
行動版 電腦版