Meta 在首次人工智慧安全評估中慘遭失敗,而其他公司則勉強通過平均水平。
太;博士
- 人工智慧監管是必要的,必須加強。
- 的索引為安全AI評估大型AI實驗室的責任。
- 結果令人震驚,存在著巨大的安全差距。
需要加強對人工智慧的監管
面對令人眼花撩亂的演變人工智慧,很明顯,我們需要實施適當的監督。當然,許多人工智慧實驗室對監管持開放態度,並授權在其模型發布之前對其模型進行獨立評估。然而,考慮到所面臨的問題,這些努力似乎還不夠。
評估工具:AI安全指數
The Future of Life 開發了一個晴雨表來評估不同的人工智慧實驗室,包括 OpenAI、Meta、Anthropic 和 xAI馬斯克。 AI安全指數是基於42項「負責任行為」指標的獨立審查。每家公司都會根據這些指標進行評級。不幸的是,有些公司,例如開發人工智慧模型的 Meta開源透過他的駱駝家族,獲得了最低的分數,「F」。
關於結果和迫切需要改進
這項獨立評估的初步結果令人震驚。該研究發現“安全措施存在重大差距,迫切需要加強問責制。”接受評估的公司包括 Anthropic、Google DeepMind、Meta、開放人工智慧、x.AI和智普AI。如果 Meta 處於最低水平,那麼 Anthropic 則名列前茅,但只有「C」級。
所有旗艦機型都被發現“容易受到對手的攻擊”,存在潛在的不安全性和逃離人類控制的風險。報告強調,在缺乏獨立監督的情況下,公司無法抗拒將利潤置於安全之上的誘惑。
綜上所述,迫切需要在新興的人工智慧產業中加強監督和問責,以免為時已晚。模型越強大,風險越大。