Anthropic、Google、微軟和 OpenAI 組成人工智慧安全小組

Anthropic、Google、微軟和 OpenAI 組成了一個致力於人工智慧安全的組織。是時候開始行動了。

的發展已不是什麼秘密IA引入了大量的風險安全。雖然政府正在努力建立法律框架,但目前需要企業自己採取預防措施。這種監督的最新例子值得讚揚的是 Anthropic,Google,微軟和 OpenAI,的創建前沿模型論壇,專注於人工智慧安全開發的實體。她將前沿模型定義為超越當前能力並具有擴展能力範圍的「大規模機器學習模型」。

論壇希望成立一個諮詢委員會、一份章程和一個投資基金。他已經建立了四個主要支柱,並希望專注於改進人工智慧安全研究,實施最佳實踐,與監管機構、研究人員、平民和企業密切合作,並鼓勵努力設計“可以幫助克服我們社會最大挑戰”的人工智慧。

其成員將在未來幾個月內致力於實現前三個目標。而且,能夠加入這個前沿模型論壇,有必要製作邊界模型,並表現出確保邊界安全的明確願望。 「至關重要的是,人工智慧公司,特別是那些致力於最強大模型的公司,必須在可接受的安全實踐上協調一致並共同前進,以確保強大的人工智慧工具能夠帶來最大的好處,」全球副總裁Anna Makanju 說。開放人工智慧,在新聞稿中。 「這是一項緊迫的工作,這個論壇完全有能力在人工智慧安全問題上迅速採取行動並取得進展。 »

是時候開始了

該論壇的創建是在白宮與人工智慧領導人(包括負責這項新舉措的領導人)最近達成安全協議之後成立的。在已經討論和決定的安全措施中,包括對外部專家的濫用行為進行測試以及引入水印在人工智慧創建的內容中。