OpenAI組建團隊統治超級人工智慧

OpenAI 組建團隊統治超級人工智慧。想要隱藏當前問題的好主意。

開放人工智慧成立專門的團隊來嘗試管理超級人工智慧的風險。超級智慧是一種假設的人工智慧模型,它比最有才華、最聰明的人類還要聰明,在許多專業領域表現出色,而不是像前幾代模型那樣只在單一領域表現出色。

開放人工智慧相信這樣的模型可以在本世紀末看到曙光。 「超級智慧將是人類發明的最具影響力的技術,它可以幫助我們解決世界上許多非常重要的問題,」「利潤上限」組織表示。 「但超級智慧的巨大力量也可能非常危險,導致人類喪失自主權,甚至滅絕。 »

這個新團隊將由 OpenAI 科學總監 Ilya Sutskever 和對齊主管 Jan Leike 共同領導。此外,OpenAI 解釋說,它希望將當前運算能力的 20% 用於該計劃,目的是開發自動對齊查找器。從理論上講,這樣的系統將有助於 OpenAI 確保超級智慧仍然可以安全使用並符合人類價值。 OpenAI 表示:“雖然這是一個極其雄心勃勃的目標,我們無法保證實現它,但我們樂觀地認為,透過集中一致的努力可以解決這個問題。” 「有許多想法在初步實驗中顯示出了希望,我們有非常有用的指標來量化我們的進展,我們可以使用今天的模型來實證研究其中許多問題。 » 實驗室補充說,它將在一段時間內分享更精確的路線圖。

想要隱藏當前問題的好主意

這項消息發布之際,全球各國政府正考慮如何監管蓬勃發展的人工智慧產業。到美國近幾個月來,OpenAI 執行長 Sam Altman 會見了 100 多名聯邦議員。他公開宣稱,對人工智慧的監管是“必要的”,並且 OpenAI “渴望”與他們合作。但我們應該對此類說法和 OpenAI 的 Superalignment 團隊等措施保持懷疑。透過將公眾的注意力集中在可能永遠不會出現的風險上,OpenAI 等組織將監管負擔轉移到以後,當它成為現在的問題時。圍繞著工作,人工智慧還有很多工作要做,虛假資訊、版權管理。而且必須現在就做,而不是將來。