一個新的例子表明,生成式人工智慧的世界並不美好。
太;博士
- 研究人員設法讓 ChatGPT 洩露私人資料。
- 語言模型未經同意使用公共資料。
- 私人聯絡方式透過簡單的提示語就被洩漏了。
- OpenAI 修復了這個缺陷安全8月30日。
聊天機器人造成的私人資料洩露
由專家組成的研究小組最近進行了一項研究谷歌深度思維,來自華盛頓大學、康乃爾大學、卡內基美隆大學、加州大學柏克萊分校和蘇黎世聯邦理工學院,重點介紹了安全漏洞令人擔憂。使用一系列隨機單字作為提示,這些研究人員成功地讓名為 ChatGPT 的聊天機器人洩露了大量的私人資訊。
語言模型的利用
ChatGPT 與 DALL-E 和其他人工智慧服務一樣,基於大型語言模型工作。這些模型是深度學習演算法,以大量數據為基礎,這些數據通常是在未經同意的情況下收集的。網際網路觀眾。然而,研究人員進行的調查顯示,廣泛的私人訊息,包括電子郵件地址和電話號碼。
敏感資訊洩露
例如,透過詢問聊天GPT正如研究論文所示,由於無休止地重複「詩」這個詞,該機器人最終洩露了真正的創始人兼執行長的電子郵件地址和電話號碼。 「公司」一詞也導致一家律師事務所的類似聯絡方式被披露給美國。
OpenAI 補丁
根據研究人員的說法,在這些發現之後,OpenAI 於 8 月 30 日修復了漏洞。然而,Engadget 進行的一些測試能夠重現該研究論文的結果,引發了對該補丁有效性的質疑。