研究人員發現,當聊天機器人被要求重複單字時,它能夠洩露個人資訊。此揭露是否會對用戶隱私構成風險?
人工智慧的重大缺陷:機密性受損?
這資料隱私已成為數位時代的一個主要議題。上週,研究人員發表了一篇文章,揭示了ChatGPT,最常用的聊天機器人之一,傳輸了他接受過培訓的個人資訊。
OpenAI 的缺陷
事實上,OpenAI 開發的聊天機器人能夠“無意中洩露電話號碼、電子郵件地址和出生日期等敏感資訊”用戶只需要求它“無限期地”重複一個單字。根據 404 Media 和 Engadget 的報告,這項行為現在違反了 ChatGPT 的服務條款。
然而,這些新的披露引發了一些問題。正如 404 Media 指出的那樣,“OpenAI 的內容政策中沒有任何語言禁止用戶要求服務無限期地重複單字”。
資料外洩與產權
除了這些擔憂之外,ChatGPT 的行為也讓現代人工智慧服務使用的訓練資料受到了嚴厲的打擊。
資料所有權:未來的挑戰?
批評者指責這樣的公司開放人工智慧使用大量可用數據網際網路創建專有產品,例如 ChatGPT,而無需獲得這些資料所有者的同意,也無需向他們支付報酬。 OpenAI 則沒有回應 Engadget 對此問題發表評論的請求。