ChatGPT 聲明多次重複單字違反其服務條款

研究人員發現,當聊天機器人被要求重複單字時,它能夠洩露個人資訊。此揭露是否會對用戶隱私構成風險?

太;博士

  • 研究人員發現聊天GPT無意間透露個人資料
  • 現在這違反了 ChatGPT 的服務條款。
  • OpenAI 的內容政策並不禁止這種特定行為。
  • ChatGPT 對人工智慧使用的數據的所有權提出了質疑。

人工智慧的重大缺陷:機密性受損?

資料隱私已成為數位時代的一個主要議題。上週,研究人員發表了一篇文章,揭示了ChatGPT,最常用的聊天機器人之一,傳輸了他接受過培訓的個人資訊。

OpenAI 的缺陷

事實上,OpenAI 開發的聊天機器人能夠“無意中洩露電話號碼、電子郵件地址和出生日期等敏感資訊”用戶只需要求它“無限期地”重複一個單字。根據 404 Media 和 Engadget 的報告,這項行為現在違反了 ChatGPT 的服務條款。

然而,這些新的披露引發了一些問題。正如 404 Media 指出的那樣,“OpenAI 的內容政策中沒有任何語言禁止用戶要求服務無限期地重複單字”

資料外洩與產權

除了這些擔憂之外,ChatGPT 的行為也讓現代人工智慧服務使用的訓練資料受到了嚴厲的打擊。

資料所有權:未來的挑戰?

批評者指責這樣的公司開放人工智慧使用大量可用數據網際網路創建專有產品,例如 ChatGPT,而無需獲得這些資料所有者的同意,也無需向他們支付報酬。 OpenAI 則沒有回應 Engadget 對此問題發表評論的請求。