若要取消訂閱,請要求您的工作區擁有者向 Slack 發送電子郵件。您是否已與您的工作區所有者討論過這種方法?
太;博士
- Slack 在未經明確許可的情況下使用使用者訊息來訓練其機器學習模型。
- 這種做法是預設公開的,並且需要主動取消訂閱過程。
- 儘管存在擔憂,Slack 澄清說,這些數據不是用於生成人工智慧,而是用於頻道和表情符號推薦。
- 這一事實引發了人們對 Slack 隱私權政策及其解釋的質疑。
利用私人資料:常見做法
誰是誰的用戶鬆弛?答案並不像您想像的那麼簡單。事實上,Slack 假定有權在未經事先同意的情況下利用用戶共享的訊息、文件和其他內容來完善其機器學習模型。採取了選擇退出的做法,允許用戶取消訂閱,但預設情況下,他們的私人資料已被使用。就其本身而言,取消訂閱過程還有一些不足之處,因為它要求用戶自行聯絡 Slack 客戶服務以停止對其資料的使用。
本案的諷刺之處在於,Slack 的隱私原則中明確提到了這種做法。至少 DuckBill Group 高管 Corey Quinn 發現了這一點,他在 X 上分享了這一信息(透過 PCMag)。根據這些原則的摘錄(以及他的強調):“為了開發人工智慧/機器學習模型,我們的系統分析客戶數據”,而這正是悖論所在。
對不起,Slack,你他媽的對用戶私訊、訊息、文件等做什麼?我確信我沒有正確地閱讀這篇文章。pic.twitter.com/6ORZNS2RxC
— 科里·奎因 (@QuinnyPig)2024 年 5 月 16 日
為了回應這種前所未有的數據使用引起的各種擔憂,Slack 發表了一篇部落格文章,其中我們可以看到這些數據用於其機器學習模型,用於頻道或表情符號推薦等目的,而不是用於生成人工智慧。該公司聲稱不會在其傳統機器學習模型中使用訊息內容數據,無論是直接訊息、私人還是公共管道。
面對這一切,一個問題出現了:Slack 的隱私權政策和使用者私人資料的使用在多大程度上是透明的?隨著 Slack 繼續推廣其工具,這個問題仍然沒有答案。生成式人工智慧透過確保:「你的數據就是你的數據。我們不會用它來訓練 Slack 的 AI「,同時,它承認使用私人數據來完善其一些機器學習模型。明顯的矛盾,讓人對其保密政策的解釋產生疑問。