Meta 和 Microsoft 推出了 Llama 2,這是一種用於商業用途的 AI 語言模型,重點是問責制。
關於 Meta 的人工智慧模型用於商業用途的傳言是真實的。元和微軟聯手推出駱駝2,一個偉大的下一代語言模型(非常籠統)專為商業和研究需求而設計。而這,又強調了責任。開發人員在其上測試了該模型安全並創建了一個透明圖表來詳細說明其潛在問題。他們還提供了負責任的使用指南,甚至還有防止濫用的指南,例如犯罪活動、誤導性陳述和其他垃圾郵件。
元免費提供 Llama 2 的預訓練、對話導向的版本。微軟透過其 Azure AI 目錄提供它們,以與內容過濾等雲端工具一起使用。該工具還可以直接在 Windows PC 上運行,並將透過 Amazon Web Services 和 Hugging Face 等第三方供應商提供。
原來的模型是開源,但保留給學生和研究人員。 Llama 2 讓公司可以根據自己的需求客製化技術,例如聊天機器人和其他影像產生器。理想情況下,這允許企業利用該模型,同時還提供一種檢查可能的偏差、不準確和其他缺陷的方法。開源程式碼在人工智慧領域並不新鮮——穩定性擴散就是一個很好的例子。然而,像 OpenAI 的 GPT-4 這樣的主要競爭對手更願意鎖定他們的程式碼,以優先考慮來自訂閱或授權銷售的收入。人們也擔心駭客或其他惡意者可能會忽略這些開源許可證並將這些工具用於不誠實的目的。
強調責任
就像與GPT-4和 Anthropic 的 Claude 2 一樣,強調負責任的使用並不奇怪。科技業擔心這些大型語言模型正在失控,催生殺手機器人或加速錯誤訊息的傳播。專家和其他技術領導者甚至呼籲暫停實驗六個月,以便開發人員解決這些道德和安全疑慮。政客也希望監管人工智慧,就像美國參議院的這項法案一樣,該法案旨在讓人工智慧創造者對有害內容負責。
對微軟來說,Llama 2 代表了領先Google等競爭對手的另一種選擇。這家雷德蒙德公司已經在 Azure 和 Bing 等產品中使用 OpenAI 系統。與 Meta 的合作將為微軟的商業客戶提供更多選擇,特別是如果他們希望調整模型以滿足自己的需求。