繼 6 月流量首次下降了 9.7% 后,根據網站數據分析工具 SimilarWeb 最新調查顯示,ChatGPT 出現了連續第二個月的下降:7 月其流量又下降了 9.6%。ChatGPT 訪問量下降的背后原因,SimilarWeb 猜測可能與學生放假有關。但除此之外,似乎越來越多企業也開始決定禁用 ChatGPT,不僅包括三星和蘋果,此前摩根大通、德意志銀行、Verizon 和亞馬遜等公司也限制員工使用 ChatGPT。而本周,黑莓公司(BlackBerry)又發布了一項最新研究: 目前全球有 75% 的組織,正考慮禁止在工作場所使用 ChatGPT 和其他生成式 AI 應用。 61% 正在部署或考慮 ChatGPT 禁令的公司表示,禁用 ChatGPT 的措施將是長期或永久性的。

為什么企業要禁用 ChatGPT?根據黑莓官方博客介紹,該研究數據源自其對美國、加拿大、英國、法國、德國、荷蘭、日本和澳大利亞等國家近 2000 名 IT 決策者的調查。調查結果顯示,推動 ChatGPT 和生成式 AI 禁令的,多是企業內部的技術領導層,另外近一半企業的首席執行官也發揮著主導作用: CIO(首席信息官)/ CTO(首席技術官)/ CSO(首席安全官) / IT——72% CEO(首席執行官)——48% 法律合規管理者——40% CFO(首席財務官)/ 財務——36% HR(人力資源)——32%反對企業在工作場景使用 ChatGPT 的理由有很多,約有 67% 的受訪者認為 ChatGPT 可能帶來的數據安全和隱私問題是最大風險,其次企業的聲譽風險也是 57% 的人考慮禁用 ChatGPT 的原因之一。實際上早在今年 3 月,黑莓曾就“組織使用 ChatGPT 安全嗎?”這個話題,咨詢了公司內部的幾位安全專家,以此揭示每個組織在使用 ChatGPT 或類似工具時應該注意的事情,大體來說可分為三個方面:(1)AI 聊天機器人的數據泄漏和安全問題如果將敏感的第三方或公司內部信息輸入 ChatGPT,這些信息將成為其訓練數據的一部分,并可能與提出相關問題的其他人共享,從而導致數據泄漏。任何未經授權向 ChatGPT 披露機密信息的行為,都可能違反企業的安全政策。(2)使用 AI 聊天機器人的法律考量因素一旦 ChatGPT 的安全性受到破壞,原本根據合同或法律應保護的內容就可能會被泄露,并歸咎于組織,從而影響公司的聲譽。另外,如果用 ChatGPT 生成代碼,其版權歸誰所有很難界定;用 ChatGPT 生成受版權保護的書面材料,如授權的開源材料等,也會產生版權問題,甚至可能會使公司違反 OSS(開源軟件)許可。還有一點很重要:服務條款規定,ChatGPT 不得用于開發任何其他 AI。如果你所在公司也處于 AI 領域的話,使用 ChatGPT 就可能危及未來公司的 AI 開發。(3)AI 聊天機器人的隱私注意事項ChatGPT 一直警告用戶,不要提供或輸入敏感個人信息,如姓名或電子郵件地址等。向 AI 生成系統提供任何個人數據都可能被重新用于其他目的,從而導致濫用和聲譽受損,并可能違反組織對員工、客戶和合作伙伴的隱私承諾。盡管使用 ChatGPT 帶來的風險不小,不少 IT 決策者也傾向于阻止這一新興技術的廣泛使用,但同時他們也承認生成式 AI 應用在工作場所會產生積極影響:55% 的人認為生成式 AI 有助于提高工作效率,52% 的人認為其有助于創新,51% 的人認為可以增強創造力。此外,當談到使用生成式 AI 工具進行網絡安全防御時,大多數受訪者(81%)也都非常贊成。建議采取“謹慎而積極”的態度不僅如此,黑莓的研究數據還顯示,盡管 80% 的 IT 決策者認為企業有權控制員工用于業務目的的應用程序,但同時也有 74% 的人認為這種禁令是對企業和辦公設備的“過度控制”。為此,不少受訪的首席信息官和首席信息安全官(62%)表示,其公司內部已轉向統一端點管理(UEM)平臺,即可對哪些應用可以連接到企業環境進行細粒度控制,通過這種方式將員工的私人數據或應用進行分開和隔離,同時又能確保企業安全得到維護。基于以上使用 ChatGPT 等生成式 AI 的利與弊,黑莓公司網絡安全首席技術官 Shishir Singh 呼吁,各個企業和組織應采取“謹慎而積極”的態度:“禁止在工作場所使用生成式 AI 應用,可能意味著大量潛在的商業利益被扼殺。”Shishir Singh 強調,隨著未來 AI 平臺的逐漸成熟和相關法規的生效,企業可能會采取靈活性政策,其中的關鍵還是在于:對工作場所使用的生成式 AI 應用,要有合適的工具對其進行可見性的監控和管理。
網友:因為不了解 AI,所以要放棄 AI?對于黑莓提供的這份調查報告,不少網友的第一反應是“黑莓居然還活著呢?”,隨后便開始了激烈的討論:“禁止在這些聊天機器人上透露敏感數據我可以理解,但全面禁止似乎太過分了吧?”“如果我是公司負責人,我也會禁止這些面向公眾的模型,畢竟數據被盜的風險太大了,尤其是在使用插件等東西的情況下。”“我所在的公司也很快就下達了禁令,但不是全面禁令,我只是不能在提示中輸入任何識別信息或敏感信息,對于一般的內容,公司沒做限制。”除了對禁止使用 ChatGPT 這一行為做出討論,部分網友認為企業做出這個決定的根本原因,并不是因為 AI 技術有危險,而是“人類不了解如何正確使用工具”: “這有道理,但根本來說并不是因為技術有危險,而是因為人類不了解如何正確使用工具。正如我們歷史上的大多數時代一樣,我們會害怕我們不了解的東西——這基本上意味著,在我們想出辦法之前,我們只會試圖將其拋棄,正如這次的生成式 AI。 ”