據6月16日消息報道,知情人士表示,谷歌母公司Alphabet在全球范圍內推銷聊天機器人軟件的同時,正警告內部員工在使用Bard等聊天機器人時應該保持謹慎。
消息稱,基于長期以來的信息保密政策,Alphabet建議員工不要將機密信息輸入聊天機器人。
包括Bard和ChatGPT在內的聊天機器人可以用與人類類似的風格與用戶對話。它們基于生成式人工智能技術,能根據用戶輸入的提示做出回復。然而在使用聊天機器人的過程中,人工審核員可能會閱讀聊天記錄。研究人員也發(fā)現,人工智能模型可以復制在訓練過程中接收的數據,從而產生數據泄露風險。
一些知情人士還說,Alphabet已經提醒工程師,避免直接使用聊天機器人去生成軟件代碼。
對于這一消息,Alphabet回應稱,Bard可能會提出不合適的代碼建議,但仍可以給程序員帶來幫助。此外,該公司的目標是對技術局限性保持透明的態(tài)度。
這一消息表明,盡管谷歌推出了自己的軟件與ChatGPT競爭,但谷歌也極力避免這樣的軟件對公司業(yè)務造成損害。谷歌正在與ChatGPT的開發(fā)者OpenAI和微軟展開競爭,新的人工智能軟件將對廣告和云計算行業(yè)造成深遠影響。
這也表明,在面對生成式人工智能技術時,企業(yè)正在制定新的信息安全標準,包括要求員工不使用公開的聊天機器人軟件。
三星、亞馬遜和德意志銀行等公司都表示,全球越來越多的企業(yè)已經針對人工智能聊天機器人設置了“護欄”。有消息稱,蘋果(184.92, -1.09, -0.59%)也采取了類似做法。
社交網站FishBowl對近1.2萬名受訪者進行的一項調查顯示,截至今年1月,大約43%的專業(yè)人士正在使用ChatGPT或其他人工智能工具,并且通常不會告知他們的老板。受訪者中包括部分美國大公司的員工。
今年2月,谷歌曾對測試Bard聊天機器人的員工表示,在Bard推出之前不要向其輸入內部信息。目前,谷歌正在180多個國家推出40多個語言版本的Bard,輔助用戶的創(chuàng)意工作。但同時,谷歌對內部員工的警示已經拓展到了Bard提供的代碼建議。
谷歌表示,該公司已經與愛爾蘭數據保護委員會進行了具體的對話,正在回答監(jiān)管機構的問題。本周二有報道稱,谷歌將推遲本周在歐盟推出Bard的計劃,等待有關聊天機器人隱私問題的更多信息。
生成式人工智能技術可以起草電子郵件、文檔,甚至開發(fā)軟件本身,從而極大地加快任務的執(zhí)行速度。然而,人工智能生成的內容中可能包含錯誤信息、敏感數據,以及《哈利波特》等小說中受版權保護的段落。
谷歌在6月1日更新的隱私聲明中也寫道:“不要在與Bard的對話中包含機密或敏感信息。”
一些公司已經開發(fā)軟件來解決這方面擔憂。例如,信息安全公司Cloudflare正在推廣一項新服務,幫助企業(yè)標記和限制數據的對外流動。
谷歌和微軟同時也在向商業(yè)客戶提供非公開的人工智能對話工具。這些工具的價格更高,但不會將數據吸收到公開的人工智能模型中。Bard和ChatGPT的默認設置會保存用戶的對話歷史,用戶可以選擇刪除。
微軟消費者業(yè)務首席營銷官優(yōu)素福·邁赫迪(Yusuf Mehdi)表示,公司不希望員工在工作時使用公開的聊天機器人,這是“有道理的”。他解釋了微軟免費的必應聊天機器人與企業(yè)版軟件的不同,并表示:“公司采取適當的保守立場,(企業(yè)軟件)的政策要嚴格得多。”
微軟拒絕回應,是否會全面禁止員工將機密信息輸入公開的人工智能軟件,包括微軟自己的軟件。不過微軟的另一名高管表示,他個人會限制對公開聊天機器人的使用。
Cloudflare首席執(zhí)行官馬修·普林斯(Matthew Prince)說,在聊天機器人上輸入機密信息就像“讓一群博士生獲得你的所有私人記錄”。
責任編輯 :
[聲明]本網轉載的作品目的在于傳遞更多信息,此稿件并不代表本網的觀點,本網不承擔此類稿件侵權行為的連帶責任。如果你認為此類稿件侵犯了您的合法權益,請將相關資質證明發(fā)送至mingyou360kf@sina.com,名優(yōu)資源網工作人員會及時回復并處理!