《企業(yè)中的生成式人工智能狀態(tài)》報(bào)告發(fā)現(xiàn),ChatGPT是企業(yè)中最受歡迎的聊天機(jī)器人,其次是CopyAI(35%)和Anyword(26%),分別位居第二和第三。然而,許多公司已經(jīng)禁止在工作場所使用生成式人工智能工具,其中ChatGPT是最常被禁止的(32%),其次是CopyAI(28%)和Jasper(23%)。
Writer聯(lián)合創(chuàng)始人兼首席技術(shù)官Waseem Alshikh表示,“如今關(guān)于生成式人工智能的炒作太多了,我們想了解一下實(shí)際情況——誰在使用它,他們?cè)谑褂檬裁垂ぞ撸麄冊(cè)谟盟鍪裁?,以及企業(yè)有哪些限制和約束。研究結(jié)果確實(shí)令人大開眼界。實(shí)際上,至少每個(gè)行業(yè)都在試驗(yàn)生成式人工智能,而且它不僅僅局限于企業(yè)中的一個(gè)功能。生成式人工智能的使用涵蓋了IT、運(yùn)營、營銷、人力資源、法律、L&D等各個(gè)領(lǐng)域。”
最常見的生成式AI用例
根據(jù)調(diào)查顯示,生成式人工智能最常見的應(yīng)用是為廣告和標(biāo)題生成簡潔的文本(31%),為各種媒體和渠道重新利用已有內(nèi)容(27%),以及創(chuàng)建廣泛的內(nèi)容,如博客和知識(shí)庫文章(25%)。
Alshikh表示,“人工智能為營銷人員、用戶體驗(yàn)設(shè)計(jì)師、編輯、客戶服務(wù)專業(yè)人員等節(jié)省了大量從零開始生成新內(nèi)容的時(shí)間。但真正的價(jià)值來自內(nèi)容開發(fā)過程的其他部分——乏味的部分:重新利用、分析、研究、轉(zhuǎn)換甚至分發(fā)內(nèi)容。當(dāng)你很忙,想要快速行動(dòng)時(shí),這些東西會(huì)拖垮你,而生成式人工智能可以自動(dòng)處理它。”
在工作場所使用生成式人工智能:是福還是禍?
該調(diào)查產(chǎn)生了重大發(fā)現(xiàn),其中一個(gè)關(guān)鍵發(fā)現(xiàn)是幾乎所有企業(yè)都在各種功能中使用生成式人工智能,其中信息技術(shù)(30%)、運(yùn)營(23%)、客戶成功(20%)、營銷(18%)、支持(16%)、銷售(15%)和人力資源(15%)都是最常見的實(shí)施領(lǐng)域。
根據(jù)該報(bào)告,59%的受訪者表示,他們的公司今年已經(jīng)購買或計(jì)劃購買生成式人工智能工具。此外,近五分之一(19%)的受訪者表示,他們的公司目前使用五種或更多的生成式人工智能工具。此外,56%的受訪者表示,生成式人工智能將生產(chǎn)率提高了至少50%,26%的受訪者表示,它將生產(chǎn)率提高了75%或更多。
Alshikh表示,“令人驚訝的是,建筑和IT(16%)是生成式人工智能使用最多的行業(yè)。緊隨其后的是金融保險(xiǎn)(8%)、科技服務(wù)(8%)和制造業(yè)(5%)。特別是在Writer,我們?cè)诮鹑诤捅kU(xiǎn)領(lǐng)域看到了很多用例。”
Alshikh認(rèn)為ChatGPT對(duì)大多數(shù)人來說是有價(jià)值的,因?yàn)樗敲赓M(fèi)的,易于使用,且適合一般用途。然而,該工具的局限性(如有限的數(shù)據(jù)集、不準(zhǔn)確、幻覺、偏見和數(shù)據(jù)隱私問題)也是公認(rèn)的。
Alshikh補(bǔ)充道,“ChatGPT本身也意識(shí)到它不是特別準(zhǔn)確。企業(yè)需要的不僅僅是創(chuàng)作創(chuàng)意故事和十四行詩的能力——它們還必須保護(hù)自己的品牌和聲譽(yù)。不幸的是,ChatGPT和其他類似的工具正在導(dǎo)致錯(cuò)誤信息的增加,這對(duì)于必須依賴準(zhǔn)確性和品牌一致性的企業(yè)來說是一個(gè)關(guān)鍵問題。”
Writer的新產(chǎn)品功能
該公司最近宣布了新的產(chǎn)品功能,旨在為其企業(yè)客戶提供從數(shù)據(jù)源到人們工作的所有階段的最高水平的準(zhǔn)確性、安全性、隱私性和合規(guī)性。這些特性包括自托管的大型語言模型(LLM),允許客戶在本地或云服務(wù)中托管、操作和定制LLM。
此外,該公司還在Writer平臺(tái)上引入了知識(shí)圖譜(Knowledge Graph),允許客戶索引和訪問任何數(shù)據(jù)源(從Slack到wiki到知識(shí)庫到云存儲(chǔ)實(shí)例)。
Writer的CEO兼聯(lián)合創(chuàng)始人May Habib在一份書面聲明中表示:“我們?yōu)槠髽I(yè)提供完全的控制——從LLM可以訪問哪些數(shù)據(jù),到LLM托管在哪里。如果你無法控制你的生成式人工智能的輸出,你當(dāng)然無法控制輸出的質(zhì)量或品牌和安全風(fēng)險(xiǎn)。”
降低生成式人工智能風(fēng)險(xiǎn)的關(guān)鍵考慮因素
Alshikh表示,像ChatGPT這樣的商業(yè)模式通常會(huì)從各種公共來源收集情報(bào),這可能有利于創(chuàng)造力,但不利于品牌的一致性。
他補(bǔ)充說,企業(yè)領(lǐng)導(dǎo)人已經(jīng)意識(shí)到在整個(gè)企業(yè)中實(shí)施生成式人工智能的競爭優(yōu)勢(shì)。然而,他們也認(rèn)識(shí)到使用像ChatGPT這樣的免費(fèi)聊天機(jī)器人的風(fēng)險(xiǎn),包括生成不準(zhǔn)確內(nèi)容和暴露機(jī)密數(shù)據(jù)的可能性。
他解釋稱,“這就是為什么我們Writer的目標(biāo)是超越新奇的用例,給企業(yè)帶來真正的影響。我們已經(jīng)解決了與準(zhǔn)確性和隱私相關(guān)的問題,我們的技術(shù)正在被部署在高度監(jiān)管的行業(yè),包括為Intuit和UnitedHealthcare等客戶提供技術(shù)、醫(yī)療保健和金融服務(wù)。”
鑒于ChatGPT的受歡迎程度,他建議公司考慮ChatGPT或任何基于OpenAI的工具是否符合他們的數(shù)據(jù)隱私、品牌和監(jiān)管政策。此外,他建議公司收集功能性用例和需求來評(píng)估備選方案。
Alshikh建議稱,“如果一個(gè)企業(yè)已經(jīng)制定了使用ChatGPT的政策,他們應(yīng)該考慮實(shí)施一個(gè)持續(xù)的溝通和培訓(xùn)計(jì)劃,這樣每個(gè)人都知道哪些工具是安全的,以及如何在不泄露敏感公司數(shù)據(jù)的情況下使用它們。同時(shí),企業(yè)高管也需要問自己一些重要的問題,比如:它安全嗎?它能保護(hù)我們公司的數(shù)據(jù)嗎?它是否允許我們根據(jù)我們的品牌、風(fēng)格、信息和公司情況定制輸出?它能集成到我們的業(yè)務(wù)工作流程中嗎?”
關(guān)于企業(yè)網(wǎng)D1net(r5u5c.cn):
國內(nèi)主流的to B IT門戶,同時(shí)在運(yùn)營國內(nèi)最大的甲方CIO專家?guī)旌椭橇敵黾吧缃黄脚_(tái)-信眾智(www.cioall.com)。同時(shí)運(yùn)營19個(gè)IT行業(yè)公眾號(hào)(微信搜索D1net即可關(guān)注)
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需在文章開頭注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。