生成式人工智能最常見和最強(qiáng)大的技術(shù)之一是大型語言模型,例如GPT-4或谷歌BARD。這些神經(jīng)網(wǎng)絡(luò)是根據(jù)書籍、網(wǎng)站、社交媒體和新聞文章等各種來源的大量文本數(shù)據(jù)進(jìn)行訓(xùn)練的。他們通過猜測一系列單詞中的下一個單詞來學(xué)習(xí)語言的模式和概率。例如,給定輸入的句子“天空是”,大型語言模型可能預(yù)測為“藍(lán)色”、“晴朗”、“多云”或“下雨”等。
通過使用不同的輸入和參數(shù),大型語言模型可以生成不同類型的輸出,例如摘要、標(biāo)題、故事、文章、評論、標(biāo)題、口號或代碼。例如,輸入“為一個新品牌的牙膏編寫一個朗朗上口的口號”,大型語言模型可能會產(chǎn)生“自信的微笑”、“消除你的煩惱”或“像星星一樣閃耀”。
企業(yè)在使用生成式人工智能時需要考慮的危險(xiǎn)信號
雖然生成式人工智能可以為企業(yè)提供許多好處和機(jī)會,但它也有一些必須克服的缺點(diǎn)。以下是企業(yè)在采用生成式人工智能之前需要考慮的一些危險(xiǎn)信號。
(1)公共信息與私人信息
隨著用戶開始嘗試生成式人工智能,他們將創(chuàng)建提示、生成文本,并將這項(xiàng)新技術(shù)構(gòu)建到他們的工作流程中。必須有明確的政策來界定哪些信息是公開的,哪些是私有或?qū)S行畔?。提交私人信息,即使是在人工智能提示中,也意味著信息不再是私人的。盡早開始對話,以確保團(tuán)隊(duì)可以在不損害專有信息的情況下使用生成式人工智能。
(2)人工智能的幻覺
生成式人工智能模型并不完美,有時可能會產(chǎn)生不準(zhǔn)確、不相關(guān)或無意義的輸出。這些輸出通常被稱為人工智能幻覺或人工智能幻影。它們可能是由各種因素造成的,例如數(shù)據(jù)質(zhì)量或數(shù)量不足,模型偏差或錯誤或惡意操縱。例如,生成式人工智能模型可能會生成傳播錯誤信息或宣傳的假新聞文章。因此,企業(yè)需要意識到生成式人工智能模型的局限性和不確定性,并在將其用于決策或溝通之前驗(yàn)證其輸出。
(3)在工作中使用錯誤的工具
生成式人工智能模型不一定是可以解決任何問題或任務(wù)的一刀切的解決方案。雖然一些大型語言模型優(yōu)先考慮一般化響應(yīng)和基于聊天的界面,但其他大型語言模型是為特定目的而構(gòu)建的。換句話說,有些模型可能更擅長生成短文本而不是長文本;有些可能更擅長生成事實(shí)性文本,而不是創(chuàng)造性文本;有些可能更擅長在一個領(lǐng)域生成文本,而不是在另一個領(lǐng)域。
許多生成式人工智能平臺可以針對特定利基市場(例如客戶支持、醫(yī)療應(yīng)用、營銷或軟件開發(fā))進(jìn)行進(jìn)一步訓(xùn)練。簡單地使用最流行的產(chǎn)品很容易,即使它不是適合手頭工作的工具。企業(yè)需要了解自己的目標(biāo)和需求,并為工作選擇合適的工具。
(4)垃圾進(jìn),垃圾出
生成式人工智能模型的好壞取決于它們所訓(xùn)練的數(shù)據(jù)。如果采用嘈雜的、不完整的、不一致的或具有偏見的數(shù)據(jù),生成式人工智能模型可能會產(chǎn)生反映這些缺陷的輸出。例如,在不適當(dāng)或有偏見的數(shù)據(jù)上訓(xùn)練的生成式人工智能模型可能會生成具有歧視性的文本,并可能損害企業(yè)的品牌聲譽(yù)。因此,企業(yè)需要確保他們擁有具有代表性、多樣性和不偏不倚的高質(zhì)量數(shù)據(jù)。
如何發(fā)展成為為人工智能做好準(zhǔn)備的企業(yè)
采用生成式人工智能并不是一個簡單或直接的過程。這需要戰(zhàn)略眼光、文化轉(zhuǎn)變和技術(shù)轉(zhuǎn)型。以下是企業(yè)發(fā)展成為人工智能就緒企業(yè)所需采取的一些步驟。
(1)找到合適的工具
如上所述,生成式人工智能模型不是可互換的或通用的。它們有不同的能力和限制,這取決于它們的架構(gòu)、訓(xùn)練數(shù)據(jù)和參數(shù)。因此,企業(yè)需要找到符合其需求和目標(biāo)的正確工具。例如,創(chuàng)建圖像的人工智能平臺(例如DALL-E或StableDiffusion)可能不是客戶支持團(tuán)隊(duì)的最佳選擇。
為特定角色定制界面的平臺正在興起:針對營銷結(jié)果進(jìn)行優(yōu)化的文案平臺、針對一般任務(wù)和問題解決進(jìn)行優(yōu)化的聊天機(jī)器人、連接編程數(shù)據(jù)庫的開發(fā)人員專用工具、醫(yī)療診斷工具等等。企業(yè)需要評估他們使用的生成式人工智能模型的性能和質(zhì)量,并將其與替代解決方案或人類專家進(jìn)行比較。
(2)管理自己的品牌
企業(yè)還必須考慮控制機(jī)制。例如,市場營銷團(tuán)隊(duì)在以往可能是品牌信息的守門人,但他們也是瓶頸。由于企業(yè)中的任何人都有能力生成副本,因此找到允許企業(yè)構(gòu)建品牌指導(dǎo)方針、信息、受眾和品牌聲音的工具非常重要。擁有整合品牌標(biāo)準(zhǔn)的人工智能對于消除品牌復(fù)制的瓶頸而不引起混亂至關(guān)重要。
(3)培養(yǎng)正確的技能
生成式人工智能模型并不是無需任何人工輸入或指導(dǎo)就能生成完美文本的魔盒。它們需要人類的技能和專門知識來有效和負(fù)責(zé)任地使用它們。生成式人工智能最重要的技能之一是提示工程:設(shè)計(jì)輸入和參數(shù)的藝術(shù)和科學(xué),從模型中獲得期望的輸出。
提示工程包括理解生成式人工智能模型的邏輯和行為,制作清晰而具體的指令,提供相關(guān)的示例和反饋,以及測試和改進(jìn)輸出。提示工程是任何使用生成式人工智能的用戶都可以隨著時間的推移學(xué)習(xí)和改進(jìn)的技能。
(4)建立新的角色和工作流
生成式人工智能模型不是可以獨(dú)立運(yùn)行或取代人類的獨(dú)立工具,它們是可以增強(qiáng)和提高人類創(chuàng)造力和生產(chǎn)力的協(xié)作工具。因此,企業(yè)需要建立新的工作流,將生成式人工智能模型與人類團(tuán)隊(duì)和流程集成在一起。
企業(yè)可能需要創(chuàng)建全新的角色或功能,例如人工智能監(jiān)察人員或人工智能質(zhì)量保證專家,他們可以監(jiān)督和監(jiān)控生成式人工智能模型的使用和輸出,并在出現(xiàn)問題時解決它們。他們可能還需要實(shí)施新的政策或協(xié)議,例如道德準(zhǔn)則或質(zhì)量標(biāo)準(zhǔn),以確保生成式人工智能模型的問責(zé)制和透明度。
生成式人工智能時代已經(jīng)到來
生成式人工智能是這個時代最令人興奮和顛覆性的技術(shù)之一。它有可能改變?nèi)藗冊诟鱾€領(lǐng)域和行業(yè)中創(chuàng)建和消費(fèi)內(nèi)容的方式。然而,采用生成式人工智能并不是一件微不足道或沒有風(fēng)險(xiǎn)的事情。它需要周密的計(jì)劃、準(zhǔn)備和執(zhí)行。采用和掌握生成式人工智能的企業(yè)將獲得競爭優(yōu)勢,并為增長和創(chuàng)新創(chuàng)造新的機(jī)會。
關(guān)于企業(yè)網(wǎng)D1net(r5u5c.cn):
國內(nèi)主流的to B IT門戶,同時在運(yùn)營國內(nèi)最大的甲方CIO專家?guī)旌椭橇敵黾吧缃黄脚_-信眾智(www.cioall.com)。同時運(yùn)營19個IT行業(yè)公眾號(微信搜索D1net即可關(guān)注)
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需在文章開頭注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。