在人們對這個問題掉以輕心之前,要知道濫用人工智能可能會導致法律問題、聲譽損害和錯誤的輸出。以下探討了內容創(chuàng)建者使用ChatGPT的錯誤方式,以便可以避免這些問題。
1.不要過度依賴ChatGPT
假設用戶是第一次使用ChatGPT,就會發(fā)現(xiàn)它的響應速度非???。以前花費幾個小時創(chuàng)造的東西現(xiàn)在只需要幾秒鐘。隨著時間的推移,用戶可能會開始嚴重依賴,通常只是進行一些修改,并沒有費心去研究。
這種現(xiàn)象就是人們所說的對人工智能的過度依賴,對于那些被迫快速生產(chǎn)內容的創(chuàng)作者來說,這是一條誘人的途徑。然而,微軟公司發(fā)表的有關人工智能過度依賴的文獻綜述警告說,過度依賴人工智能會導致用戶接受錯誤的結果。
以網(wǎng)絡媒體CNET的爭議為例。CNET發(fā)表了人工智能撰寫的財務分析文章,署名為“CNET Money Staff”。不幸的是,一些專業(yè)人士在人工智能生成的文章中發(fā)現(xiàn)了明顯的錯誤。它指責這家媒體機構發(fā)布可怕的財務建議,并大量生產(chǎn)廉價內容來操縱谷歌搜索結果牟利。
不知道CNET是過度依賴人工智能還是過度自信,或者沒有人會注意到。無論如何,這一事件應該成為一個警告,不要過度依賴人工智能的輸出。
需要記住的是,ChatGPT可能會大量輸出過時的信息。正如ChatGPT公司自己所說,訓練ChatGPT所采用的知識的截止日期為2021年9月,所以用戶反復檢查信息的真實是很好的措施。
OpenAI公司的CEO Sam Altman也在美國廣播公司新聞的視頻采訪中提到,用戶應該對ChatGPT的“幻覺問題”更加謹慎。它可以自信地陳述虛構的想法,就好像它們是事實一樣。像CNET網(wǎng)絡這一事件可能會損害用戶將其作為權威消息來源的可信度。
當用戶沒有足夠的知識來評估結果時,很容易盲目地接受ChatGPT輸出的內容。此外,當ChatGPT的答案與用戶的理念一致時,可能不會費心去檢查不同的觀點。為了避免這些尷尬的情況,需要核實事實,尋求不同的觀點,并獲得專家的建議。
用戶正在學習使用ChatGPT進行內容創(chuàng)作,包括什么是人工智能幻覺,以及如何在要掌握的主題列表中發(fā)現(xiàn)它。更重要的是,不要忽視人類的判斷力和創(chuàng)造力。需要記住的是,人工智能應該增強其思維,而不是取代它。
2.不要向ChatGPT索取研究鏈接
如果用戶要求ChatGPT提供研究資源的互聯(lián)網(wǎng)鏈接,那么可能會感到失望。ChatGPT也許提供鏈接,但它們可能是錯誤的,或者不一定是網(wǎng)絡上最好的內容。
為了進行測試,研究人員讓ChatGPT提供JSTOR的研究論文鏈接,這些論文是關于英國年輕奇幻作家撰寫的成長故事。ChatGPT提供了5種資源,包括標題、卷號、頁碼和作者。
乍一看,這份名單似乎可信。JSTOR上的文章有一些聽起來令人印象深刻的標題,例如《構建混合身份:薩莉·格林三部曲中的種族與民族》。但是谷歌搜索很快就會顯示大多數(shù)鏈接指向錯誤的JSTOR文章,其中一個鏈接指向404頁面。
在另一個例子中,提供給ChatGPT一個更具體的主題來研究,看看它是否會產(chǎn)生更好的結果。這是使用的提示:“我正在寫一篇關于‘英國青年和成年當代小說中的女主角’的文學研究論文,你能給我一篇關于這個話題的文獻綜述嗎?”
ChatGPT給出了一個包含五部作品的列表,并附有作者的姓名和摘要。然而,人們在網(wǎng)上找不到它列出的任何作品。
為了更好地理解這些信息,研究人員要求提供鏈接。ChatGPT這一次卻拒絕了,聲稱這只是一個沒有網(wǎng)頁瀏覽功能的人工智能語言模型。然而,它提供了書目信息,盡管這些作品據(jù)稱是在2004~2018年期間創(chuàng)作的,但無法在網(wǎng)上核實。
當被提示提供鏈接以驗證其提供的信息時,ChatGPT這次斷然拒絕了。OpenAI公司表示,它沒有網(wǎng)絡瀏覽功能,而是提供了一份書目信息列表。然而,其數(shù)據(jù)仍然是錯誤的。
OpenAI公司上最新的ChatGPT發(fā)布說明顯示它現(xiàn)在具有網(wǎng)頁瀏覽功能。但是這些功能還沒有普及到每一個用戶。此外,正如研究人員所指出的那樣,ChatGPT的搜索結果不一定是互聯(lián)網(wǎng)上最好的,因為專業(yè)人士可以操縱搜索引擎的結果。
為了避免這個問題:
·用戶可以為其研究使用更合適的在線資源。
·如果需要學術研究的資源,可以查看Google Scholar或人工智能研究助手Elicit。
·在選擇引用哪篇文章時,記住要批判性地評估結果并做出判斷。
3.不要用ChatGP代替職場關系
用戶可以使用ChatGPT做的一些事情可能會誘使用戶將其擬人化或賦予其人類屬性。例如,可以向ChatGPT尋求建議,如果需要找人聊天,可以和它聊天。
在下面的例子中,可以讓ChatGP作為十年來最好的朋友,提供關于職場倦怠的建議,它似乎傾聽并感同身受。
但無論它聽起來多么富有同情心,ChatGPT都不是人類。聽起來像人類生成的句子只是ChatGPT根據(jù)其訓練數(shù)據(jù)預測序列中的下一個單詞或“標記”的結果。它不像人類那樣有知覺,有自己的意志和思想。
也就是說,ChatGPT并不能代替工作場所中的人際關系和協(xié)作。正如哈佛大學“工作與幸福倡議”所言,這些人際關系讓人受益,有助于提高幸福感,免受工作壓力的影響。
學習使用最新的技術工具很重要,但與團隊其他成員的互動也是必不可少的,而不是依靠ChatGPT復制社會關系,建立人際關系技能,與同事互動,并找到能夠一起更好地完成工作的人。
4.不要向ChatGPT發(fā)送無效提示
在創(chuàng)建內容時,是否發(fā)現(xiàn)很難從ChatGPT中獲得最佳響應?提供場景和給出精確的指示應該能解決這個問題。
在下面的例子中,可以讓ChatGPT總結一下美國鄉(xiāng)村音樂歌手Eric Allen在Hackernoon上寫的一篇有趣的博客。這篇冗長的文章描述了Allen在ChatGPT中改進人工智能提示的過程,以創(chuàng)建一個名為BeatBrain的音樂推薦系統(tǒng)。
然而,ChatGPT并不熟悉Allen的文章。當要求ChatGPT分享鏈接并做出總結時,ChatGPT卻錯誤地聲稱Eric Allen創(chuàng)立了BeatBrain公司,該公司利用GPT-3技術創(chuàng)作人工智能生成的音樂。
為了幫助ChatGPT,將文章分幾部分進行復制粘貼,并要求在每次上傳后提供摘要。ChatGPT這一次能夠準確地完成任務。還有一次,ChatGPT提供了評論而不是摘要,但是研究人員用另一個提示對它進行了重定向。
這個例子是一個關于如何使用ChatGPT有效地總結長篇技術文章的實驗。然而,人們現(xiàn)在可以訪問許多互聯(lián)網(wǎng)資源,并學習提示技術來改進其ChatGPT響應。
使用推薦的提示并不是防止ChatGPT產(chǎn)生幻覺的萬無一失的方法,但它可以幫助服務商提供準確的結果,還可以查看GitHub上最好的ChatGPT提示,以獲取有關提示技術的更多信息。
最大化ChatGPT的功能,但要注意它的局限性
ChatGPT提供了前所未有的速度和便利,但使用它也需要謹慎和負責。避免過度依賴ChatGPT,需要使用更合適的工具進行研究,更好地與團隊合作,并學會有效地使用提示以最大限度地獲得其好處。
接受ChatGPT的力量,但要始終注意其局限性。通過最大化ChatGPT的潛力,同時最小化它的缺陷,可以產(chǎn)生有影響力的、有創(chuàng)意的內容,從而提高工作質量。
關于企業(yè)網(wǎng)D1net(r5u5c.cn):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家?guī)旌椭橇敵黾吧缃黄脚_-信眾智(www.cioall.com)。同時運營19個IT行業(yè)公眾號(微信搜索D1net即可關注)
版權聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉載需在文章開頭注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責任的權利。