人類一直就在夢想有一個無所不知、無所不能的精靈來承擔自己的工作?,F在,多虧了計算機科學家在實驗室里的辛勤工作,我們在人工智能中找到了答案,如果你也相信這一點,你的公司幾乎可以做任何你需要做的事情--至少是其中的一些。
是的,人工智能的創(chuàng)新是驚人的。像Siri、Alexa或Google Assistant這樣的虛擬助手對于10到15年前的時間旅行者來說似乎是很神奇的。你的話就是它們的命令,與上世紀90年代的語音識別工具不同,他們通常會給出正確的答案--如果你避免問一些曲線球問題的話,比如問有多少天使能在一根大頭針上跳舞。
盡管人工智能很神奇,但它們仍然依賴于計算機編程,這意味著它們會受到各種限制,這些限制阻礙了電子表格或文字處理器等更普通的代碼。它們在處理世界統計上的變幻莫測方面做得更好,但歸根結底,它們仍然只是通過計算一個函數并確定某個數字是大于還是小于閾值來做出決策的計算機。在所有巧妙的神秘和復雜的算法之下,是一組實現“如果--那么”決策的晶體管。
我們能接受這個嗎?我們還有別的選擇嗎?隨著所有行業(yè)對人工智能的呼聲越來越高,我們必須開始學會接受以下人工智能的一些現實。
你在AI中發(fā)現的很多東西都是顯而易見的
對人工智能科學家來說,最艱難的工作就是告訴老板,人工智能已經發(fā)現了每個人都已經知道的東西。也許它檢查了100億張照片,發(fā)現天空是藍色的。但是如果你忘了把晚上的照片也放在訓練集里,它也就不會意識到晚上會變黑了。
但是人工智能如何才能避免這些顯而易見的結論呢?數據中最強烈的信號對任何在第一線工作的人來說都是顯而易見的,對于挖掘數據的計算機算法來說也是顯而易見的。它們將是獵犬能夠帶回來并落在你腳下的第一個答案。只不過算法不會期望得到你的回報。
利用微妙的人工智能洞察力可能并不值得
當然,當數據精確時,好的人工智能也會鎖定小的差異。但是使用這些小的見解可能需要對公司的工作流程進行深刻的戰(zhàn)略轉變。有些細微的差別將過于微妙,根本不值得追根究底。但計算機依然會糾結于此。問題是,大信號往往是明顯的,而小信號可能只能產生很小的收益。
神秘的計算機更具威脅性
雖然早期的研究人員希望計算機算法的數學方法會給最終的決定帶來一種體面的氣氛,但世界上的許多人都不愿意向邏輯之神投降。如果說有什么不同的話,那就是人工智能的復雜性和神秘性讓任何對答案不滿意的人都更容易攻擊這個過程。算法是有偏差的嗎?暗箱下的神秘和復雜越多,這個世界就越有理由產生懷疑和憤怒。
人工智能主要是曲線擬合
數百年來,科學家們一直在繪制一些噪聲數據,并在這些點上畫線。機器學習算法核心的許多人工智能算法就是這樣做的。他們收集了一些數據,并通過它們畫了一條線。大部分的進步都來自于找到方法將問題分解成數千、數百萬甚至是數十億個的小問題,然后在所有的問題上畫線。這不是魔法;這只是一條流水線,展示了幾個世紀以來我們是如何做科學的。那些不喜歡人工智能并發(fā)現很容易在它的決策上戳洞的人關注的就是這樣一個事實,即通常沒有深刻的理論或哲學支架來為答案提供可信度。這只是對某條線的斜率的一個猜測。
收集數據才是真正的工作
每個開始研究數據科學的人都開始意識到做科學的時間不多了,因為找到數據才是真正的工作。人工智能是數據科學的近親,它也面臨著同樣的挑戰(zhàn)。0.01%的靈感來自于文件格式,99.99%的靈感來自于丟失的數據字段和字符代碼。
你需要大量的數據來得出更深刻的結論
有些答案很容易找到,但更深層次、更復雜的答案往往需要越來越多的數據。有時數據量會呈指數級增長。人工智能會讓你對越來越多的信息貪得無厭。
你會被你的數據偏見所困
就像柏拉圖洞穴里的居民一樣,我們都被我們所能看到和感知的東西所限制。人工智能也沒有什么不同。他們明顯受到了訓練環(huán)境的限制。如果數據中存在偏差,人工智能就將繼承這些偏差。如果數據有漏洞,人工智能對世界的理解就會有漏洞。
人工智能是電力的黑洞
大多數好的游戲都有一個最終的關卡或最終的目標。然而,人工智能只會變得越來越復雜。只要你愿意支付電費,他們就會不斷推出更多節(jié)點、更多級別和更多內部狀態(tài)的更復雜的模型。也許這種額外的復雜性將足以使模型真正有用。也許下一次跑步時就會出現一些緊急的感知行為。但也許我們需要一個更大的GPU集合通宵運行才能真正捕捉到這些效果。
可解釋的人工智能只是另一只烏龜
人工智能研究人員最近花了更多時間來試圖解釋人工智能到底在做什么。我們可以深入研究數據,發(fā)現經過訓練的模型在很大程度上將依賴于這些來自數據集特定角落的參數。然而,通常其解釋就像是魔術師通過表演一個戲法來解釋另一個戲法一樣。回答“為什么”這個問題出人意料地困難。你可以看著最簡單的線性模型,盯著參數,但通常你會一頭霧水。如果模型顯示每年行駛的英里數乘以0.043255,你可能會想為什么不是0.043256或0.7,或者可能是像4110億或100億這樣驚人的不同。一旦你使用一個連續(xù)體,沿著軸的所有數字可能都是對的。
這就像是那個舊模型,地球只是坐在一只巨大的烏龜上面。但這只烏龜站在哪里?在另一只烏龜的背上。而下一個站在哪里?一路下來都是烏龜。
努力做到公平是一項挑戰(zhàn)
你可以把身高排除在訓練集之外,但是你的人工智能程序很有可能會找到其他代理來標記高個子,并為你的籃球隊選擇他們。也許會是鞋碼。或者是手長。人們夢想著讓一個中立的人工智能做出公正的決定來使世界變得更加公平,但有時這些問題已經深深植根于現實,算法也做不到更好。
有時修復后的情況甚至更糟
強迫使人工智能公平有什么真正的解決辦法嗎?有些人試圖堅持認為人工智能產生的結果具有一定的預定百分比。他們把拇指放在天平上,然后重寫算法來改變輸出。但是,人們開始懷疑,如果你已經決定了你想要的答案,為什么我們還要費心的進行任何培訓或數據分析。
人類才是真正的問題
當風險較低時,我們通常會對人工智能感到滿意。如果你有1000萬張圖片要分類,如果一些人工智能在大多數時候都能產生相當準確的結果,你就會很高興。當然,也可能會有問題和錯誤。一些小故障甚至可能反映了人工智能偏見的深層問題,這些問題可能寫出一篇200頁的令人毛骨悚然的論文。
但是人工智能可能并不是問題所在。他們會按照他們的要求去做。如果他們變得大驚小怪并開始生成錯誤消息,我們可以隱藏這些消息。如果訓練集不能產生完美的結果,我們可以把抱怨的結果放在一邊,然后要求更多的數據。如果準確性不高,我們可以把結果歸檔。人工智能將回去工作,并盡其所能。
然而,人類是一種完全不同的動物。人工智能是他們的工具,而人類就是那些想要利用它們來尋找優(yōu)勢并從中獲利的人。這些計劃中的一些將是相對無辜的,但也有一些是被預先策劃的秘密惡意所驅使的。很多時候,當我們遇到一個糟糕的人工智能時,可能只是因為它是一些人從糟糕的行為中獲利的傀儡而已。
版權聲明:本文為企業(yè)網D1Net編譯,轉載需注明出處為:企業(yè)網D1Net,如果不注明出處,企業(yè)網D1Net將保留追究其法律責任的權利。