一流的招聘人員,相互信任的組織結(jié)構(gòu),重視道德規(guī)范是確保人工智能團(tuán)隊(duì)成功的關(guān)鍵。
希望利用人工智能優(yōu)勢(shì)的企業(yè)CIO往往會(huì)遇到大量錯(cuò)綜復(fù)雜的技術(shù)問(wèn)題,但這只是一個(gè)開端。最近在舊金山舉行的ReWork深度學(xué)習(xí)峰會(huì)上,行業(yè)專家表示,企業(yè)還需要考慮如何確保他們的人工智能團(tuán)隊(duì)能夠交付業(yè)務(wù)成果。
全球家譜服務(wù)提供商Ancestry.com公司前首席數(shù)據(jù)官Amy Gershkoff表示:“人工智能不僅僅是一個(gè)數(shù)據(jù)科學(xué)問(wèn)題,而且還是一個(gè)商業(yè)問(wèn)題。”
人工智能專家表示,企業(yè)在建立人工智能團(tuán)隊(duì)時(shí),需要特別關(guān)注兩個(gè)領(lǐng)域。首先是建立一個(gè)組織結(jié)構(gòu),在整個(gè)企業(yè)中產(chǎn)生對(duì)人工智能的信任,并且不會(huì)違反監(jiān)管要求。第二,企業(yè)建立團(tuán)隊(duì)的先決條件是擁有知識(shí)淵博的一流的人工智能招聘人員。
組織調(diào)整
在Gershkoff看來(lái),構(gòu)建人工智能組織結(jié)構(gòu)的關(guān)鍵的第一步是將數(shù)據(jù)科學(xué)家部署在適合的部門中。
Gershkoff表示,例如,如果人工智能團(tuán)隊(duì)的目標(biāo)是增加收入,則不能與企業(yè)削減成本的目標(biāo)相沖突。將數(shù)據(jù)科學(xué)家部署在產(chǎn)品管理團(tuán)隊(duì)或營(yíng)銷團(tuán)隊(duì)中可能更有意義,因?yàn)槭杖朐鲩L(zhǎng)對(duì)于團(tuán)隊(duì)來(lái)說(shuō)是一個(gè)具有更高優(yōu)先級(jí)的目標(biāo)。他說(shuō),“企業(yè)需要將數(shù)據(jù)科學(xué)家部署在最有效的地方。”
一些組織開始采用混合模式,將數(shù)據(jù)科學(xué)家分配到不同的部門。他們被分配到營(yíng)銷、產(chǎn)品工程、金融等多個(gè)部門。然后整個(gè)企業(yè)的人工智能團(tuán)隊(duì)成員向首席數(shù)據(jù)官以及部門經(jīng)理報(bào)告。這可以幫助數(shù)據(jù)科學(xué)家的目標(biāo)與每個(gè)部門保持一致。Gershkoff說(shuō),“這么做的缺點(diǎn)是他們可能覺(jué)得自己需要向兩個(gè)管理者負(fù)責(zé)”。
選擇知識(shí)淵博的招聘人員
Ancestry.com首席數(shù)據(jù)官Amy Gershkoffformer 表示,對(duì)于組織在人才方面進(jìn)行競(jìng)爭(zhēng),他們需要招聘人員以數(shù)據(jù)科學(xué)家的語(yǔ)言進(jìn)行溝通。擁有優(yōu)秀的招聘人員往往是許多企業(yè)對(duì)于開展人工智能工作的事后考慮事項(xiàng)。因此,有些面試過(guò)程并不嚴(yán)格,企業(yè)對(duì)數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)專家的需求對(duì)于潛在的新員工來(lái)說(shuō)似乎并不具有太大的吸引力。
精明的人工智能應(yīng)聘者將會(huì)詢問(wèn)企業(yè)的基礎(chǔ)設(shè)施、技術(shù)堆棧和他們將要處理的問(wèn)題類型。如果招聘人員不知道答案,就很難找到最好的人才。
企業(yè)的基礎(chǔ)設(shè)施需要準(zhǔn)備到位
新的數(shù)據(jù)科學(xué)家也將期待基礎(chǔ)數(shù)據(jù)科學(xué)基礎(chǔ)設(shè)施到位。企業(yè)首席信息官必須創(chuàng)建一個(gè)支持?jǐn)?shù)據(jù)倉(cāng)庫(kù)和靈活的數(shù)據(jù)管理的方法體系。Gershkoff說(shuō):“這是組織招聘機(jī)器學(xué)習(xí)專家之前需要提供的基礎(chǔ)和解決方案。”
除此之外,首席信息官需要部署支持?jǐn)?shù)據(jù)治理、合規(guī)性、隱私、安全問(wèn)題的技術(shù)。這將使數(shù)據(jù)科學(xué)家能夠在確保控制到位的同時(shí),也能更出色地完成工作。
理解黑匣子
優(yōu)秀的人工智能策略也需要在更高的準(zhǔn)確性和透明度之間找到平衡點(diǎn)。人工智能系統(tǒng)的核心是可以自動(dòng)執(zhí)行許多決策過(guò)程。但是人工智能算法往往是從復(fù)雜的機(jī)器學(xué)習(xí)規(guī)則演化而來(lái)的,人們通常難以理解。安永公司高級(jí)金融和數(shù)據(jù)科學(xué)家Manuel Proissl說(shuō):“這在某種程度上就是一個(gè)黑盒子。”
即使這些算法提供的結(jié)果最終比人們得出的更準(zhǔn)確,如果其邏輯不透明的話,利益相關(guān)者也很難相信。將人工智能嵌入業(yè)務(wù)需要超越數(shù)據(jù)科學(xué)來(lái)建立信任。這種透明度對(duì)于解決新的監(jiān)管要求也很重要,例如歐盟的“通用數(shù)據(jù)保護(hù)條例”,該條例規(guī)定企業(yè)必須能夠提供有關(guān)人工智能決策所涉及的有意義的信息。
創(chuàng)建道德文化
一個(gè)正在采用機(jī)器學(xué)習(xí)技術(shù)解決商業(yè)問(wèn)題的人工智能團(tuán)隊(duì)也可能面臨與企業(yè)道德文化背道而馳的決策。首席信息官需要與組織的利益相關(guān)者合作,仔細(xì)確定共同的價(jià)值觀,并創(chuàng)建一種道德文化。埃森哲公司人工智能部門負(fù)責(zé)人Rumman Chowdhury說(shuō),“精辟的格言不一定會(huì)使人工智能與企業(yè)目標(biāo)保持一致。但如果企業(yè)沒(méi)有任何流程的文化,就不太可能實(shí)施到位。”
例如,社交媒體企業(yè)或部門可能會(huì)確定社交活動(dòng)的目標(biāo)。產(chǎn)品經(jīng)理可能會(huì)使用人工智能來(lái)加強(qiáng)社交活動(dòng)。例如比較激進(jìn)的人經(jīng)常在網(wǎng)站上發(fā)帖。但是,企業(yè)如何對(duì)憤怒的交流進(jìn)行優(yōu)化,這是一個(gè)難題。如果產(chǎn)品經(jīng)理專注于開發(fā)新產(chǎn)品,倫理道德可能是首先考慮的事情。但是,這可能會(huì)導(dǎo)致公司陷入困境。Chowdhury說(shuō):“良好的人工智能應(yīng)用是看不見(jiàn)的,但糟糕的人工智能卻是顯而易見(jiàn)的。人工智能的理念是,當(dāng)運(yùn)作良好時(shí),人們不會(huì)注意到它。”
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。