但令人無奈的是,AI的很多特征確實能夠與極端情況和復雜環(huán)境相結(jié)合,類似技術很難在民用市場找到落腳點,軍用AI也就順理成章作為了技術加持的方向。但是換個角度想想,如果軍用AI容易引發(fā)普遍恐慌,那么切換到警用會不會好很多?
AI機器人代替人類做警察會是什么樣的場景
用AI來加持公共安全,提升警方的工作效率,似乎是個不錯的主意?
當然,我們距離經(jīng)典的《機器戰(zhàn)警》還有很長的路要走。但在我們平時很少關心的警用技術世界里,AI從未缺席。甚至很多非常前沿,有點科幻味道的技術已經(jīng)投身到了實戰(zhàn)中。
就像眾多AI應用領域一樣,在AI+公共安全的旅程上,爭議和焦慮感也是必不可少的話題。今天讓我們來盤點一下警用AI的發(fā)展方向、層次和背后引起的爭論。
在很多警匪片中,我們經(jīng)常會分不清臥底和警察。說不定未來某一天,我們會分不清執(zhí)法的是真人警察還是AI警察。想想也是怪有意思的。
工利其器:從警具開始的AI進化
羅馬不是一天建成的,AI警察也不可能馬上取代人類。
在現(xiàn)實里,AI的首要任務是升級警察叔叔手里的警具,讓他們不用那么辛苦…
美國電影中,警察用發(fā)射帶電飛鏢的泰瑟槍制服嫌犯(有時候是主角)的畫面可謂深入人心。而泰瑟槍的制造商Axon如今已經(jīng)開始了全面的AI化轉(zhuǎn)型。
AI機器人代替人類做警察會是什么樣的場景
比如他們就把AI技術用到了執(zhí)法記錄儀中。
已經(jīng)被美國多地警方裝配的AI執(zhí)法記錄儀,可以通過攝像頭背后的算法識別和分類功能,來對執(zhí)法信息進行全自動編輯和存檔。這個功能原理等同于我們手機中的圖片識別,但要建立在海量數(shù)據(jù)庫和針對警用信息的強化機器學習基礎上。有了這個能力,執(zhí)法警員就不必再對拍攝的資料進行大量剪輯、歸檔,從而節(jié)省下工作時間。
依靠警用設備起家的Axon,如今已經(jīng)將企業(yè)目標全面設定為AI化。他們希望通過AI帶來的識別、判斷和主動分析能力,來取代警察所有的文書和資料編輯工作。
假如你覺得只是取代文書工作不太給力,那當然還有更強悍的。比如用AI來配合審訊。
日立和麻省理工合作推出過一個AI攝像頭解決方案,可以精準識別出被拍攝人的心跳、脈搏等數(shù)據(jù)。這項技術的一個應用場景就在在審訊時監(jiān)控嫌疑人的生理狀況和面色變化等,并得出嫌疑人可能說謊或者精神高度緊張等結(jié)論。
AI機器人代替人類做警察會是什么樣的場景
這項技術的價值在于它并沒有收集太多嫌疑人資料,而是將一個審訊員察言觀色的能力集成到了AI上,為審訊提供輔助。當然了,目前這類技術才剛剛開始。
還有一個很大的市場,叫做警車。
就在不久之前,美國媒體披露福特申請了一項新的自動駕駛警車專利。
根據(jù)相關信息,福特的新警車不僅能夠自動駕駛,還可以通過車載攝像頭和傳感器去發(fā)現(xiàn)街上其他車輛的違規(guī)信息,同時它還能連接到公共攝像頭等設備,組成立體化的車輛自動執(zhí)法體系。
AI機器人代替人類做警察會是什么樣的場景
根據(jù)專利信息,這種自動警車可以在不用人類介入的情況下自己開出罰單,甚至還能根據(jù)事態(tài)來主動追蹤甚至跟蹤嫌疑車輛。
你的違章罰單竟然是一輛車給開出來的,這聽起來夠神的吧?然而福特只是自動駕駛警車眾多玩家中的一個而已,隨著自動駕駛產(chǎn)業(yè)的深入,更高應用度的警用車市場恐怕是兵家必爭之地。
我是城市的眼睛和耳朵:攝像頭背后的超級AI警察
以上說的那些AI,放在警匪片里顯然都是配角。但是演主角的心是每個人都有的,AI大概也不例外。
如果AI能夠為我們做一些人類警察做不到的事情,那么它們當然也就順勢上位了。比如說,同時看完城市中無數(shù)個攝像頭的拍攝數(shù)據(jù)。在城市攝像頭網(wǎng)絡與公眾安全這幕大戲中,AI已經(jīng)準備作為一名“超級警察”粉墨登場。
城市攝像頭背后的AI,第一個任務當然是從人海中找出逃犯。記得當年抓周克華的時候,警方出動了大量警員日夜不停的看監(jiān)控,假如AI能夠快速完成這項工作,那當然一大善舉。
以今天人臉識別的完成度,近距離認出逃犯數(shù)據(jù)已經(jīng)毫不困難。難點是要在城市攝像頭拍攝到的人山人海中精準識別出某個人臉數(shù)據(jù)。比如歐洲一個叫做Indect的攝像頭+人臉定位項目,就號稱能在足球場定位觀眾席里的嫌犯。用攝像頭+人臉識別抓捕逃犯的技術在中國也得到了飛速發(fā)展,很多機器視覺公司提供類似的算法解決方案。
另一個攝像頭背后的AI安全應用,是預判人流密集度,從而實時示警引導人群疏散。我們這樣的人口大國,在人群密集時發(fā)生踩踏事故是重要的社會安全隱患。用AI識別人流擁擠程度是有效的解決方案。在今天中國很多一二線城市里,城市攝像頭背后的AI預警裝置已經(jīng)開始上崗工作。
與人流控制相似,車流控制也是城市安全AI的一個主攻方向。比如通過攝像頭判斷車禍發(fā)生從而第一時間報警,甚至通過車輛行駛軌跡異常來判斷酒駕和疲勞駕駛。這些都已經(jīng)在今天部分中國城市中得到了應用。
AI機器人代替人類做警察會是什么樣的場景
比較好玩的是,負責城市安全的警用AI不僅能“看見”,還能“聽見”。
硅谷一個創(chuàng)業(yè)公司開發(fā)了名叫ShotSpotter的城市警用系統(tǒng),它的能力是從通過城市里的麥克風,借助AI能力在復雜的城市聲音中識別出槍聲。一旦聽見槍響,系統(tǒng)就會自動向警方報警,并準確定位槍擊事發(fā)地。
當然了,能看能聽之外,還能想就最好了。別急,這個AI也能。2016年,富士通與日本電子通訊大學公布了一個合作項目,內(nèi)容是通過城市攝像頭監(jiān)控到犯罪事件之后,AI系統(tǒng)自動規(guī)劃出警方案和警力調(diào)配計劃。其算法包括就近警力分配原則、預判嫌犯逃跑路線,還能設計出封閉道路和設置路障的方案。目前這個系統(tǒng)在人口密集、地形復雜的東京,已經(jīng)可以五分鐘內(nèi)給出一個警力調(diào)配方案。
躲在攝像頭背后的AI警察,已經(jīng)開始在全世界上班,注視著城市的一舉一動。假如你覺得這還是不夠厲害,那……預測犯罪了解一下?
《少數(shù)派報告》看過沒?大預測術已經(jīng)在路上
不知道今天提《少數(shù)派報告》是不是一件暴露年齡的事…但一說到AI預測犯罪,還是會首先聯(lián)想起電影里的“先知”系統(tǒng)。
現(xiàn)實世界里的預測犯罪系統(tǒng)沒那么神,但它的前沿研究已經(jīng)在某種程度上開始向著玄學蕩漾…
AI機器人代替人類做警察會是什么樣的場景
提起預測犯罪,就不能不提到警用科技界赫赫有名的PredPol公司。雖然IBM、摩托羅拉等企業(yè)都涉足預防犯罪系統(tǒng)這個市場,但2012年才建立的PredPol已經(jīng)覆蓋了全美上百個地區(qū)的警局,在降低犯罪率上給出了很強勢的數(shù)據(jù)反饋。
PredPol的業(yè)務說起來沒那么神秘。它的基本邏輯是根據(jù)過往犯罪率曲線,和不斷變化的犯罪事件時間、地點等數(shù)據(jù),通過一個大數(shù)據(jù)分析算法,來得出哪個街區(qū)犯罪事件高發(fā)、哪條街道搶劫事件較多、哪個時間段城市比較危險這樣的數(shù)據(jù)結(jié)論。從而指導警方調(diào)整巡邏路線和巡邏時間,把更多警力投入到犯罪率偏高的時間地點上去。
AI機器人代替人類做警察會是什么樣的場景
這事好像聽起來也沒什么,任何警員肯定都知道重點巡邏這件事。但以前重點巡邏靠的是個人經(jīng)驗,而且整個警隊難以統(tǒng)籌協(xié)調(diào)。PredPol在6年間擴大了幾十倍的使用率,已經(jīng)在某種程度上說明了這種“犯罪預測”是有效的。
類似方案已經(jīng)開始從美國拓展到其他國家。比如前幾天日本神奈川縣警方剛向財政部門申請研究經(jīng)費,希望能為2020年東京奧運會建立一個預測性治安體系。結(jié)合大數(shù)據(jù)體系和AI分析能力來設定更嚴密的安全保護機制。
如果覺得已經(jīng)投入使用的系統(tǒng)不夠神,那我們應該看看更前沿的研究。PredPol最早并不是一個警用科技創(chuàng)業(yè)項目,而是兩名科學家的研究成果。其中一個站在PredPol背后的男人,就是加州大學洛杉磯分校的杰夫·布蘭汀漢姆教授,他是今天“預測犯罪”領域的先驅(qū)和代表人物。
不久之前,杰夫·布蘭汀漢姆團隊在名為《Partially Generative Neural Networks for Gang Crime Classification》的論文中提出了這樣一種設想:用深度學習網(wǎng)絡來識別幫派犯罪的特征,從而將幫派分子從人群中識別出來。
事情到了這里,大概有一點“科幻”的味道出來了。
在布蘭汀漢姆團隊的研究中,他們收集了洛杉磯警局2014年到2016年所有關于黑幫犯罪的數(shù)據(jù),輸入到一個深度學習神經(jīng)網(wǎng)絡中,由算法自動生成對于幫派犯罪的特征理解和行為框架。很多案件中缺失的證據(jù)環(huán)節(jié)也將有AI來主動補完。經(jīng)過長時間的訓練,AI開始掌握了一套對幫派犯罪和黑幫分子的獨特理解?;氐浆F(xiàn)實中,當警方把新的嫌犯信息輸入進AI系統(tǒng)后,就可以由AI來判斷該人是不是參加了幫派組織和幫派犯罪。
AI機器人代替人類做警察會是什么樣的場景
布蘭汀漢姆團隊提出的城市時空犯罪預測模型
研究人員表示,這項研究的未來目標是在缺少很多數(shù)據(jù)的情況下,依舊能判斷嫌疑人是否參加了幫派……可以說是非常激進的技術了。
千萬不要以為這項技術僅僅是科學家搞著玩的,人家可是明確拿到美國國防部的資助,目標是以時空博弈論和機器學習技術打擊極端主義。在幫派犯罪預測之后,布蘭汀漢姆團隊還將在具體犯罪種類預測和實時預測犯罪上展開進一步探索。
顯然,不管你愿不愿意,AI預測犯罪的“大預言術”已經(jīng)向現(xiàn)實逼近。而一路伴隨他的,是關于隱私、歧視和不靠譜的爭議。
要安全還是要隱私:警用AI的原罪博弈
去年,谷歌曾經(jīng)發(fā)長文指出,中國某高校用人臉數(shù)據(jù)來預測罪犯的研究十分不靠譜。原因是這項研究分析了犯罪分子數(shù)據(jù)庫,從而得出了“某種面部特征的人更容易犯罪”,顯然是把兩種不相關的信息強行結(jié)合到了一起。
這場類似于“相面”的AI鬧劇告訴我們這樣一種可能:我們太想知道未來,也過分愿意做數(shù)據(jù)歸因。很多看似神奇的結(jié)果,可能都是在這兩種有問題的心理下被強行得出的。
比如就有批評者指責上文提到的AI幫派犯罪預測。由于其數(shù)據(jù)來源完全是洛杉磯警察局提供的案件信息和警察得出的結(jié)論。那么AI想要判斷準確,就必須建立在洛杉磯警察局所有判斷都正確的基礎上,而對于幫派犯罪來說,這顯然不可能。
數(shù)據(jù)關系之間的牽強,讓很多預測類的警用AI從一開始就備受質(zhì)疑。而其深度學習過程中的黑箱性也是觀察家和民眾批評的焦點:研究者都不明白AI是怎么預測犯罪的,居然就敢說我有問題?
更無奈的是,技術問題還僅僅是警用AI科技面臨的第一重困境而已。向上一層則會撞上非常難辦的歧視問題和隱私問題,在道德困境面前,技術會更加束手無策。
比如說前面說過的AI預測重點巡邏地區(qū)。這件事在日本還沒開始,就已經(jīng)有媒體提出這很有可能加大警方對某幾個具體區(qū)域的巡邏強度,從而讓這個區(qū)域的居民和店鋪產(chǎn)生不滿。
在美國這種不滿早就洋溢出來了,2016年美國公民自由聯(lián)盟曾經(jīng)聯(lián)合十幾個人權組織發(fā)表聲明,認為警方用AI作為巡邏,甚至審訊和逮捕的工具并不恰當。其背后隱藏著警察系統(tǒng)對某些社區(qū)甚至某些族裔居民嚴重的偏見。
也有媒體比較陰謀論地認為,加州很多城市的警方過度熱愛搞一下AI預測犯罪的技術,或許含有警方希望在缺少或者沒有證據(jù)的情況下實施執(zhí)法的可能。
而關于隱私的爭論就更嚴重了,城市攝像頭追逃按說已經(jīng)是比較“溫柔”的技術,但還是有很多聲音批評這些能夠高高在上認出街上每一個人的技術,其實是對居民隱私的破壞。“不被認出來”也是隱私權力之一,更何況數(shù)據(jù)如何應用居民也無法自主。
AI機器人代替人類做警察會是什么樣的場景
當警方手里的識別工具越來越強力,犯罪分子的活動空間當然會越來越小,但普通居民感到的隱私壓抑感也會隨之上升。在AI識別能力爆炸式發(fā)展的今天,這可能會是一個無法圓滿解釋的矛盾。
在警用AI科技領域,強調(diào)公眾安全還是強調(diào)居民隱私,優(yōu)先考慮技術的妥善度還是應用效率,處在一場無止境的博弈里。
AI從來都是一把雙刃劍,這點在安全領域給人的感受尤其明顯。