北京時間1月12日消息,據科技博客VentureBeat報道,谷歌高級研究員杰夫·迪恩(Jeff Dean)周三在人工智能前沿峰會(AI Frontiers)上表示,自2012年以來,谷歌已經把語音識別的詞錯率(WER)降低了30%以上。
詞錯率指的是谷歌將一個詞語從語音轉錄成為文字時的錯誤率。迪恩稱,谷歌已經把詞錯率降低了30%以上。谷歌發(fā)言人證實了這一數據。
迪恩稱,詞錯率的下降得益于神經網絡的使用,后者是谷歌和其他公司在深度學習中使用的一種系統。研究人員使用大量數據對神經網絡進行訓練,例如語音片段,然后讓他們對新數據作出推斷。谷歌在2012年首次將神經網絡用于語音識別中,當時正值“果凍豆”Android系統發(fā)布。
谷歌并不是經常討論公司在語音識別技術上取得的進展,該技術影響著越來越多的谷歌產品,從Google Home智能音箱到Gboard輸入法。但是在2015年,谷歌CEO桑德加·皮查伊(Sundar Pichai)曾表示,谷歌的語音識別詞錯率為8%。
蘋果Siri資深總監(jiān)亞歷克斯·阿賽洛(Alex Acero)在去年8月稱,Siri在所有語言中的錯誤率降低了兩倍,許多情況下超過兩倍。微軟則在去年9月份表示,研究人員已經將詞錯率降至6.3%。