技術(shù)
導(dǎo)讀:相信很多人都會(huì)想到一個(gè)問題,我們能否利用AI的力量復(fù)制動(dòng)作預(yù)判能力呢?在AI醫(yī)療影像閱片、AI拍照等等技術(shù)之中,我們已經(jīng)可以看到AI對(duì)于專家能力的捕捉和復(fù)制。
相信很多人都會(huì)想到一個(gè)問題,我們能否利用AI的力量復(fù)制動(dòng)作預(yù)判能力呢?在AI醫(yī)療影像閱片、AI拍照等等技術(shù)之中,我們已經(jīng)可以看到AI對(duì)于專家能力的捕捉和復(fù)制。
圖片來(lái)自“123rf.com.cn”
相信了解電競(jìng)的人,一定對(duì)“預(yù)判”二字非常熟悉。在游戲中,玩家通過豐富的對(duì)戰(zhàn)經(jīng)驗(yàn),對(duì)對(duì)手的下一步動(dòng)作進(jìn)行預(yù)估并提前進(jìn)行反應(yīng)。在籃球、足球、格斗、拳擊等等活動(dòng)中也是一樣,對(duì)于高手來(lái)說,對(duì)手腰側(cè)一動(dòng)就知道對(duì)方要打出左勾拳,便可以提前做出格擋動(dòng)作。
當(dāng)然這種能力并不是誰(shuí)都能擁有,通常都是“高手限定”。只有累積下大量經(jīng)驗(yàn)加上強(qiáng)大的反應(yīng)能力才能實(shí)現(xiàn),尤其這種能力偏向于下意識(shí)反應(yīng)和直覺,很難以體系化的方式教授給更多的人。
說到這里,相信很多人都會(huì)想到一個(gè)問題,我們能否利用AI的力量復(fù)制動(dòng)作預(yù)判能力呢?在AI醫(yī)療影像閱片、AI拍照等等技術(shù)之中,我們已經(jīng)可以看到AI對(duì)于專家能力的捕捉和復(fù)制。
其實(shí)此前有不少研究者對(duì)此進(jìn)行相關(guān)嘗試,常見的方法是通過Kinect設(shè)備來(lái)定點(diǎn)采集人的動(dòng)作,將動(dòng)作轉(zhuǎn)化為數(shù)據(jù),通過機(jī)器學(xué)習(xí)方法訓(xùn)練模型,通過預(yù)測(cè)數(shù)據(jù)進(jìn)而模擬人的下一步動(dòng)作??珊芸烊藗兙桶l(fā)現(xiàn),這種設(shè)備采集式的動(dòng)作預(yù)測(cè)并沒有什么作用,因?yàn)榕浯畈杉O(shè)備會(huì)極大的阻礙人類進(jìn)行動(dòng)作,從數(shù)據(jù)采集成本上來(lái)說也相對(duì)較高。
一直以來(lái),科學(xué)家們也都在嘗試?yán)闷渌椒▉?lái)實(shí)現(xiàn)AI動(dòng)作預(yù)測(cè)。
在與他人交談,尤其是公開演講時(shí),人們常常會(huì)配上手勢(shì)來(lái)豐富表達(dá)。那么有沒有可能,這些手勢(shì)動(dòng)作進(jìn)行預(yù)測(cè)呢?在UC Berkeley和MIT的研究中,就通過聲音語(yǔ)言來(lái)實(shí)現(xiàn)了這一點(diǎn)。
研究人員收集了10個(gè)人144小時(shí)的演講視頻,一方面通過視頻智能分析算法識(shí)別出圖像中演講者手指和手臂的動(dòng)作,另一方面通過跨模態(tài)轉(zhuǎn)換技術(shù),將演講者的語(yǔ)言聲波變換與動(dòng)作變換一一對(duì)應(yīng)在一起。如此以來(lái),AI就可以通過聲音來(lái)對(duì)人類的動(dòng)作進(jìn)行下一步預(yù)測(cè)。
在發(fā)現(xiàn)了硬件動(dòng)作采集的不靠譜之后,人們慢慢開始嘗試使用其他方法,例如東京工業(yè)大學(xué)今年在IEEE上發(fā)布了一篇論文,就實(shí)現(xiàn)了在簡(jiǎn)單背景下(例如比較初級(jí)的綠幕)通過2D圖像進(jìn)行動(dòng)作捕捉和精準(zhǔn)預(yù)測(cè)。
這一方法利用殘差網(wǎng)絡(luò)將人體姿勢(shì)圖像轉(zhuǎn)換成一種2D“位置信息”,再通過LSTM學(xué)習(xí)時(shí)序位置,實(shí)現(xiàn)對(duì)于位置信息的預(yù)測(cè)。這種方式雖然對(duì)于預(yù)測(cè)對(duì)象所處的背景有所要求,但預(yù)測(cè)能力非常精準(zhǔn),能夠達(dá)到預(yù)測(cè)15幀后,即0.5秒后的動(dòng)作。
有人追求細(xì)節(jié)動(dòng)作的預(yù)測(cè),但德國(guó)波恩大學(xué)則是以更粗放的方法,追求更長(zhǎng)時(shí)間的動(dòng)作預(yù)測(cè)。以往借助AI實(shí)現(xiàn)的動(dòng)作預(yù)測(cè),通常都屬于“單步預(yù)測(cè)”,例如AI可以預(yù)測(cè)拍球一個(gè)動(dòng)作,知道球接觸到手時(shí)要向下壓,卻沒法預(yù)測(cè)拍球之后的運(yùn)球、投籃等等動(dòng)作。
而在波恩大學(xué)的研究中,研究者將RNN和CNN結(jié)合在一起,對(duì)不同動(dòng)作打上標(biāo)簽,既對(duì)動(dòng)作細(xì)節(jié)進(jìn)行預(yù)測(cè),又對(duì)不同標(biāo)簽出現(xiàn)的序列進(jìn)行預(yù)測(cè)。在這種方式之下,AI僅僅通過兩個(gè)小時(shí)的學(xué)習(xí),就能夠在人類制作沙拉時(shí),對(duì)剩下80%的動(dòng)作進(jìn)行預(yù)測(cè)。
從“怎么想”到“怎么做”:AI動(dòng)作預(yù)測(cè)能解決哪些問題?
伴隨著AI動(dòng)作預(yù)測(cè)在技術(shù)上越來(lái)越完備,這一技術(shù)的應(yīng)用場(chǎng)景也被開發(fā)的越來(lái)越多。目前來(lái)說,我們可以為AI動(dòng)作預(yù)測(cè)找到以下幾種用途。
從基礎(chǔ)角度,AI動(dòng)作預(yù)測(cè)可以幫助人類更高效的進(jìn)行體育訓(xùn)練。
在東京工業(yè)大學(xué)的案例中,用戶只需戴上VR眼鏡,就能將AI對(duì)于人類走路、格斗、搏擊甚至踢球時(shí)的動(dòng)作預(yù)測(cè)能力,以圖像的形式投射到眼前人身上。這時(shí)再進(jìn)行動(dòng)作訓(xùn)練,就可以幫助普通人更加立體化的理解動(dòng)作運(yùn)動(dòng)邏輯。至于在足球這類運(yùn)動(dòng)之中,則可以用來(lái)進(jìn)行戰(zhàn)術(shù)分析。
從更深一層看,只有掌握了利用AI預(yù)測(cè)動(dòng)作的能力,才能通過動(dòng)作細(xì)節(jié)識(shí)別視頻的真假。
我們已經(jīng)看到過很多案例,通過幾張照片和一段錄音,就能夠偽造出視頻。那么有了AI動(dòng)作預(yù)測(cè),豈不是更可以學(xué)習(xí)人類的動(dòng)作習(xí)慣,偽造出更加逼真的視頻?實(shí)際上只有當(dāng)我們研發(fā)出AI預(yù)測(cè)動(dòng)作的技術(shù)之后,才能生成對(duì)抗性鑒別器,反向?qū)σ曨l中內(nèi)容的真假進(jìn)行鑒定。
最后,只有當(dāng)AI擁有預(yù)測(cè)人類動(dòng)作的能力時(shí),人機(jī)協(xié)作才會(huì)更加高效。
很多時(shí)候我們以為AI想要和人類配合的親密無(wú)間,需要了解人類的所思所想,實(shí)際上想要達(dá)到這一點(diǎn),AI不需要知道人類“怎么想”,只需要知道人類“怎么做”。德國(guó)波恩大學(xué)提出的設(shè)想,就是讓AI能夠在預(yù)測(cè)人類動(dòng)作之后,進(jìn)行相關(guān)反應(yīng)來(lái)配合人類。例如通過預(yù)測(cè)人類拌沙拉的動(dòng)作,幫助人類拌好一份半成品沙拉。尤其是在老人護(hù)理、兒童陪伴等等場(chǎng)景之中,這些對(duì)象由于種種限制可能沒法利用語(yǔ)言與機(jī)器人進(jìn)行交互,這時(shí)機(jī)器人通過動(dòng)作預(yù)測(cè)來(lái)實(shí)現(xiàn)主動(dòng)服務(wù)就變得十分必要。
人類肉體的步步行動(dòng)無(wú)一不受精神支配,通過大腦運(yùn)作傳遞肌電信號(hào),才能調(diào)動(dòng)肌肉運(yùn)動(dòng)肢體。對(duì)于人類和AI來(lái)說,弄清大腦的運(yùn)作方式都有些困難,但如果從“半路”攔截,直接掌握肉體行動(dòng)的邏輯,或許也是個(gè)不錯(cuò)的解決方案。