Google推出Move Mirror趣味AI網(wǎng)站,可在瀏覽器中根據(jù)人體動作即時搜圖

從AlphaGo到猜畫小歌,Google一再向我們展示著人工智能的神通廣大,前段時間Google又推出一個新的AI實驗網(wǎng)站 Move Mirror 。

Move Mirror是一個人工智能實驗,通過移動讓你以一種有趣的新方式來探索圖像,當你在攝像頭前移動時,Move Mirror會通過你的實時動作判定你的人體姿勢,與數(shù)百張在世界各地做類似姿勢的人的圖像相匹配,篩選出與你的姿勢最相近的圖像。你甚至可以捕獲做一個GIF圖,與你的朋友分享它。

大概的運作原理是:它會利用PoseNet來鏡像圖像中人體姿勢的關(guān)節(jié)對應(yīng)位置,分析后從有80000張素材的數(shù)據(jù)圖庫中對比出與你姿勢最接近的圖像,而這個過程僅僅需要15ms。并且搜索結(jié)果會即時比對隨時變更。

這這要歸功于TensorFlow.js,這是一個允許你在瀏覽器中運行機器學習項目的Javascript庫。通過將PoseNet移植到TensorFlow.js,任何擁有配備好網(wǎng)絡(luò)攝像頭的PC或手機的人都可以在Web瀏覽器中體驗和使用這項技術(shù)。關(guān)于隱私,當PoseNet由tensorflow.js驅(qū)動時,這就意味著姿態(tài)估計直接發(fā)生在瀏覽器中,你的圖像不會被儲存或發(fā)送到服務(wù)器,所有的圖像識別都在本地進行。所以你可以放心去做一些看著很搞笑或有點蠢的動作。

上段說到PoseNet這是一個由劍橋大學開發(fā)的姿態(tài)估計開源工具,允許任何Web開發(fā)人員完全在瀏覽器中進行基于身體的交互,不需要特殊的相機或C++/Python技能,這是非常先進的姿勢估計模型,即使是一些模糊,低分辨率,黑白的圖片,也可以從圖像數(shù)據(jù)中提供高度準確的姿勢數(shù)據(jù)。PoseNet可以通過簡單易獲取的Web API降低了姿態(tài)估計的入門門檻。

姿態(tài)匹配和搜索是Move Mirror面臨的難點。

PoseNet在面部和身體上檢測17個姿勢關(guān)鍵點。每個關(guān)鍵點都有三個重要的數(shù)據(jù):(x,y)坐標位置(表示PoseNet發(fā)現(xiàn)該關(guān)鍵點的輸入圖像中的像素位置)和一個置信度得分(PoseNet對猜測的正確程度有多大)。

12下一頁>

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-08-13
Google推出Move Mirror趣味AI網(wǎng)站,可在瀏覽器中根據(jù)人體動作即時搜圖
從AlphaGo到猜畫小歌,Google一再向我們展示著人工智能的神通廣大,前段時間Google又推出一個新的AI實驗網(wǎng)站 Move Mirror 。

長按掃碼 閱讀全文