雲栖号資訊:【 點選檢視更多行業資訊】
在這裡您可以找到不同行業的第一手的上雲資訊,還在等什麼,快來!
編者按:本文來自微信公衆号“量子位”(ID:QbitAI),作者:梅甯航,36氪經授權釋出。
谷歌在開發可穿戴裝置上從未停歇,比如和李維斯合作推出的智能夾克衫Commuter Trucker。
衣服上的袖口加裝一塊傳感器,使用者可以通過藍牙連結與之進行互動。
可以通過輕按兩下、滑動等操作進行切歌等操作。

再接再厲,谷歌希望能夠把裝置做的小一點,功能更豐富一點。
谷歌随後盯上了耳機線。
谷歌AI工程師開發了一款電子互動式編織物(E-Textile),可以讓人通過捏、搓、握、拍等手勢實作以往觸摸屏的大部分功能。
音量控制、切歌換歌等操作更是不在話下,谷歌的新功能指向的是下一步的感覺互動,最終目的解放我們的雙手。
手勢資料集的訓練過程
谷歌開發的此款裝置是機器學習算法和傳感器硬體的結合,而耳機線隻是承載物。
實際上線不是普通的耳機線,是柔性電子材料,并且将傳感器編織進内,是以可以進行人機互動。
如果你喜歡,連帽衫也可以改造。
首先谷歌招募12名參與者進行資料采集,各做8個手勢,重複9次,共計864個實驗樣本。
為解決樣本量過小的弊端,研究者使用線性插值對每個手勢時間序列進行再采樣。
每個樣本提取16個特征,最終得到80個觀察結果。
每位使用者經過訓練的手勢識别可啟用8個新的離散手勢。
不僅有定量的數字,還有參與者的切身感受,研究者希望提供以人為本的互動體驗。
參與者還通過排名和評論提供了定性回報,參與者還提出了多種互動方式,包括滑動、彈指、按壓、捏、拉、擠等。
定量分析結果表明,互動式編織品的感覺速度比現有的耳機按鈕控件要快,并且速度可與觸摸屏媲美。
谷歌用AI訓練“耳機線”,實作了觸摸屏大多數功能
量子位 · 18小時前
搓揉耳機線,就能切歌調音量
而定性回報還表明,與耳機線控相比,電子紡織互動更受青睐。
考慮到不同的使用場景,研究者為不同的使用場景開發了不同的裝置:
電子紡織USB-C耳機,用于控制手機上的媒體播放;帽衫抽繩,以無形地向衣服添加音樂控制。
算法對手勢的精準識别
谷歌能做出電子編織物,難點并不在于機器學習的算法,而在于如何在耳機線上進行手勢捕捉和互動。
耳機線等編織物出于體積考慮,無法安裝大型和衆多的傳感器,感覺和分辨能力非常受限。
其次是人手姿态的暧昧性和多義性,比如捏和抓到底怎麼區分,拍擊和上拉怎麼分辨?
谷歌工程師用8個電極組成傳感器矩陣,對資料集進行劃分為8次為訓練資料,1次為測試資料,得到9個手勢的變換。
他們發現傳感矩陣中存在固有關系,非常适合機器學習分類算法,這使得分類算法可以運用有限資料集進行訓練,大約隻需要30s,便可實作一個手勢識别。
最終準确率為93.8%,考慮到他們所使用的資料集規模和訓練時間,這個精度足夠日常使用了。
耳機操控的下一步
谷歌此次對耳機線的訓練,涉及手勢姿态識别和微觀互動兩個内容。
在觸摸屏裝置上,螢幕下方空間可容納衆多傳感器,比如蘋果的3D Touch識别子產品。
但在諸如耳機線等體外裝置上,可能就沒有這麼輕松了,因為傳感器數量和體積要受到限制。
實驗過程中,工程師們發現需要對多種手勢的多次訓練,而且不同個體手勢需要多次捕捉動作。
這項研究顯示了一種可以在一個緊湊的外形尺寸物體中實作精确的小規模運動可能,我們可以期待智能可互動編織物的發展。
有一天。可穿戴式界面和智能織物的微互動可以任意使用,最終讓體外裝置如影随形,随時互動,最終解放我們的雙手。
你期待這一天嗎?
參考連結:
https://ai.googleblog.com/2020/05/enabling-e-textile-microinteractions.html https://dl.acm.org/doi/fullHtml/10.1145/3313831.3376236【雲栖号線上課堂】每天都有産品技術專家分享!
課程位址:
https://yqh.aliyun.com/zhibo立即加入社群,與專家面對面,及時了解課程最新動态!
【雲栖号線上課堂 社群】
https://c.tb.cn/F3.Z8gvnK
原文釋出時間:2020-05-21
本文作者:量子位
本文來自:“
36kr”,了解相關資訊可以關注“
”