天天看點

我把無人車的避障技術裝進了iPad,刺激手部為盲人導航,雜貨間也能暢通無阻

根據世界衛生組織的資料,截止去年,全世界共有3900萬人失明,2.5億人視力受損。

對于這些人來說,出行是亟需解決的首要大事。目前市面上已經有多個針對盲人的出行工具,比如智能手杖等。

但是這些工具的适用場景更多是在室外,在狹窄的室内,要使用一根長長的手杖,就顯得有些局促了,于是,這個名叫Shane Wighton的YouTube部落客就利用iPad做了一款便于在室内行走的工具。

老規矩,先來看看效果如何:

可以看到,在高處有木闆的情況下,也能順利低頭行進:

oops,撞到了一個膝蓋高的工具箱。别擔心,這是Wighton想看他的妻子“翻車”,故意設定的。(默默地又吃了把狗糧)

完整(無字幕版)視訊戳這裡:

有網友評論道,“你應該管這叫‘Eyepad’”。

也有網友開玩笑地表示,“我的盲人朋友看到這個一定會很開心的”。

其實前陣子大火的百發百中籃球框和腦洞大開的自動剪頭發機器也是這個YouTube部落客發明的,真想敲開他的小腦袋瓜看看裡面都裝了些啥。

在這次的項目中,Shane Wighton表示,他所用的這個方法不是最簡單的,但卻是在他看來最有挑戰性的。既然如此,那我們也就來看看這個方法是怎麼實作的~

等等!那個“保溫杯”是什麼?

在上述示範畫面中,你可能會注意到,和正常的iPad最大的不同是,Wighton的iPad上配置了一個像保溫杯一樣的東西,别小看了它,這其實就是整個導航系統的關鍵。

越看越像保溫杯👆

在視訊中,Wighton介紹道,這個小東西看起來不起眼,動手做起來也還是有點複雜,主要包括了以下材料:

一個微處理器(microcontroller);

藍牙連接配接子產品;

兩個步進馬達驅動器(stepper motor driver)。

如果要把這個導航系統真正做成一個産品的形式,可能還需要加上一塊電路闆。

同時,Wighton表示,考慮到和iPad的尺寸比對,和目前的運作情況,他也沒有再去進一步地把整個裝置的尺寸進一步縮小處理。

但是,可以看到,這個“保溫杯”有點太搶眼了,畢竟用小指針向上運動刺激手指關節也不需要特别大的動力。

但是管他呢,現在這個“保溫杯”造型還蠻吸睛的。

其他還需要的零部件和購買連結都在視訊下方的介紹中貼出來了,大家感興趣的可以按照這個去采購一波:

部分零件清單

iPad還能這樣玩?感覺自己買了個假貨

解決了“保溫杯”之謎後,我們首先來看看Wighton是怎麼利用iPad的LiDAR來實作障礙物識别的。

在這方面,Wighton首先就遇到了史上最大的困難——他沒有搭載了LiDAR的最新版iPad。

于是他就和妻子進行了一番協商:

I don't have a choice here. I have to get this. It's to help humanity.

Really? Humanlity? Don't think about it.

似乎突然能了解為什麼他想看妻子“翻車”了。(手動狗頭)

根據LiDAR的工作原理,它能夠計算出光線從鏡頭射向物體、再從物體傳回鏡頭的時間,再考慮到光的傳播速度,整個過程大約隻需要25納秒。

也就是說,根據這25納秒内發射再傳回的光線,就能夠知道障礙物距iPad有多遠了。這也是自動駕駛汽車的技術原理。

居然還配了Apple Pencil,該打!

可以簡單試想一下具體場景的工作情況,比如在如下場景,标黃的牆和标紅的椅子是障礙物,要避開,能夠通行的是中間的青色區域。

在視覺上識别障礙物和通路之後,還要把這種視覺資訊轉換成針對手指關節的刺激,比如,如果該障礙物離你很近,這個刺激可能就會比較大,相反,如果物體較遠,給到的刺激也就相應較小。

于是,通過手部刺激,就“繪制”出了一張你周圍的地圖。

這還不止,當換成俯視圖時,我們會發現,還存在鏡頭看不見的地方,就是牆背後标黃的未知區域,要把已知區域和未知區域區分,在已知區域的分支下進行上述刺激轉換,難度瞬間就蹭蹭蹭往上竄了不少。

接下來就是沒日沒夜的程式設計和設計,又看到了熟悉的工作場景:

準備就緒之後,我們打開iPad中的這款應用程式“HandEyes”,可以看到整個界面比較簡潔,右側就是簡單的控制按鈕,用以切換視角和鏡頭放大,當拿着iPad在屋裡行走的時候,也能很友善地進行控制。

在左邊,有一個紅色按鈕,這是對深度資料(depth data)的一個預覽,能夠幫助看清鏡頭前方的路況。不過,Wighton表示,要是iPhone也支援LiDAR的話,整個裝置就可以再簡便很多。

給手一個刺激,你就能“撬起”所有障礙

“看”的步驟搞定了,怎麼把視覺資訊轉換成手部刺激呢?這就輪到“保溫杯”出場了。

Wighton介紹道,與身體其他部位相比,我們的手相對而言就足以敏感,能夠根據外部刺激正确辨識來源方向。

比如針對上述場景,就能轉換成下圖右下方藍色區域内的刺激示意圖:

也就是說,在每根手指的每個關節處施以不同強度的刺激,就能幫助更好地複現障礙物的方向和位置距離。

把這個原理圖做出來大概就是這個亞子:

接下來的工作,就是沒日沒夜地組裝“保溫杯”了:

大緻的過程差不多就是這樣了,從效果上看,這個導航系統還是十分完美的,尤其是當熟用之後。

不過,根據Wighton的制作回報,這個導航系統比他想象的還要難做。要是大家感興趣,也可以自己動手試試~

除了利用AI檢測障礙物,這個智能手杖還搭載了語音助手和谷歌地圖

正如上文所說,這款EyePad的實用價值在室内更能明确展現,想要出門散步的話,可能還是要用到智能手杖了。

目前,為給盲人提供更為安全和便利的出行服務,國内外都已經發明了多項技術,比如這款智能手杖WeWalk,就能彌補EyePad在戶外場景的應用缺失。

值得注意的是,WeWalk聯合創始人Kursat Ceylan也是一位盲人,這不僅讓他有了研發熱情和動力,也使得WeWalk手杖能夠更加貼合盲人自身所需要的各種服務。

官網連結:

https://wewalk.io/en/

據Ceylan介紹,在障礙物識别上,這款手杖配備了AI技術,最遠能夠檢測出160cm外、與使用者胸部高度齊平的物體。

同時,手杖還搭載了亞馬遜的語音助手Alexa和谷歌地圖,通過藍牙連接配接,使用者可以與手杖語音交流,進一步護航盲人的室外出行。目前該手杖已支援英語、法語、意大利語、西班牙語、葡萄牙語、土耳其語和阿拉伯語。

除此之外,根據協助開發該産品的Jean Marc Feghali表示,他們不僅想要做一根“聰明”的手杖,還希望把手杖與運輸網絡和自動駕駛汽車進行融合。比如,WeWalk可以與交通信号燈互動,使用者在過馬路的時候無需按下按鈕,以及可以提醒使用者在公共汽車特定站點等待。

不管是EyePad還是智能手杖,技術正在為更多人做出貢獻,這本身不就是一件好事嗎?

繼續閱讀