簡介
用於智慧眼鏡上的手勢輸入法,利用Leap Motion、Google Cardboard 及搭載Android手機模擬具有Depth Sensor的智慧眼鏡
動機
智慧眼鏡可預期會是將來人們生活中相當重要的隨身智能配件,而現有的Google Glass或Microsoft Hololens主要是採用聲控達成使用者輸入文字的功能;然而聲控在比較要求寧靜的場合或是輸入內容需要保有隱私的情境下,或許並不是一套好的辦法。
系統介紹
硬體設備
系統架構
技術
SVM
我們使用libsvm.net的SVM來學習收集到的資料。設計兩個models:
此兩組models使用不同的features:
兩個models皆使用Radial Basis Model,其中有兩個可控制參數——Cost與Gamma,我們利用實驗來決定所使用的兩個參數。
每次Leap motion擷取到手部資訊,就會計算所需的features,並給SVM進行手勢判斷。然而不是每次都有對應的手勢。因此對於每次的predict,計算probability,若超過所設定的threshold才會採納此手勢。
此外,為了增加整體正確率與使用者經驗,我們計算一段時間內出現次數最高的手勢,此手勢才會被真正當作最終判斷結果並傳給手機
APP
操作說明
操作流程圖
操作細節
手勢圖
成果
confusion table
執行截圖
成果影片
未來展望
將我們實作的成果轉移到合適且成熟的智慧眼鏡平台上,成為人們在聲控以外可以依賴的另一套輸入方式。