Architecture
由於我們利用深度學習的方法進行眼球追蹤,因此計算過程中將消耗大量的 GPU 資源。為了確保我們的系統能夠在所有裝置上順利地運行,我們決定將眼球追蹤相關的運算移至遠端的伺服器上。
我們透過 ZeroMQ 函式庫建構了一個 client-server 的系統來滿足連線的需求。使用者在 local 端執行 client 程式,client 與 server 成功連線之後會開啟 web camera 進行拍攝,並利用 Dlib 函式庫擷取畫面中的人臉回傳 server;運行在遠端伺服器上的 server 程式收到 client 傳來的臉部圖片後會將圖片通過 CNN Model,計算出使用者的 gaze point。client 收到 server 回傳的結果後判斷使用者的 gaze point 是否坐落於應該凝視的範圍內,再決定是否要透過瀏覽器對使用者進行提醒。