[1]
Seminarium Specjalnościowe
Rozpoznawanie gestów z wykorzystaniem kontrolera Leap Motion
algorytmy i badania eksperymentalne
Autor
inż. Krzysztof Wolski
Programista Python, JS, C#
Zainteresowania:
- Zastosowania informatyki w medycynie
- UX
- webdev
- gamedev

Konspekt
- Temat pracy
- Harmonogram
- Postępy
- Prognoza
Temat
Prowadzący
Rozpoznawanie gestów z wykorzystaniem kontrolera Leap Motion - algorytmy i badania eksperymentalne
prof. dr hab. inż. Marek Kurzyński
Leap Motion
Niewielkie urządzenie przechwytujące ruchy dłoni
Interfejs USB
Stereoskopia z kamerami IR
Prawie 300 kl/s
API dla C++, C#, Python, Java


[1][2]
[3]
Harmonogram
-
listopad - grudzień 2014
- ustalenie szczegółów tematu
- zgromadzenie literatury
- rozpoczęcie prac nad aplikacją
-
styczeń 2015
- zebranie danych doświadczalnych
- pierwsze prototypy aplikacji
-
luty - kwiecień 2015
- rozwijanie funkcjonalności aplikacji
-
kwiecień - maj 2015
- eksperymenty
- dokumentacja badań
Problem: Unity + AForge
- Unity wykorzystuje Mono
- Błędy przy integracji z dostępną wersją Unity
Rozwiązanie: Python
- API LeapMotion działa z Pythonem
- Zmiana AForge na PyBrain
- Prezentacja danych w Matplotlib
Konsekwencje
- Trudniejsza optymalizacja
- Brak wizualizacji 3D
Problem: Rodzaj gestów
- ASL + Leap Motion = pudło
- Motion Savvy chyba się przeliczyło
- Alfabet ASL = pudło
Rozwiązanie: Pozycja zamiast poza dłoni
- Pewniejszy odczyt
- Wykonanie gestu rozpoczyna rozpoznawanie
- Mniej błędów rozpoznania

Zagadnienia
- Biblioteka Theano
- CNN - Convolutional Neural Networks
- Deep Learning
- Obliczenia GPU
- Zwiększenie zbioru treningowego
Prognozy?
Wszystko będzie dobrze.
Źródła
https://www.leapmotion.com/product/
https://learn.sparkfun.com/tutorials/leap-motion-teardown
http://www.motionsavvy.com/
Dziękuję za uwagę
Seminarium Specjalnościowe 4
By Krzysztof Wolski
Seminarium Specjalnościowe 4
- 590