La classification de mouvements à partir de signaux électromyographiques est la solution la plus utilisée pour contrôler des prothèses de main robotiques. Elle reste néanmoins insatisfaisante car le nombre de gestes réalisables est limité. Dans cette publication, nous présentons une approche cherchant à décrire plus fidèlement les mouvements de la main. Pour commencer, une base de données comprenant des signaux électromyographiques et des coordonnées articulaires mesurées par vision par ordinateur a été réalisée. Ensuite, un réseau de neurones a été entraîné sur cette base pour reconstruire la position de la main par exploitation des séquences électromyographiques. Les premiers résultats sont encourageants et valident les limitations déduites de nos connaissances anatomiques.