L'Intelligence Artificielle Speech2Face développée par le célèbre Massachusetts Institute of Technology américain permet de recréer des visages humains en utilisant simplement le son de leur voix. Pour y parvenir, les chercheurs ont fait visionner à leur IA des vidéos YouTube, ainsi que des vidéos issues d'autres sources. Une fois les données collectées, un algorithme a été développé qui permet de reconstituer des visages réalistes à partir de ces simples extraits de voix.
Selon les chercheurs du MIT leur méthode "ne peut pas reconstituer la véritable identité d'une personne à partir de sa voix . Notre modèle est entraîné à capturer les traits visuels (liés à l'âge, le genre, etc...), communs à de nombreux individus et dans les cas seulement où il y a suffisamment de preuves pour connecter ces traits visuels aux attributs vocaux des données. Le modèle produira uniquement des visages communs, moyens, aux traits visuels caractéristiques. Il ne pourra pas produire d'images d'individus spécifiques."
Cet algorithme qui ne permet donc pas actuellement de reconstituer les visages d'individus spécifiques, pourrait pourtant être utile pour mettre un visage sur une voix, et ainsi avoir une idée sur l'identité d'une personne recherchée.
Selon les chercheurs du MIT leur méthode "ne peut pas reconstituer la véritable identité d'une personne à partir de sa voix . Notre modèle est entraîné à capturer les traits visuels (liés à l'âge, le genre, etc...), communs à de nombreux individus et dans les cas seulement où il y a suffisamment de preuves pour connecter ces traits visuels aux attributs vocaux des données. Le modèle produira uniquement des visages communs, moyens, aux traits visuels caractéristiques. Il ne pourra pas produire d'images d'individus spécifiques."
Cet algorithme qui ne permet donc pas actuellement de reconstituer les visages d'individus spécifiques, pourrait pourtant être utile pour mettre un visage sur une voix, et ainsi avoir une idée sur l'identité d'une personne recherchée.