Woof ! Je cite:
Au bout du processus, l’équipe a pu générer des représentations des données acoustiques collectées chez les chiens et les interpréter. En analysant les résultats, ils ont constaté que le modèle avait classé les enregistrements dans la bonne catégorie (jeu, anxiété, recherche d’attention, douleur, frustration…) dans 70 % des cas.
Un résultat encore assez approximatif, mais bien supérieur à ce dont sont capables les modèles entraînés exclusivement sur des enregistrements d’animaux. « C’est la première fois que des techniques optimisées pour la parole humaine participent ainsi au décodage de la communication animale », se réjouit Mihalcea.

Source: journaldugeek.com