Un projet collaboratif, des millions d’images et de l’intelligence artificielle
pour développer un outil de reconnaissance automatique des espèces animales en France

Cette dernière décennie, les pièges photographiques sont devenus essentiels au recensement de la faune et au suivi et à la gestion de nombreuses espèces. Les images collectées, souvent des centaines de milliers, doivent cependant être inspectées une à une, une tâche longue et fastidieuse. Une alternative se dessine néanmoins, grâce à l’intelligence artificielle et au développement des algorithmes de classification. En particulier, les modèles dits d'apprentissage profond (deep learning) sont extrêmement puissants et laissent entrevoir la possibilité d’automatiser le tri des images et la classification des espèces. A l’heure actuelle il n’y a cependant pas de modèle disponible applicable à la faune française hexagonale.

Développer un tel modèle est l’objectif principal du projet DeepFaune.

Le succès de la phase d’apprentissage des modèles de classification repose sur le fait d’avoir accès à des milliers d’images annotées, c’est à dire des images pour lesquelles l’espèce présente a été identifiée par une personne. De tels jeux de données sont extrêmement rares. Le projet DeepFaune a donc initié une approche collaborative avec de nombreux partenaires pour construire, en agrégeant les images de ceux-ci, une très large base d’image annotées.

Finalement, pour que DeepFaune soit utile au delà d’un exercice académique, un logiciel simple permettant aux utilisateurs de pièges photographiques de classer leurs images à l’aide du meilleur modèle DeepFaune est en cours de réalisation.

Données et Modèle

Deep Learning en action

Construction du jeu de données

Plus de trente partenaires ont contribué à la base de données d’images annotées, permettant d’obtenir plus de 400 000 images et des milliers de vidéos. Plus de quarante espèces ou groupes taxonomiques supérieurs (ex : oiseaux) sont présents dans ces images.

Développement du modèle

Notre approche est constituée de deux étapes: une première étape de détection de l’animal dans l’image, puis une étape de classification où le modèle identifie l’espèce ou le taxon auquel l’animal appartient. Pour cette étape de classification nous utilisons l’approche de transfer learning qui consiste à développer des modèles de reconnaissance sur la base de modèles préexistants, même si ceux-ci peuvent être éloignés de la tâche de classification que l’on souhaite réaliser.

Approche en deux étapes pour la reconnaissance des taxons présents dans l’image.

Performance du modèle

Les performances du modèle évoluent régulièrement au gré des améliorations que nous y apportons et de l’ajout d’images à la base de données.

Si vous avez identifié des espèces sur des images de pièges photographiques, vous pouvez nous aider à améliorer le modèle, alors n’hésitez pas à nous écrire pour contribuer !

Les versions récentes du modèle, que vous trouverez dans la section ‘Logiciel’, ont été entrainées à reconnaitre au moins 18 espèces ou taxons communs de France hexagonale, les humains et les véhicules, ainsi que les images vides.

Le modèle permet de classer les images de pièges photographiques, prises le jour ou la nuit, dans une classe vide ou dans une classe correspondant à l’un des taxons étudiés (blaireau, bouquetin, cerf, chamois, chevreuil, chien, écureuil, lagomorphe, félin, loup, marmotte, micromammifère, mouton, mouflon, mustélidé, oiseau, renard, sanglier, vache) ou à la classe humain/vehicule. Un indice de confiance est associé à chaque prédiction, permettant de déterminer la fiabilité des résultats du modèle.

Exemples de succès de prédiction (fiables) et d’échecs (non-fiables) triés grâce à l’indice de confiance.

Le modèle possède une performance globale de plus de 92% sur le jeu de validation (i.e. 92% des prédictions du modèle sont justes, sur des images de la base de données qui n’ont pas été utilisées pour l’apprentissage). Les sensibilités et spécificités du modèle sont >90% pour de nombreux taxons. Mais surtout, n’hésitez pas à tester le logiciel sur vos propres images, et à nous faire retour !

Vous souhaitez en savoir plus ? Une pré-publication décrivant en détail l’une des premières itérations du modèle est en ligne ici:

Rigoudy et al. 2022. The DeepFaune initiative: a collaborative effort towards the automatic identification of the French fauna in camera-trap images. bioRxiv https://doi.org/10.1101/2022.03.15.484324

Logiciel

Un outil ergonomique et accessible

L’équipe développe un logiciel sous la forme d’une interface graphique (GUI) permettant de classifier des images et les trier dans des dossiers distincts depuis son ordinateur. Ce logiciel est implémenté en Python avec la librairie TensorFlow. Ce logiciel est gratuit, distribué sous licence CeCILL ne permettant pas l’usage du logiciel à des fins commerciales.

Documentation et aide utilisateur :

  1. Consulter le manuel utilisateur
  2. Suivre les explications de la vidéo de démonstration
  3. Pour toute aide ou suggestion, contactez nous

Version 0.2 pour Windows :
Ne nécessite aucune installation préalable de dépendances :

  1. Télécharger l’archive zip le plus récente sur
    https://pbil.univ-lyon1.fr/software/download/deepfaune/
  2. Dézipper l’archive sur votre Bureau/Desktop
    et ne pas déplacer les fichiers qui sont à l’interieur du répertoire créé
  3. Pour lancer le logiciel, double-cliquer sur le fichier deepfauneGUI.exe
    Le lancement peut prendre parfois quelques minutes. Si rien ne se passe, vérifier les paramètres de l’anti-virus, et recommencer

Version 0.2 pour Linux/Mac :
Nécessite l’installation préalable de Python et de plusieurs modules :

  1. Suivre les explications du README sur le dépôt gitlab du projet DeepFaune

Partenariat

Un large réseau

Les partenaires du projet, plus d’une trentaine à ce jour, participent à celui-ci en contribuant des images mais également à la réflexion autour des objectifs du projet DeepFaune, et des besoins des utilisateurs finaux. La liste des partenaires est accessible ici.

Ces partenaires sont des parcs naturels régionaux ou nationaux, des fédérations de chasseurs, des associations naturalistes, des laboratoires de recherche et même de simples individus, tous impliqués dans la conservation et la gestion de la biodiversité aux échelles locales, régionales ou nationales. Ils sont distribués dans l’ensemble du territoire métropolitain.

Carte des localisations géographiques de nos partenaires en France hexagonale

Vous souhaitez rejoindre le projet DeepFaune ? Contactez nous !

L’équipe

@ CNRS-INEE

Le projet est porté par Simon Chamaillé-Jammes et Vincent Miele, affiliés respectivement Centre d'Ecologie Fonctionnelle et Evolutive (CEFE, Montpellier) et au Laboratoire de Biologie et Biométrie Evolutive (LBBE, Lyon). Ils dépendent tous deux à l'Institut National d'Ecologie et d'Environnement (INEE) du CNRS. Bruno Spataro (LBBE) et Noa Rigoudy (CEFE) contribuent également fortement au projet.

Simon Chamaillé-Jammes est directeur de recherche CNRS, spécialisé en dynamique des populations et écologie comportementale.
Vincent Miele est ingénieur de recherche CNRS, spécialiste des techniques de vision par ordinateur par deep learning en écologie.
Bruno Spataro est ingénieur de recherche CNRS et gère le centre de calcul et les serveurs de stockage du centre PRABI-LBBE.
Noa Rigoudy est doctorante et travaille sur les effets de l’anthropisation des milieux sur le comportement animal.

Des stagiaires contribuent également au projet (Elias Chetouane).

Le projet est principalement financé par le CNRS.