Résumé
Cette thèse se concentre sur la question de la robustesse en apprentissage automatique, en examinant spécifiquement deux types d’attaques : les attaques de contamination pendant l’apprentissage et les attaques d’évasion pendant l’inférence.L’étude des attaques de contamination remonte aux années soixante et a été unifiée sous la théorie des statistiques robustes. Cependant, les recherches antérieures se sont principalement concentrées sur des types de données classiques, comme les nombres réels. Dans cette thèse, les statistiques robustes sont étendues aux données de classement, qui ne possèdent pas de structure d’espace vectoriel et ont une nature combinatoire. Les contributions de la thèse comprennent notamment un algorithme pour mesurer la robustesse des statistiques pour la tâche qui consiste à trouver un rang consensus dans un ensemble de données de rangs, ainsi que deux statistiques robustes pour résoudre ce même problème.En revanche, depuis 2013, les attaques d’évasion ont suscité une attention considérable dans le domaine de l’apprentissage profond, en particulier pour la classification d’images. Malgré la prolifération des travaux de recherche sur les exemples adversaires, le problème reste difficile à analyser sur le plan théorique et manque d’unification. Pour remédier à cela, cette thèse apporte des contributions à la compréhension et à l’atténuation des attaques d’évasion. Ces contributions comprennent l’unification des caractéristiques des exemples adversaires grâce à l’étude des paramètres sous-optimisés et à la circulation de l’information au travers des réseaux de neurones, ainsi que l’établissement de bornes théoriques caractérisant le taux de succès des attaques, récemment créées, de faible dimension.
Source: http://www.theses.fr/2023IPPAT052
.