Comment empêcher les AI de vieillir ?

Il n’y a pas que les cerveaux humains qui ralentissent avec l’âge ! Les algorithmes aussi peuvent ne plus interpréter correctement les données dont on les nourrit.

Derrières les applications du machine learning les plus triviales (screening des spams par votre boite mail) ou les plus sophistiquées (prévision des pics de pollutions en fonction de données météorologiques et contextuelles) se cachent des algorithmes apprenants qui doivent composer en permanence avec de nouveaux types d’inputs. Pourquoi ? Tout simplement parce que les datas évoluent, tout comme les concepts avec lesquels nous essayons de les structurer.

L’automatisation de la détection des fraudes bancaires constitue un excellent use case : le traitement d’un volume massif de transactions, les évolutions des patterns de fraude et une temporalité irrégulière rendent nécessaire l’implémentation de solutions IA afin de scruter les registres bancaires d’un regard alerte. De manière générale, les algorithmes doivent à la fois s’adapter sans délai aux changements de concepts, et éliminer les faux positifs et le bruit. Deux objectifs contradictoires auxquels s’ajoutent la nécessité d’appréhender correctement les phénomènes cycliques.

Pour parvenir à cette quadrature du cercle, il faut accepter l’idée qu’aucune solution unique ne permet d’adresser ces problèmes. Mais le data scientist a plus d’un algo dans son sac !

Les algorithmes d’apprentissage adaptatifs reposent sur trois éléments : une mémoire ajustable, une fonction de détection des dérives et une boucle d’apprentissage. La mémoire ajustable permet de pondérer chronologiquement les données tandis que la détection des dérives contrôle leur qualité. La boucle d’apprentissage met enfin à jour instantanément le modèle décisionnel (« dois-je ranger ce mail en spam ? » « Cette transaction est-elle frauduleuse ? »). Comme les capacités de calculs et les évolutions qualitatives interdisent de tenir compte de l’ensemble des données enregistrées, l’enjeu réside en l’aptitude de l’IA à choisir la bonne fenêtre de data : nous avons donc besoin d’algorithmes capables de s’adapter d’eux-mêmes.

Les algorithmes adaptatifs sont des arbres de décisions incrémentales : ils partent from scratch et mettent au point des catégorisations sitôt qu’ils estiment disposer d’assez de données pour le faire. Afin consolider les algorithmes, le data scientist use du bagging : cette technique consiste ici à nourrir les mêmes arbres apprenants de jeux de données différents. En confrontant les résultats, il devient possible de distinguer entre arbres d’apprentissage performants (adaptés aux données actuelles) et séniles.

Nos remerciements à Grégoire Martinon pour avoir su rendre sa présentation limpide malgré la technicité du sujet, et pour avoir pris de répondre aux nombreuses questions de l’assistance autour du buffet.

Retrouvez-nous pour notre prochain AI&Society sur notre page Meetup.