
Uplift Modeling
Data
sur quoi travaille-t-on ?
Pourquoi travaille-t-on sur ce sujet ?
que fait-on concrètement ?
Les travaux s’inscrivent dans la gestion de données de grandes masses de données (Big Data) et l’apprentissage artificiel à grande échelle. Ils couvrent une double dimension : celle de la stratégie à mener (enjeu de reporting, décision) et celle de la capacité technologique à identifier les sources et à les traiter. Il s’est agi tout d’abord d’explorer les limites du Big Data dans le domaine de la connaissance client, avant d’associer les techniques de Business Intelligence à ses recherches. Ces travaux expérimentaux ont ouvert la voie à de nouvelles études autour du Machine Learning, et plus spécifiquement encore du Préférence Learning ; ce qui nous a permis de démontrer l’importance et la complexité des techniques de nettoyage des données. Par exemple, les données contenant en général des informations sur les clients présentent la difficulté de présenter un grand nombre de champs manquants, quantitativement et qualitativement.
Une difficulté fondamentale de ce domaine est en effet que le phénomène qu’on essaye de prédire, la causalité, est absolument inobservable. Pour observer que démarcher tel individu est bien ce qui déclenche son achat, il faudrait en effet voir d’une part ce qu’il se passe si on le démarche et d’autre part ce qu’il se passe si on ne le démarche pas. Toute différence de comportement du client dans ces deux cas pourra alors être sans ambiguïté considérée comme causée par le démarchage. Or dans la réalité, on n’a jamais qu’une moitié de l’information : si on démarche quelqu’un on se prive à jamais de savoir ce qu’il se serait passé dans le cas contraire, et vice-versa. Les méthodologies classiques de machine Learning, reposant sur un objectif connu, ne peuvent donc pas s’appliquer directement, ce qui fait de l’inférence causale est un problème de recherche difficile et essentiel.
- Pour répondre à ce défi, l’équipe de R&D a défini un nouveau modèle d’Uplift exploitant la théorie de l’information, inédit dans la littérature et novateur dans le domaine de l’apprentissage automatique.
- La finalisation d’un algorithme complet ayant été validé scientifiquement et empiriquement a permis de développer une solution opérationnelle. Nous développons une méthodologie complète pour résoudre cette question par le machine Learning et implémentons les algorithmes associés. Une difficulté fondamentale de ce domaine est en effet que le phénomène qu’on essaye de prédire, la causalité, est absolument inobservable.
Pour observer que démarcher tel individu est bien ce qui déclenche son achat, il faudrait en effet voir d’une part ce qu’il se passe si on le démarche et d’autre part ce qu’il se passe si on ne le démarche pas. Toute différence de comportement du client dans ces deux cas pourra alors être sans ambiguïté considérée comme causée par le démarchage. Or dans la réalité, on n’a jamais qu’une moitié de l’information : si on démarche quelqu’un on se prive à jamais de savoir ce qu’il se serait passé dans le cas contraire, et vice-versa. Les méthodologies classiques de machine Learning, reposant sur un objectif connu, ne peuvent donc pas s’appliquer directement, ce qui fait de l’inférence causale est un problème de recherche difficile.
CHERCHEUR

Docteur Clément FEUTRY
Clément Feutry est docteur, normalien et professeur agrégé. Diplômé de l’ENS de Cachan après avoir suivi un cursus en electrical engineering, il obtient un premier master en physique appliquée de l’université Paris-SUD. La même année il est lauréat du concours externe de l’agrégation de sciences industrielles de l’ingénieur. Il obtient ensuite un master de recherche en réseaux et télécommunications à Supelec. Clément est également docteur de l’université Paris-Saclay depuis 2019. Pendant sa thèse au sein d’un laboratoire de CentraleSupélec, il met au point un Framework pour l’anonymisation automatique de données à l’aide du Deep Learning en utilisant la théorie de l’information. Il applique en particulier ses résultats sur l’anonymisation d’images. Ses travaux de thèse portent également sur la surveillance automatique de prédicteur pour détecter des variations de distribution. Sa thèse a été l’occasion pour lui de faire des visites de recherche au sein du Mila (institut québécois d’intelligence artificielle) de l’université de Montréal. Avant d’entrer dans le monde du conseil il a enseigné a de nombreuses reprises dans plusieurs établissements de l’enseignement supérieur dont l’ENS de Paris-Saclay. Ses travaux au sein du Square Research Center se font au sein du Domex DATA et ses partenaires académiques : ils portent sur l’inférence causale et plus particulièrement l’Uplift modeling. Cette thématique à été la première portée par le Square Research Center et vise l’optimisation des campagnes marketing sous la contrainte de maximisation du ROI. Des résultats théoriques concrets donnent lieu à la production d’un article scientifique. La richesse du parcours de Clément lui permet d’avoir une expertise dans de nombreux domaines parmi lesquels le machine Learning, le traitement d’images, le Language Python, l’optimisation sous contrainte, les télécoms et la pédagogie. Clément intervient sur des missions nécessitant l’audit de l’existant et la proposition de solutions innovantes face à des problèmes complexes, tout en appliquant le fruit de la R&D auquel il contribue, individuellement et en équipe.
Michael Bon est Polytechnicien, Docteur en physique et a une grande expérience dans la recherche académique. Michael est désormais animateur et contributeur des activités de R&D de Adway en data science. Il s’attache également à concevoir et développer des solutions algorithmiques efficaces et personnalisées pour ses clients en s’appuyant sur une large culture générale scientifique. Michaël est intervenu dans de nombreux secteurs (banque, énergie, luxe…) et sur de nombreuses problématiques (intelligence artificielle, optimisation sous contraintes, modélisation…) avec à chaque fois des résultats améliorant significativement l’existant de manière démontrable. Quelques écrits scientifiques significatifs