Select Page

Le Courrier Financier

– le 07 septembre 2022

Les contours de l’informatique quantique se dessinent. Ces technologies futuristes présentent de nombreuses applications dans le monde de la finance.

La maîtrise de l’informatique quantique n’en est encore qu’à ses débuts mais présente un potentiel inégalable en comparaison avec les technologies actuelles. Reposant sur des principes physiques pourtant anciens, ils permettraient d’obtenir des ordinateurs que l’on pourrait qualifier de surpuissants par le biais de l’utilisation des fameux qubits (ou bits quantiques), ces derniers n’ayant pas les limites des bits classiques aujourd’hui utilisés.

Alors qu’un bit se cantonne à avoir soit la valeur 1, soit la valeur 0, l’état d’un qubit est à la fois ces deux valeurs, dans une proportion donnée (c’est le principe de superposition) : les possibilités sont donc démultipliées. Cette grande évolution informatique n’est cependant pas encore totalement lancée, la stabilité et la durabilité des qubits n’étant pas encore garantie. Il en reste que les avancées sont nombreuses et tendent vers une amélioration sensible de ces limitations.

En témoignent les récents travaux de la jeune société française Alice & Bob qui lui ont permis de créer le qubit le plus stable du monde (avec une longévité 100 000 fois plus importante que ceux conçus auparavant), permettant ainsi d’envisager une utilisation concrète des capacités de ces ordinateurs si spéciaux.

Pionnières dans l’utilisation de l’informatique classique en entreprise, les grandes institutions financières ont, avec le temps, remplacé les locaux à archives par des fermes de serveurs. La digitalisation de leurs activités étant devenue la norme, les initiatives sont nombreuses afin d’intégrer les technologies de demain et éviter tout retard dans un contexte concurrentiel fort porté notamment par l’agilité des fintechs. Néanmoins, se pose la question suivante : quelles opportunités s’offrent au secteur financier ?

La data au cœur de l’activité financière

Qu’il s’agisse des banques, des assureurs ou des gestionnaires d’actifs, le travail de la data est devenu une activité à part entière, incontournable pour optimiser leurs cœurs de métier historiques. Du marketing en passant par le risque ou la lutte contre la fraude, les différentes utilisations des modèles algorithmiques sont légion dans ces établissements possédant une information de qualité.

En effet, les données sur leur clientèle sont actualisées de manière régulière par le biais des contraintes réglementaires tandis que les informations relatives aux opérations réalisées sur leurs comptes sont soumises à un formalisme calibré laissant peu de place aux erreurs. Cette situation idéale permet déjà à ces institutions de pouvoir effectuer de complexes calculs quotidiens afin de s’assurer notamment de la solvabilité de leurs portefeuilles de clients ou bien encore de détecter ceux pouvant être à l’origine de blanchiment d’argent.

Souvent lourds et consommateurs de ressources (humaines et techniques), lesdits calculs peuvent parfois être limités par la puissance des ordinateurs et serveurs utilisés. En découlent des temps de traitement longs voire l’impossibilité technique d’aboutir à certains résultats souhaités pour se contenter d’approximations.

Les possibilités offertes par les ordinateurs quantiques permettraient ainsi de démultiplier les capacités des établissements afin de limiter leur risque ou encore d’améliorer la performance des placements de leurs clients.

C’est d’ailleurs ce que prouvent les récents travaux de CaixaBank qui a constaté une réduction de 90 % du délai de résolution des problèmes de couverture et d’optimisation des portefeuilles d’investissement suite à la combinaison d’informatique quantique et traditionnelle. BBVA, quant à elle, a prouvé que cette technologie peut être beaucoup plus rapide lorsque plus de 100 variables sont utilisées dans un calcul.

A l’heure où les modèles algorithmiques se montrent toujours plus complexes (c’est particulièrement le cas pour les réseaux neuronaux) et utilisent un nombre de variables toujours plus impressionnant, ces avantages représentent des opportunités de poids pour le secteur financier en recherche constante d’amélioration de son efficacité et de sa performance.

La vulnérabilité du secret bancaire

Outre l’amélioration sensible des performances de calcul, l’informatique quantique pourrait également devenir une nécessité pour protéger la clientèle de ces grandes entreprises. En effet, ces dernières sont les cibles de cyberattaques régulières visant à dérober des informations confidentielles sur leurs portefeuilles clients, voire dans certains cas à détourner leurs fonds.

C’est d’ailleurs la spécificité de l’algorithme de Shor dont son utilisation via un ordinateur quantique permet de casser rapidement les clés utilisées pour les transactions bancaires. Nécessitant 200 000 qubits à l’origine pour fonctionner, l’Institut de physique théorique (IPhT) du CEA Paris-Saclay a réussi à réduire le besoin à quelques 13 000 qubits, démontrant que des progrès sont encore réalisables et laissant envisager une accessibilité progressive.

La démocratisation à venir de l’informatique quantique combinée à l’application de ces typologies de programmes va ouvrir la porte à des groupes malintentionnés pour des actions d’envergure. Même si plusieurs années seront nécessaires pour que cela arrive (les technologies n’étant pas encore totalement mûres), les institutions financières vont devoir s’y préparer.

C’est notamment l’objet des recherches de la banque néerlandaise ABN Amro qui souhaite sécuriser ses services bancaires en ligne avec le concours de l’Université de technologie de Delft et l’Organisation néerlandaise pour la recherche scientifique appliquée. Leur objectif est de trouver le moyen d’utiliser des clés quantiques pour crypter et sécuriser le trafic de données.

Ces travaux n’en sont qu’à leurs débuts, ils sont cependant révélateurs de l’attention prêtée à ces problématiques. Un long chemin reste encore à mener afin qu’ils soient concluants, d’autant que cette technologie reste encore instable et présente une complexité d’application forte au travers de modèles à haut niveau de technicité. Nul doute qu’elle sera utilisée à l’avenir, tant pour profiter des opportunités incroyables d’une telle puissance de calcul, que pour se prémunir des menaces qu’elle engendrera irrémédiablement. La véritable question sera « quand ? ».

Par Adrien Caiazzo, Project Manager Square Management.

Share This