L’IA, futur chien de garde de l’intégrité des marchés?

Etienne Plamondon Emond Collaboration spéciale
Si l’usage de ces algorithmes par les investisseurs s’effectue généralement dans les règles, d’autres fois elles servent de mauvaises intentions ou cherchent à manipuler le marché.
Photo: iStock Si l’usage de ces algorithmes par les investisseurs s’effectue généralement dans les règles, d’autres fois elles servent de mauvaises intentions ou cherchent à manipuler le marché.

Ce texte fait partie du cahier spécial Intelligence artificielle

Un projet explore le potentiel de l’intelligence artificielle pour surveiller les infractions sur les marchés boursiers. Arrivera-t-elle à bien les déceler malgré le flot et la vitesse des transactions ?

Depuis son entrée en poste comme directeur des analyses des marchés et des enquêtes à la division de la réglementation de la Bourse de Montréal en juin 2017, Marc Stephens a assisté à une croissance fulgurante du nombre des données traitées. Parmi les raisons, il y a la prolifération de la négociation à haute fréquence. Réalisée de manière automatisée à l’aide d’algorithmes, elle consiste à acheter et à vendre à un rythme effréné des titres ou des contrats financiers à l’intérieur de quelques millisecondes.

« Cette croissance des données fait en sorte que le nombre d’alertes augmente », indique Marc Stephens. La Bourse de Montréal constitue la Bourse canadienne des produits dérivés. La division de la réglementation est chargée d’assurer l’intégrité de ce marché au pays, donc de préserver la confiance envers celui-ci chez les investisseurs en les protégeant des pratiques abusives ou manipulatoires. Pour mieux déceler les comportements suspects qui pourraient mener à des enquêtes dans un contexte de sophistication des manières de négocier, elle explore le recours à l’intelligence artificielle (IA). Le 30 octobre dernier, la Bourse de Montréal a conclu à cette fin une entente stratégique de trois ans avec l’Institut de valorisation des données (IVADO).

Mauvaises intentions

 

« Bien comprendre le but ou l’intention des algorithmes et à quel moment ils sont déployés ou quels impacts ils ont dans le marché, c’est quelque chose qu’on regarde déjà de manière régulière, souligne Marc Stephens. Mais je pense que l’IA va nous aider à enlever un peu de bruit, à clarifier les patrons et les manières avec lesquelles ils interagissent avec le marché. »

Car si l’usage de ces algorithmes par les investisseurs s’effectue généralement dans les règles, d’autres fois elles servent de mauvaises intentions ou cherchent à manipuler le marché, notamment pour faire monter ou baisser artificiellement les cours. Parmi les actes répréhensibles détectés dans les dernières années sur les marchés du monde, on note l’émission d’ordres trompeurs (spoofing). Elle se produit, par exemple, lorsqu’une grande quantité d’ordres de vente sont donnés avec l’intention de les annuler un instant plus tard. Ce leurre déstabilise le marché dans le but de négocier à son avantage des contrats à terme ou des options en position d’acheteur dans l’intervalle.

Cette méthode, ses variantes et bien d’autres passibles de sanctions se révèlent souvent difficiles à discerner : elles se réalisent désormais en un clin d’oeil ou, lorsqu’elles s’étirent sur plusieurs minutes, se retrouvent noyées dans un flot massif de transactions. « Avec les négociations algorithmiques en ce moment, ça se réalise en quelques millisecondes, souligne Marc Stephens. Personne ne le voit, personne ne comprend ce qui se passe. Si c’est un algorithme qui essaie de tromper plusieurs algorithmes dans le marché, cela devient un plus gros défi à surmonter. »

C’est pour arriver à repérer ce genre de contravention que sa division commence à expérimenter les possibilités offertes par l’IA avec les scientifiques et analystes de données d’IVADO. « L’idée du projet, c’est grosso modo de déceler les anomalies dans des transactions, pour qu’ensuite ils puissent examiner les vraies anomalies », explique Manuel Morales, professeur au Département de mathématiques et de statistique à l’Université de Montréal, qui collabore à ces démarches avec la Bourse de Montréal. Le chercheur a donc recours à l’apprentissage automatique, afin d’enseigner à la machine à reconnaître et à classifier des patrons de transactions boursières suspectes, pour ensuite mieux les détecter à la Bourse.

Le défi s’avère de taille. Si on la compare avec l’une des avancées les plus publicisées de l’IA, celle de reconnaître la photographie d’un chat, est-ce que la démarche s’apparente à trouver « où est Charlie » dans une illustration des livres-jeux du même nom ? « Ce serait plutôt de le trouver dans une vidéo sur lecture rapide dans laquelle Charlie n’arrête pas de bouger », répond aussitôt Marc Stephens.

« Souvent, dans les projets en IA, les algorithmes vont répliquer quelque chose que l’humain peut faire, souligne Manuel Morales. Ici, on parle d’une tâche que l’humain est incapable de faire en ce moment en raison de la vitesse à laquelle ça se produit. »

Mieux déceler les infractions

 

Si l’apprentissage automatique se révèle prometteur, Marc Stephens conçoit mal l’application de l’apprentissage profond, une autre technique de l’IA, dans ses activités. La raison ? Le côté « boîte noire » de cette dernière, c’est-à-dire sa manière de donner des réponses sans qu’on puisse clairement comprendre la logique derrière la décision. Dans le cas de la surveillance des marchés boursiers, cette caractéristique les empêcherait par la suite de reconstruire, d’expliquer et de démontrer qu’une transaction était douteuse. « Cela soulève la question de savoir si nous serions à l’aise de recevoir une alerte pour quelque chose qu’on ne serait pas nécessairement capables de recréer et d’amener devant le juge ou les tribunaux », soulève Marc Stephens.

Mais d’autres techniques de l’IA pourraient permettre de mieux déceler les infractions. Manuel Morales souligne que le bruit court selon lequel des firmes privées qui sont inscrites à la Bourse possèdent déjà des équipes avec une expertise en IA. « L’enjeu, c’est de mettre à jour les gens censés les surveiller et les réglementer pour qu’ils soient au même niveau technologique », précise le chercheur.

Ce contenu a été produit par l’équipe des publications spéciales du Devoir, relevant du marketing. La rédaction du Devoir n’y a pas pris part.

À voir en vidéo