Sommaire
Introduction
Intelligence Artificielle, Machine Learning, Big data, Cloud computing ou encore Informatique Quantique sont autant de technologies dont le développement croissant et l’intégration au sein des sociétés de gestion vont modifier en profondeur l’organisation et leur manière de travailler. Le cycle d’investissement (recherche, exécution et gestion) est impacté par ces innovations qui transforment la manière d’investir et de rechercher de l’Alpha, objectif ultime des sociétés de gestion.
« 85% des utilisateurs de solutions basées sur l’IA dans la phase de recherche pensent que cette technologie les a aidés pour générer de l’Alpha »
Une étude menée en 2021 auprès d’Asset Managers[1] montre que les investissements dans les nouvelles technologies vont augmenter dans les 12 à 18 prochains mois. En Europe, ces investissements porteront principalement sur la RPA (+56%), le Cloud computing (+56%) mais également l’Intelligence Artificielle (+56%). Les Asset Managers sont une minorité à utiliser l’IA (environ 10%) dans leurs processus d’investissement (cf. Etude « AI Pioneers in Investment Management », CFA Institute, 2019). Ceux convaincus par des Proof of Concepts réalisés ces dernières années, passent maintenant à la phase de mise en œuvre.
Autres technologies
North America | Europe | Asia Pacific | |
---|---|---|---|
Blockchain and distributed ledger technologies | 56% | 50% | 65% |
Mobile technology | 59% | 35% | 61% |
Data privacy | 66% | 44% | 58% |
Data acquisition and processing (excluding cloud) | 63% | 50% | 55% |
Data analytics | 59% | 59% | 58% |
Source : The Deloitte Center for Financial Services Global Outlook Survey 2021
Quels sont les enjeux ?
Les enjeux sont d’abord d’ordre financier car l’implémentation de ces nouvelles technologies a un coût et demande de concilier des investissements qui s’inscrivent dans le temps avec des cycles technologiques de plus en plus courts. De plus, ces investissements peuvent être importants. Une étude de TCS[2] de 2018 a montré sur un panel de 300 entreprises françaises (tous secteurs confondus) sensibilisées à l’IA, que plus de la moitié consacre un budget annuel supérieur à 300 000 € à l’IA.
Ensuite, vient la définition et l’exploration de cas d’usages pertinents, créateur de valeur. En effet, ces technologies « génériques » peuvent être utilisées en différents points de la chaine de valeur du cycle d’investissement, et en particulier pour :
- Réduire les risques dans le portefeuille
- Optimiser les transactions
- Générer de l’alpha
Ainsi, le Machine Learning, par exemple, peut être employé pour affiner les prévisions de marché. Cette technologie sert également à exploiter des données non structurées comme les articles de journaux ou les réseaux sociaux. Le Machine Learning peut aussi être utilisé pour élaborer des algorithmes d’optimisation de portefeuilles de gestion.
Un arbitrage en termes de ROI est à réaliser pour déterminer la solution la plus adéquate. Cela suppose une approche itérative requérant un véritable soutien (« sponsorship ») de la Direction. En effet, l’investissement dans ces nouvelles technologies ne doit pas s’arrêter même si le ROI n’est pas au rendez-vous au départ. L’investissement doit s’étaler sur plusieurs années.
Cela nécessite de réussir à intégrer un volume important de données souvent hétérogènes (Voir la fiche : La donnée, combustible au cœur du réacteur d’une SGP), pour qu’elles soient utilisables par le Front, en amont du cycle d’investissement, comme dans le cadre d’une gestion ESG qui prend en compte de nombreux critère s’appuyant sur des données internes et externes provenant d’un grand nombre de fournisseurs de données (ISS, MSCI, Sustainalytics…)
La mise en œuvre et l’utilisation de ces technologies au sein d’une société de gestion doivent s’inscrire dans une stratégie dédiée afin de mettre en cohérence et en coordination l’ensemble de ces solutions et travaux. Cela permet d’éviter d’avoir un fonctionnement en silo qui pourrait avoir un effet négatif sur leur apport et leur utilisation. Elle peut s’appuyer également sur des partenariats et des collaborations avec des fintechs et autres jeunes entreprises disposant de l’expertise et du savoir-faire recherchés.
Se pose alors la question de la mise en œuvre de ces nouvelles technologies au sein des SGP. Il s’agit de faire accepter toutes ces évolutions en interne et d’accompagner les équipes de recherche et les gestionnaires afin qu’ils adhèrent à ces transformations. Ce temps d’appropriation par les équipes n’est pas à négliger. Il s’agit également de réussir la mise en place de nouveaux schémas d’organisations et de collaborations qui doivent prendre en compte l’arrivée de nouveaux profils (data scientist…). Ces derniers auront à travailler avec les métiers et des profils techniques plus « historiques » de l’entreprise. Ces nouveaux profils sont un réel enjeu de recrutement pour les sociétés de gestion (Voir la fiche : Adaptation du capital humain et gestion du changement).
Comparativement aux sociétés de gestion de taille plus importante, il existe des enjeux supplémentaires pour les sociétés de gestion de petite taille et de taille moyenne. En effet, ces dernières ont pour certaines des solutions informatiques « light » basées sur des outils de bureautique classique (suite Microsoft : Excel, Word, Access…) loin des enjeux de ces nouvelles technologies (stockage, temps de traitement…). Elles doivent réaliser un « effort » supplémentaire par rapport aux autres sociétés de gestion pour « embarquer » ces nouvelles technologies dans leurs cycles d’investissement.
De plus, au-delà des enjeux internes, il y a également un enjeu externe pour les petites sociétés de gestion ou les sociétés de taille moyenne. Celles-ci ne possédant pas les ressources ou les compétences pour développer les solutions en interne, elles doivent arbitrer entre développer en interne ou acheter (make or buy) les solutions et/ou ressources. Dans ce dernier cas, elles doivent « regarder » à l’extérieur pour identifier les sociétés offrant les solutions les plus pertinentes par rapport à leurs besoins tout en maîtrisant les coûts et trouver les ressources nécessaires pour les mettre en œuvre soit en réalisant des recrutements soit en faisant appel à des prestataires externes.
Que faire ?
Comme évoqué précédemment, il existe une grande variété de solutions technologiques qui peuvent s’appliquer sur l’ensemble du cycle d’investissement.
Intelligence artificielle (IA)
L’intelligence artificielle peut être mise en œuvre dans de nombreux aspects du cycle d’investissement.
En recherche, l’analyse prédictive qui s’appuie sur l’IA peut être utilisée pour les stratégies d’investissement. Cette technologie permet d’exploiter des données variées dont certaines non structurées pour réaliser des analyses dans des délais beaucoup plus courts que si cela avait été réalisé « manuellement », tout en s’appuyant sur un volume de données important.
Des sociétés de gestion ont créé des fonds qui utilisent l’intelligence artificielle dans leur processus d’investissement. ODDO BHF a lancé en décembre 2018 le fonds ODDO BHF Artificial Intelligence (cf. Article « L’intelligence artificielle, une innovation de rupture dans la gestion d’actifs », Allnews, mars 2019) qui a pour thématique l’intelligence artificielle et l’utilise dans son processus d’investissement. L’IA mise en place permet de sélectionner les entreprises technologiques en lien avec l’IA ou qui seront fortement impactées par l’IA (finance, santé, biens de consommation…). Ce fonds s’appuie également sur de la gestion quantitative pour sélectionner les valeurs investies. Les algorithmes de l’IA qui ont été développés sont utilisés pour analyser des données non structurées et des données présentes dans les médias (données sémantiques), afin d’identifier les meilleures valeurs. Elles permettent aussi d’identifier les sentiments positifs ou négatifs liés à une valeur. L’IA analyse plus de 4 millions de données chaque jour. Ces valeurs sont ensuite revues selon un modèle quantitatif multifactoriel développé par ODDO (Algo 4) qui a pour but d’affiner la sélection de titres au regard de 4 facteurs (Valorisation, Qualité, Momentum et Taille). Pour finir, une revue qualitative par les gérants du fonds est réalisée afin d’identifier les incohérences éventuelles.
De même, la société de gestion française Ecofi a lancé en juin 2019, le fonds action ISR internationales qui associe l’analyse environnementale, sociale et de gouvernance avec l’intelligence artificielle (cf. Article « Ecofi IA responsable »). L’IA est utilisée dans un univers d’investissement ISR préalablement défini, pour construire un portefeuille basé sur des valeurs ayant le plus fort potentiel de surperformance par rapport à l’indice Stoxx 600. Il est construit en s’appuyant sur un processus statistique basé sur des données historiques pour sélectionner des actions dont le profil dégage une performance récurrente avec un couple rendement/risque intéressant. L’algorithme ajuste régulièrement ses règles en fonction de l’environnement des marchés.
Pour développer les algorithmes de l’IA, Ecofi a travaillé avec la société ADVESTIS qui propose un processus statistique de construction de portefeuille s’appuyant sur l’analyse des enjeux ESG.
L’utilisation de l’IA et son déploiement dans l’ensemble du processus d’investissement peut avoir un impact significatif dans la génération d’alpha. Une étude[3] a démontré que les entreprises matures qui industrialisent et étendent l’IA dans l’ensemble du processus ont un gain potentiel d’alpha de 310 bps au global, réparti sur toute la chaine de valeur.
Source : Accenture Global Data Analytics / Artificial Intelligence Study 2020
L’Apprentissage Automatique (machine Learning ou ML)
Le Machine Learning est une des techniques de l’IA. La mise en place du Machine Learning dans le cycle d’investissement permet d’optimiser l’exploitation des données disponibles et dans des volumes plus importants, mais également de prendre en compte de manière automatique de nouveaux formats de données jusque-là non pris en compte ou alors de manière artisanale.
Dans le cadre de la recherche, le Machine Learning permet par exemple l’exploitation de données non structurées comme les images satellites. Des algorithmes entrainés peuvent exploiter le contenu des images, qui auparavant ne pouvaient être analysées que par des humains, dans des volumes et avec une rapidité beaucoup plus importante. Le Machine Learning permet aussi d’évaluer le niveau de rendement des cultures ou la fréquentation des centres commerciaux en analysant des milliers de photos satellites[4], ce qui permet d’affiner la vision et les recommandations que peut avoir la recherche sur un secteur ou une entreprise.
De même, pour les données structurées, en exploitant le volume grandissant de données disponibles, le Machine Learning permet d’identifier de nouveaux modèles d’investissement et de les affiner avec le temps. Une étude[5] menée par Barboza, Kimura et Altman a démontré que, pour la prévision des risques de faillites et de défauts de paiement des entreprises, le Machine Learning permettait d’avoir un niveau de précision supérieur de 10% par rapport aux modèles de prévision classique (ex : Altman and Ohlson).
Dans la filiale de gestion d’actifs d’une grande compagnie d’assurance new yorkaise[6] par exemple, le ML est utilisé pour générer des signaux d’investissement. Les résultats du modèle ainsi développé servent, entre autres, à alimenter les discussions mensuelles de politique d’investissement de la société. Les techniques ML permettent de « mapper » les cycles économiques et de prédire en quasi-temps réel (« nowcasting ») le régime de marché au travers d’un ensemble plus larges d’indicateurs macro-économiques. Ces techniques sont également utilisées pour cartographier et classer les prédicteurs d’événements en fonction de leur importance et mettre en place des tableaux de bord surveillant les indicateurs les plus critiques.
Autre exemple, chez BNP Paribas AM, le Machine Learning est utilisé pour mesurer l’empreinte carbone de plus de 10 000 sociétés qui n’effectuent pas de rapport sur leurs émissions de carbone. Pour cela, les équipes quantitatives de BNP Paribas Asset management ont développé un modèle prédictif des émissions carbone qui se base sur les travaux de recherches[7] de l’université de Otago sur une prédiction des émissions carbone des entreprises s’appuyant sur le Machine Learning. L’utilisation de l’IA permet d’accroître de 30% la précision des chiffres par rapport aux modèles existants.
Pour obtenir des résultats satisfaisants, le Machine Learning doit s’appuyer sur un volume de données correct, le plus important possible. Il est donc nécessaire d’avoir des données pertinentes et de qualité (voir la fiche : La donnée, combustible au cœur du réacteur d’une SGP).
Le Traitement Automatique du Langage (Natural Language Processing) ou Natural Language Processing (NLP)
Le NLP est une des techniques de l’IA. En recherche, le NLP est utilisé pour analyser les informations publiées dans la presse et sur les réseaux sociaux. Le NLP « lit » et analyse les contenus pour les interpréter et déterminer les sentiments des marchés et ainsi prédire leurs mouvements.
Par exemple, UBS wealth management utilise le NLP dans le cadre de son processus d’investissement pour détecter les nouvelles négatives. Pour cela, elle analyse un volume important de documents issus de moteurs de recherche développés en interne (cf. Article « How Asset Managers are leveraging Natural Language Processing Techniques », Decimal Point Analytics, 2020). Cette technologie permet à UBS Wealth Management de gagner du temps et de traiter un volume d’informations beaucoup plus important tout en permettant à ses équipes de recherches de travailler sur d’autres domaines d’intérêt.
Pendant la pandémie en 2020, Blackrock a utilisé la NLP pour obtenir des informations sur les tendances en matière de bénéfices sur le premier trimestre 2020 (cf. Article « How Asset Managers are leveraging Natural Language Processing Techniques », Decimal Point Analytics, 2020). Les analystes mettant du temps à actualiser leurs estimations chiffrées, Blackrock a utilisé cette technologie pour examiner les textes de leurs rapports. L’analyse des textes des rapports aide à saisir une image fidèle de leur point de vue en l’absence d’estimation numérique.
Robotic Process Automation (RPA)
La RPA permet l’exécution automatique d’un processus ou de certaines tâches du processus au sein des applications. Dans les sociétés de gestion, la RPA peut être employée dans le cadre du cycle d’investissement pour l’automatisation de certaines tâches notamment l’exécution des ordres. Ainsi, la RPA permet d’automatiser la gestion des cas particuliers identifiés lors des opérations de négociations en envoyant automatiquement un mail en fonction de critères d’exception. Lors de l’exécution d’un ordre, si une différence de prix sur le titre entre ce qui a été enregistré par le gérant et ce qui est envoyé par le broker est identifiée, un mail est envoyé automatiquement au broker pour l’en informer et traiter cet écart.
Cette technologie permet donc de réduire voire d’éliminer les efforts manuels pour traiter des tâches répétitives et routinières effectuées dans les systèmes d’information. Elle permet également une plus grande rapidité d’exécution tout en réduisant le risque d’erreur ou d’oubli.
Les champs d’application de la RPA en asset management sont bien plus larges que le cycle d’investissement (Voir la fiche : Améliorer l’efficience des fonctions support).
Calculs intensifs et cloud computing
L’optimisation des choix d’investissement demande des capacités en calculs intensifs. A titre d’exemple, Horae Technology a intégré en septembre 2021 le programme SimSEO (Simulation au service des entreprises). En collaboration avec le CRIANN (Centre Régional Informatique et d’Applications Numériques de Normandie), la société a eu accès au supercalculateur MYRIA capable d’exécuter plus de 700 000 milliards d’opérations / seconde.
« Cette puissance de calcul a notamment permis à la société (cf. site genci.fr « simseo accompagne le développement d’Horae Technology », 2021) : »
- « d’améliorer le temps de calcul des entrainements de ses algorithmes d’intelligence artificielle »
- « d’accélérer les performances de son outil via la parallélisation de son code et la possibilité́ d’analyser ainsi des milliers de titres financiers simultanément »
En parallèle à l’externalisation de la puissance de calcul pour des besoins précis, l’innovation dans le cycle d’investissement doit également pouvoir s’appuyer sur une infrastructure pérenne et modulable en capacités de stockage et de calcul, même s’il n’est pas « intensif ». Le cloud est une option capable d’offrir cette agilité et ces capacités.
Traditionnellement, les sociétés de gestion ont des coûts d’infrastructure IT « faibles » comparés aux autres acteurs du secteur financier. Cependant, au fur et à mesure qu’elles adoptent des nouvelles technologiques, elles doivent investir dans des solutions et des infrastructures qui les supportent.
L’Intelligence Artificielle (Machine Learning, NLP…) s’appuie sur l’exploitation d’un volume grandissant de données qui nécessitent une puissance et des ressources de calculs importantes pour les exploiter, mais également des « data center » pour héberger les données.
L’utilisation du cloud computing est une solution pour répondre aux enjeux liés à la gestion d’un volume exponentiel de données. Tout d’abord, l’utiisation du cloud permet une centralisation des données. Historiquement, les données sont en effet généralement stockées sur différents serveurs qui ont été installés au fur et à mesure des besoins sans stratégie de gestion et d’optimisation. L’utilisation du cloud permet de recentraliser les données et de faciliter leurs gestions (inventaire, mise à jour…) permettant ainsi d’avoir des référentiels de meilleure qualité avec un hébergement optimisé. La centralisation au sein du cloud améliore également l’efficacité de l’exploitation des données au sein de l’entreprise. En effet, toutes les données sont regroupées en un seul endroit.
L’utilisation du cloud permet également une scalabilité plus simple tout en maîtrisant les coûts. L’augmentation exponentielle du volume de données qui est exploité (exemple : développement du besoin de données dans le cadre de l’investissement ISR) entraine un besoin d’hébergement croissant. L’utilisation de « data center » en interne pour héberger ces données nécessite de pouvoir anticiper l’augmentation des capacités des data center au fur et à mesure des besoins avec un préavis suffisant pour pouvoir « upgrader » les data center (commande, installation…). Néanmoins, un risque d’augmentation important des coûts existe. L’utilisation du cloud permet une scalabilité plus rapide et plus simple, le besoin d’hébergement complémentaire peut être résolu quasi instantanément et s’adapte aux besoins (en fonction du contrat).
L’externalisation de l’hébergement des données entraîne des questions autour de la sécurité et de la souveraineté numérique, notamment dans un environnement où les attaques cyber (Voir la fiche : Protéger ses systèmes contre les cyber-attaques) et les fuites de données se multiplient et deviennent des enjeux majeurs de sécurité pour les entreprises. Leurs impacts (perte de confiance des investisseurs, sanctions réglementaires…) peuvent inciter les sociétés de gestion à conserver en interne la gestion de leurs données. Cependant, les entreprises proposant des solutions de cloud actuelles sont aujourd’hui très sensibles à ces risques et ont mis en place des systèmes avec des niveaux de sécurité élevés afin de protéger les données (cryptage, Norme ISO…). Elles disposent également d’équipes dédiées sur le sujet, en mesure de répondre aux risques éventuels.
L’informatique quantique
L’informatique quantique est la dernière technologie qui suscite un intérêt croissant. Selon une étude[8], 23% des répondants travaillent sur des projets s’appuyant sur des technologies quantiques ou ont planifié de le faire. Bien que l’engouement autour de cette technologie ne soit pas en rapport avec son niveau de développement, il est estimé aujourd’hui que l’informatique quantique arrivera à maturité dans cinq à dix ans. Selon la même étude, 43% des sondés travaillant avec des technologies quantiques anticipent des applications commerciales de ces technologies à un horizon de cinq à dix ans.
Cette technologie va démultiplier la puissance de calcul et accélérer les prises de décisions. Il sera alors possible d’augmenter les capacités d’analyse des données et d’accélérer les calculs de prédictions, grâce à la superposition de bits dans différents états (qubits), contrairement à l’informatique traditionnelle. L’informatique quantique nécessite la création de nouveaux algorithmes de traitement des données (optimisation, résolution de calculs…) pouvant donner naissance à de nouveaux modèles d’investissement.
Dans le secteur financier, à ce jour, les banques sont les plus actives et mènent depuis quelques années des expérimentations sur l’utilisation de l’informatique quantique dans le domaine de la finance. Ainsi Caixa Banque et D-Wave, spécialisé dans les systèmes d’information quantiques, ont testé son utilisation dans le domaine de l’optimisation de portefeuille et le calcul de couverture des investissements. Pour l’optimisation de portefeuille, lors du Proof of Concept, il a été constaté une réduction des temps de calcul pouvant aller jusqu’à 90% et une optimisation du TRI de 10% d’un portefeuille d’obligations.
CACIB a lancé en 2021, un partenariat avec Pasqal (fondé en 2019), constructeur d’un ordinateur quantique s’appuyant sur des réseaux d’atomes neutres, et Multiverse computing (fondé en 2019), spécialisé dans le développement d’algorithmes quantiques pouvant être exécutés à la fois sur des ordinateurs quantiques et sur des ordinateurs classiques. L’objectif est de développer des outils pour soutenir la banque dans les domaines de la gestion des risques et des marchés financiers[9]. A terme, ces supercalculateurs devraient permettre de mieux anticiper les risques et de résoudre des problèmes de calculs qui ralentissent l’industrie.
A n’en pas douter, les promesses d’applications de cette technologie devraient également intéresser les sociétés de gestion. Souhaitons qu’elles explorent les domaines d’application pour le développement de leurs activités avec ces nouveaux acteurs.
Quelques bonnes pratiques à adopter[10]
Une bonne utilisation des algorithmes nécessite des données en entrée des modèles non seulement de qualité, mais également aisément accessibles. La SGP doit donc réfléchir à structurer cette étape de collecte et d’organisation des données, essentielle au bon fonctionnement des modèles.
S’agissant du développement des algorithmes, 2 grandes options sont possibles :
- Réaliser les algorithmes en interne dans une équipe dédiée (dans un « Lab » ou autre)
- Externaliser chez un partenaire ou un sous-traitant, qui se chargera de la conception et de l’entrainement de l’algorithme sous le contrôle et la direction des organes de direction de la SGP. Cela permet une certaine agilité et d’éviter le délicat recrutement de ressources difficiles à attirer
Enfin, lors de la construction de ces algorithmes, le gestionnaire doit veiller à assurer « l’explicabilité » du modèle auprès des investisseurs. Ce souci de « transparence » rejoint les préoccupations RSE de l’industrie. Il faut aussi prendre en compte le sujet de la gouvernance et avoir des équipes ayant les compétences techniques et la compréhension nécessaires pour encadrer ce dispositif.
Et la RSE dans tout ça ?
Face aux biais potentiels véhiculés par les modèles, la Commission européenne a édicté un ensemble de principes de développement des algorithmes d’IA s’appuyant sur les exigences éthiques publiées en 2019 dans le document « Lignes directrices en matière d’éthique pour une IA digne de confiance » (cf. Article « Lignes directrices en matière d’éthique pour une IA digne de confiance »). Ces exigences sont :
- Action humaine et contrôle humain : couvre les droits fondamentaux, l’action humaine et le contrôle humain
- Robustesse technique et sécurité : couvre la résilience aux attaques, le plan de secours et la sécurité générale, la précision, la fiabilité et la reproductibilité
- Respect de la vie privée et gouvernance des données : couvre le respect de la vie privée, la qualité, l’intégrité et l’accès des données
- Transparence : la traçabilité, l’explicabilité et la communication
- Diversité, non-discrimination et équité : couvre l’absence de biais injustes, l’accessibilité et la conception universelle et la participation des parties prenantes
- Bien-être sociétal et environnemental : couvre la durabilité et le respect de l’environnement, l’impact sociétal, et la démocratie
- Responsabilité : auditabilité, la réduction au minimum des incidences
Ces principes de développement ont été notamment analysés pour le secteur financier par l’ACPR dans le document « Gouvernance des algorithmes d’IA dans le secteur financier » en juin 2020. Retenons en particulier les principes qui recouvrent :
- L’équilibre à trouver entre traitement des données, stabilité, performance et explicabilité
- L’évaluation des algorithmes IA au travers d’un processus de validation initiale et continue
- La gouvernance des algorithmes IA
- Les niveaux d’explication et de cycle de vie du modèle…
La recherche de la performance est à mettre au regard du coût énergétique et du gain marginal attendu. La performance est ainsi très souvent non seulement l’ennemie de l’industrialisation et de l’explicabilité, mais aussi de l’environnement.
Face à ce paradigme, une réflexion est à mener de manière globale en termes de :
- solutions permettant d’utiliser ces technologies sans être trop énergivores, par exemple par l’utilisation de serveurs correctement dimensionnés
- utilisation de jeux de données pertinents limitant ainsi la puissance de calculs et de serveurs nécessaires…
Il s’agit en fait d’avoir une approche frugale de ces nouvelles technologies afin que leurs développements dans les prochaines années ne soient pas en contradiction avec les enjeux et objectifs environnementaux.
Le coin de la Start-up et de l’innovation
RPA
Uipath et AutomationAnywhere sont des leaders des solutions de RPA et proposent des solutions spécifiques pour le secteur financier.
TAL, ML
Quantcube Technology propose une plateforme d’intelligence macroéconomique (MIP) qui produit des indicateurs de prévision économique en « temps réel » comme par exemple la croissance économique, l’inflation, l’emploi et le commerce international pour des économies de pays industrialisés et émergents. La solution utilise des sources de données alternatives diverses (données textuelles, données structurées, données géospatiales des satellites et données de géolocalisation – par exemple, transport maritime international, trafics aériens…) sur une seule plateforme. En plus des données en temps réel, QuantCube dispose d’un historique de données supérieur à 7 ans.
La société a obtenu le prix 2022 de la meilleure initiative en matière de données alternatives décernée par « Inside Market Data & Inside Reference Data » [11].
ML
Nephel-ai utilise le Machine Learning pour simplifier la gestion des transactions financières. Elle permet le remplissage automatique, la détection d’anomalies et l’assistance au dénouement des transactions financières, permettant ainsi de faciliter la gestion des suspens et d’éviter les pénalités.
NLP
SESAMm propose une solution de NLP et de Machine Learning pour, entre autres, analyser les sentiments de marchés.
Conclusion
Les sociétés de gestion ont, pour la plupart, dépassé le stade de l’interrogation sur l’intérêt de ces innovations technologiques. Elles réfléchissent maintenant à la manière la plus optimale de les intégrer dans leur organisation et leur fonctionnement au quotidien. Les enjeux de la mise en place de ces nouvelles technologies sont nombreux :
- humain, en faisant accepter les changements de fonctionnement et d’organisation mais également en développant une culture de la transformation, en réussissant à capter de nouveaux talents et compétences
- organisationnel, avec la collaboration de nouveaux profils (data scientist…) avec des profils plus traditionnels (équipes de recherche, gérants de portefeuille…)
- technique, avec la mise en place de ces nouvelles technologies et l’infrastructure qui les supportent et financier, avec les investissement que cela nécessite. Ils sont d’autant plus importants pour les petites sociétés de gestion et celles de taille moyenne qui vivent une véritable « transformation » dans leur manière de fonctionner et d’appréhender les nouvelles technologies.
L’intelligence Artificielle (Machine Learning ou NLP) s’inscrit à différents endroits de la chaîne de valeur et il est important de bien définir où et quand l’utiliser et d’évaluer la rentabilité de sa mise en œuvre. Tout cela devant s’inscrire dans une stratégie globale afin de donner de la cohérence et du sens à leur intégration.
La mise en œuvre et le déploiement de ces innovations amènent à s’interroger sur la manière de le faire et sur l’arbitrage interne/externe qu’il peut y avoir en termes de développement des solutions (make or buy) et de ressources (recrutement ou appel à un prestataire externe).
Au-delà de ces réflexions, les enjeux environnementaux doivent être pris en compte dès les premiers travaux sur ces innovations. L’approche autour de ces solutions est actuellement élaborée dans une optique recherchant toujours plus de puissance de calcul et d’espace de stockage. Utiliser ces nouvelles technologies qui entraînent une consommation d’énergie et une empreinte carbone grandissantes ne pourra pas être tenable à long terme sans prendre en compte les aspects environnementaux.
Ce qu’il faut retenir
Intelligence Artificielle, Machine Learning, Big data, Cloud computing ou encore Informatique Quantique sont autant de technologies dont le développement croissant et l’intégration au sein des sociétés de gestion vont modifier en profondeur leur organisation et leur manière de travailler. Le cycle d’investissement (recherche, exécution et gestion) est impacté par ces innovations qui transforment la manière d’investir et de rechercher de l’Alpha, objectif ultime des sociétés de gestion.
Consultez nos « recommandations » et notre page « remerciements ».