skip content
Loading indicator

Language switcher

Repenser le travail : Leçons tirées des expériences axées sur l’IA d’Investissements RPC

Cpp941 Embedding Edge Pink 1200x480

Comme de nombreuses organisations, Investissements RPC aborde l’intelligence artificielle (IA) en tant qu’outil de productivité : moins de clics, ébauches et analyses plus rapides. Toutefois, cette approche ne permet d’ajouter de la valeur que de façon ponctuelle.

L’occasion transformationnelle de l’IA réside dans la réorganisation du travail, des personnes qui l’effectuent et des structures sur lesquelles il repose. Avec le temps, nous nous attendons à ce que l’IA remodèle non seulement les flux de travail et les processus, mais aussi les rôles, les tâches et les organisations.

Prenons l’exemple de la création de portefeuilles. Aujourd’hui, les analystes recommandent, les gestionnaires de portefeuille prennent des décisions et les équipes de gestion du risque valident. Cette structure découle d’une expertise limitée et de cloisonnements fonctionnels. Au cours des 12 à 18 prochains mois, nous nous attendons à ce que l’IA effectue une synthèse à l’échelle des différentes catégories d’actifs et évalue le risque tout en créant des scénarios de simulation de crise, ce qui éliminera bon nombre des limites actuelles.

Nous avons entrepris de tester ce concept au moyen d’une expérience d’agent autonome. Contrairement à l’IA traditionnelle, qui répond à des requêtes, ces agents agissent comme des travailleurs numériques qui décomposent les problèmes, coordonnent leurs activités à celles d’autres agents d’IA et vérifient leur travail, reproduisant les flux de travail d’équipes entières. Nous avons mené des essais comparatifs par rapport à trois tâches réelles liées aux placements : le rapprochement des positions, l’attribution du rendement et un scénario prospectif relatif aux droits de douane en comparant de simples requêtes à une combinaison de plusieurs agents qui s’organisent d’eux-mêmes à l’aide de barrières de vérification.

Ce que nous avons appris

Plutôt que de simplement accélérer les flux de travail, l’IA les a rendus désuets. Les équipes, les spécialistes et les comités actuels existent parce que les humains ont des limites. Nous ne pouvons ni tout traiter en même temps ni être des experts dans tous les domaines. L’IA élimine ces limites, ce qui permet aux organisations de se rebâtir autour de l’information qui circule continuellement au sein du travail plutôt que par l’intermédiaire des gens.

Première leçon : Faire correspondre l’IA au travail

Les tâches ne sont pas toutes identiques, alors ne forcez pas l’IA à adopter la même approche pour tout. Nous avons utilisé trois modèles :

  • L’IA excelle dans les tâches claires et fondées sur des règles;
  • L’IA exécute de complexes calculs nécessitant une surveillance humaine;
  • L’IA examine les problèmes ambigus pour lesquels le jugement stimule la valeur.

Chacune de nos capacités, c’est-à-dire ce que nous faisons, correspond à l’une de ces tendances et détermine la façon dont nous configurons le système. Le rapprochement des positions : vérifier qu’après les opérations, les dossiers internes sur les portefeuilles correspondent à ceux des dépositaires et des contreparties et les vérifications effectuées après les opérations relèvent du modèle l’IA excelle; l’attribution du rendement, du modèle l’IA exécute; et l’analyse de scénarios, du modèle l’IA examine. Pour que les résultats soient fiables, chacune de ces tâches nécessite une configuration différente.

Deuxième leçon : La gouvernance passe avant la puissance : spécifications et vérification

L’ajout d’agents n’a pas amélioré les résultats comme par magie. Ce qui a fonctionné, c’est la gouvernance stricte : requêtes précises, vérifications structurées des données, conventions cohérentes par rapport aux devises et exigence que tous les calculs soient exacts, avec une marge d’erreur maximale de cinq points de base. Nous avons forcé l’IA à documenter chaque hypothèse d’une étape à l’autre, comme si nous exigions que des étudiants présentent leur travail. Autrement, l’IA aurait pu fonder une hypothèse sur des dollars américains à la première étape, mais passer mystérieusement à l’euro à la troisième. Ces contrôles ont constamment surpassé l’orchestration à agents multiples.

Nous avons transformé ces leçons en un système à cinq points de contrôle imposant une discipline à chaque étape :

  • cadre : définir le problème et le contexte;
  • intrants : épurer et valider les chiffres;
  • modèle : élaborer ou effectuer une analyse et signaler les incertitudes;
  • validation : contre-vérifier les résultats;
  • narration : documenter chaque décision.

L’IA ne pouvait passer à l’étape suivante sans avoir satisfait aux critères de chaque point de contrôle.

Où l’intervention humaine a-t-elle eu les plus grandes répercussions? Aux points de contrôle un et trois : définir le problème et choisir ou définir l’approche analytique. Sans intervention humaine à ces deux étapes, les agents avaient tendance à s’égarer.

Exemple 1 : Rapprochement des positions (l’IA domine)

Nous avons donné à l’IA un casse-tête constitué d’un portefeuille de 522 millions de dollars comprenant des erreurs cachées : de mauvais prix, des opérations stratégiques ratées et des erreurs de calcul. L’approche par requêtes directes a lamentablement échoué : les modèles n’étaient pas d’accord et passaient à côté d’erreurs critiques (ils ont tenté de compenser par un formatage complexe, ce qui, bien sûr, n’a pas aidé!).

C’est lorsque nous avons exigé que l’IA évalue sa confiance à l’égard de chacun des constats que nous avons effectué une percée. Tout résultat inférieur à 70 % déclenchait un examen humain. Cette autoévaluation et la vérification des données ont amélioré l’exactitude de 45 %. Au mieux du processus, l’IA a repéré 83 % des erreurs que nous avions cachées (et les résultats étaient encore meilleurs en dollars).

Points à retenir : L’IA a obtenu les meilleurs résultats lors d’une première révision avec soutien humain. Deux modèles d’IA se contre-vérifiaient, et des humains examinaient les cas incertains. L’application des principes de base (vérification des sources, normalisation des identifiants, suivi de chaque chiffre) s’est avérée plus efficace que la complexité.

Exemple 2 : Rendement et attribution du risque (l’IA exécute)

La question n’était pas de savoir si l’IA pouvait faire des calculs, mais plutôt de savoir si ces calculs seraient exacts et vérifiables.

Face à un problème clair, avec des données épurées et une méthodologie explicite, l’IA a généré du code, exécuté l’attribution et expliqué ses résultats. Le principal risque était lié aux erreurs relatives à la définition de la méthode ou au choix d’une mauvaise approche analytique par l’IA, comme l’utilisation d’un calcul mensuel lorsqu’un calcul quotidien était nécessaire. Une fois le système connecté à des flux de données en direct, le temps de traitement a considérablement diminué et celui-ci a presque été effectué en temps réel.

Points à retenir : Encore une fois, le contrôle de la qualité a surpassé le nombre d’agents. L’IA a géré l’exécution, effectuant des calculs, vérifiant la logique des facteurs et validant la confiance statistique, tandis que les humains ont défini le problème et vérifié les résultats.

Exemple 3 : Incidence des scénarios (l’IA examine)

Nous avons demandé à l’IA de modéliser l’incidence de restrictions à l’exportation de semi-conducteurs sur un portefeuille diversifié à l’échelle mondiale comme le nôtre. En l’absence d’un cadre clair défini par l’humain, l’IA a produit des inepties, montrant parfois des gains là où il y aurait dû y avoir des pertes.

Toutefois, avec un cadre soigneusement conçu en fonction d’une approche hybride (expertise humaine et IA), elle a donné des résultats crédibles : une baisse de 1,82 % du portefeuille correspondant aux attentes des analystes et aux antécédents.

Points à retenir : La rapidité ne vaut rien sans exactitude. L’« IA autonome » a encore besoin de garde-fous humains pour éviter de tirer des conclusions dangereusement erronées.

Troisième leçon : Conception reposant sur la mémoire et l’état

De nombreuses hallucinations de l’IA ne sont pas des inventions, mais plutôt des pertes de mémoire ou des lacunes de l’IA. Lorsque les dollars américains de l’étape 1 se sont mystérieusement transformés en euros à l’étape 3, ce n’était pas dû à la créativité de l’IA, mais à un oubli ou au fait qu’elle répondait en supposant raisonnablement que l’intrant réel n’avait pas encore été précisé. Lorsqu’on a bien défini le cadre et l’approche analytique et que l’on a forcé l’IA à préserver chaque hypothèse et à lui faire franchir chacun des cinq points de contrôle, cela a fortement réduit les erreurs.

La plupart des mauvaises réponses découlent d’un contexte oublié. Il est essentiel d’intégrer la traçabilité à chaque étape.

Quatrième leçon : Le modèle opérationnel doit évoluer

Les équipes traditionnelles – risque, recherche et gestion de portefeuille – reflètent la façon dont les humains divisent actuellement le travail. L’IA change cette logique. Les futurs organigrammes seront fondés sur la façon dont les humains et l’IA divisent naturellement le travail.

Nous constatons que trois tendances émergent :

  • L’IA excelle : L’IA fait le travail, les êtres humains traitent les exceptions (p. ex., les opérations automatisées).
  • L’IA exécute : L’IA analyse, les êtres humains décident (p. ex., recommandations de placement).
  • L’IA examine : L’IA repère des tendances que les humains interprètent et peaufinent (p. ex., études de marché).

Cette transition nous oriente vers de petites équipes organisées en fonction des résultats, et non des services, et trois rôles humains réinventés :

  • Les animateurs, qui gèrent les flux de travail de l’IA.
  • Les architectes, qui définissent le cadre des problèmes.
  • Les leaders, qui prennent des décisions.

Le changement stratégique

L’activité économique a toujours consisté à cristalliser l’information sous forme de produits. Un crayon incarne la cristallisation de connaissances tirées des secteurs forestier, minier, de la chimie et de la fabrication, une spécialisation qui compense une intervention humaine limitée.

La gestion des placements est semblable : il s’agit d’une cristallisation de calculs produisant des portefeuilles et des décisions. Les rôles visent à contourner ces limites. Le rôle d’analyste des actions existe parce qu’une personne ne peut traiter simultanément les risques de crédit, les valorisations boursières et les tendances macroéconomiques. L’ensemble de notre structure sectorielle repose sur les contraintes cognitives humaines.

Chaque institution doit maintenant faire un choix : utiliser l’IA pour obtenir une accélération de 20 % ou tout reconstruire pour être 10 fois plus différent.

Nos expériences suggèrent trois mesures immédiates :

  1. Arrêtez d’optimiser, commencez à réinventer. Repérez les flux de travail qui n’existent que parce que les humains ne peuvent pas tout traiter simultanément et tester si l’IA peut combiner les étapes séquentielles en processus continus.
  2. Investir dans la gouvernance plutôt que dans la complexité. Les infrastructures de vérification, comme nos cinq points de contrôle et nos seuils de confiance, importent plus qu’une orchestration perfectionnée.
  3. Les humains doivent rester aux commandes. Réalisez de petites expériences où l’IA prend l’initiative et les humains vérifient, l’IA analyse et les humains décident, ou encore l’IA examine et les humains dirigent. Votre futur modèle d’exploitation émergera de ces tendances.

La transformation n’approche pas : elle est déjà là. Ceux qui accepteront que les contraintes organisationnelles actuelles sont déjà désuètes deviendront les chefs de file.

Why every investor should embrace Responsible AI

Voici pourquoi chaque investisseur devrait adopter l’IA responsable

Alors que les investisseurs font face à l’expansion rapide de l’IA, l’IA responsable devient une considération de plus en plus

Cpp695 Jon Webster 0507b

Pourquoi l’IA générative marque-t-elle un « changement progressif » dans

À titre de chef de l’exploitation d’Investissements RPC, Jon Webster est aux premières lignes des changements technologiques qui

Weg Blog Hero Image 1920w 0312

Comment les investisseurs composent-ils à l’ère de l’IA

L’intelligence artificielle générative (IA générative) transforme le monde des placements.

Comme de nombreuses organisations, Investissements RPC aborde l’intelligence artificielle (IA) en tant qu’outil de productivité : moins de clics, ébauches et analyses plus rapides. Toutefois, cette approche ne permet d’ajouter de la valeur que de façon ponctuelle. L’occasion transformationnelle de l’IA réside dans la réorganisation du travail, des personnes qui l’effectuent et des structures sur lesquelles il repose. Avec le temps, nous nous attendons à ce que l’IA remodèle non seulement les flux de travail et les processus, mais aussi les rôles, les tâches et les organisations. Prenons l’exemple de la création de portefeuilles. Aujourd’hui, les analystes recommandent, les gestionnaires de portefeuille prennent des décisions et les équipes de gestion du risque valident. Cette structure découle d’une expertise limitée et de cloisonnements fonctionnels. Au cours des 12 à 18 prochains mois, nous nous attendons à ce que l’IA effectue une synthèse à l’échelle des différentes catégories d’actifs et évalue le risque tout en créant des scénarios de simulation de crise, ce qui éliminera bon nombre des limites actuelles. Nous avons entrepris de tester ce concept au moyen d’une expérience d’agent autonome. Contrairement à l’IA traditionnelle, qui répond à des requêtes, ces agents agissent comme des travailleurs numériques qui décomposent les problèmes, coordonnent leurs activités à celles d’autres agents d’IA et vérifient leur travail, reproduisant les flux de travail d’équipes entières. Nous avons mené des essais comparatifs par rapport à trois tâches réelles liées aux placements : le rapprochement des positions, l’attribution du rendement et un scénario prospectif relatif aux droits de douane en comparant de simples requêtes à une combinaison de plusieurs agents qui s’organisent d’eux-mêmes à l’aide de barrières de vérification. Ce que nous avons appris Plutôt que de simplement accélérer les flux de travail, l’IA les a rendus désuets. Les équipes, les spécialistes et les comités actuels existent parce que les humains ont des limites. Nous ne pouvons ni tout traiter en même temps ni être des experts dans tous les domaines. L’IA élimine ces limites, ce qui permet aux organisations de se rebâtir autour de l’information qui circule continuellement au sein du travail plutôt que par l’intermédiaire des gens. Première leçon : Faire correspondre l’IA au travail Les tâches ne sont pas toutes identiques, alors ne forcez pas l’IA à adopter la même approche pour tout. Nous avons utilisé trois modèles : L’IA excelle dans les tâches claires et fondées sur des règles; L’IA exécute de complexes calculs nécessitant une surveillance humaine; L’IA examine les problèmes ambigus pour lesquels le jugement stimule la valeur. Chacune de nos capacités, c’est-à-dire ce que nous faisons, correspond à l’une de ces tendances et détermine la façon dont nous configurons le système. Le rapprochement des positions : vérifier qu’après les opérations, les dossiers internes sur les portefeuilles correspondent à ceux des dépositaires et des contreparties et les vérifications effectuées après les opérations relèvent du modèle l’IA excelle; l’attribution du rendement, du modèle l’IA exécute; et l’analyse de scénarios, du modèle l’IA examine. Pour que les résultats soient fiables, chacune de ces tâches nécessite une configuration différente. Deuxième leçon : La gouvernance passe avant la puissance : spécifications et vérification L’ajout d’agents n’a pas amélioré les résultats comme par magie. Ce qui a fonctionné, c’est la gouvernance stricte : requêtes précises, vérifications structurées des données, conventions cohérentes par rapport aux devises et exigence que tous les calculs soient exacts, avec une marge d’erreur maximale de cinq points de base. Nous avons forcé l’IA à documenter chaque hypothèse d’une étape à l’autre, comme si nous exigions que des étudiants présentent leur travail. Autrement, l’IA aurait pu fonder une hypothèse sur des dollars américains à la première étape, mais passer mystérieusement à l’euro à la troisième. Ces contrôles ont constamment surpassé l’orchestration à agents multiples. Nous avons transformé ces leçons en un système à cinq points de contrôle imposant une discipline à chaque étape : cadre : définir le problème et le contexte; intrants : épurer et valider les chiffres; modèle : élaborer ou effectuer une analyse et signaler les incertitudes; validation : contre-vérifier les résultats; narration : documenter chaque décision. L’IA ne pouvait passer à l’étape suivante sans avoir satisfait aux critères de chaque point de contrôle. Où l’intervention humaine a-t-elle eu les plus grandes répercussions? Aux points de contrôle un et trois : définir le problème et choisir ou définir l’approche analytique. Sans intervention humaine à ces deux étapes, les agents avaient tendance à s’égarer. Exemple 1 : Rapprochement des positions (l’IA domine) Nous avons donné à l’IA un casse-tête constitué d’un portefeuille de 522 millions de dollars comprenant des erreurs cachées : de mauvais prix, des opérations stratégiques ratées et des erreurs de calcul. L’approche par requêtes directes a lamentablement échoué : les modèles n’étaient pas d’accord et passaient à côté d’erreurs critiques (ils ont tenté de compenser par un formatage complexe, ce qui, bien sûr, n’a pas aidé!). C’est lorsque nous avons exigé que l’IA évalue sa confiance à l’égard de chacun des constats que nous avons effectué une percée. Tout résultat inférieur à 70 % déclenchait un examen humain. Cette autoévaluation et la vérification des données ont amélioré l’exactitude de 45 %. Au mieux du processus, l’IA a repéré 83 % des erreurs que nous avions cachées (et les résultats étaient encore meilleurs en dollars). Points à retenir : L’IA a obtenu les meilleurs résultats lors d’une première révision avec soutien humain. Deux modèles d’IA se contre-vérifiaient, et des humains examinaient les cas incertains. L’application des principes de base (vérification des sources, normalisation des identifiants, suivi de chaque chiffre) s’est avérée plus efficace que la complexité. Exemple 2 : Rendement et attribution du risque (l’IA exécute) La question n’était pas de savoir si l’IA pouvait faire des calculs, mais plutôt de savoir si ces calculs seraient exacts et vérifiables. Face à un problème clair, avec des données épurées et une méthodologie explicite, l’IA a généré du code, exécuté l’attribution et expliqué ses résultats. Le principal risque était lié aux erreurs relatives à la définition de la méthode ou au choix d’une mauvaise approche analytique par l’IA, comme l’utilisation d’un calcul mensuel lorsqu’un calcul quotidien était nécessaire. Une fois le système connecté à des flux de données en direct, le temps de traitement a considérablement diminué et celui-ci a presque été effectué en temps réel. Points à retenir : Encore une fois, le contrôle de la qualité a surpassé le nombre d’agents. L’IA a géré l’exécution, effectuant des calculs, vérifiant la logique des facteurs et validant la confiance statistique, tandis que les humains ont défini le problème et vérifié les résultats. Exemple 3 : Incidence des scénarios (l’IA examine) Nous avons demandé à l’IA de modéliser l’incidence de restrictions à l’exportation de semi-conducteurs sur un portefeuille diversifié à l’échelle mondiale comme le nôtre. En l’absence d’un cadre clair défini par l’humain, l’IA a produit des inepties, montrant parfois des gains là où il y aurait dû y avoir des pertes. Toutefois, avec un cadre soigneusement conçu en fonction d’une approche hybride (expertise humaine et IA), elle a donné des résultats crédibles : une baisse de 1,82 % du portefeuille correspondant aux attentes des analystes et aux antécédents. Points à retenir : La rapidité ne vaut rien sans exactitude. L’« IA autonome » a encore besoin de garde-fous humains pour éviter de tirer des conclusions dangereusement erronées. Troisième leçon : Conception reposant sur la mémoire et l’état De nombreuses hallucinations de l’IA ne sont pas des inventions, mais plutôt des pertes de mémoire ou des lacunes de l’IA. Lorsque les dollars américains de l’étape 1 se sont mystérieusement transformés en euros à l’étape 3, ce n’était pas dû à la créativité de l’IA, mais à un oubli ou au fait qu’elle répondait en supposant raisonnablement que l’intrant réel n’avait pas encore été précisé. Lorsqu’on a bien défini le cadre et l’approche analytique et que l’on a forcé l’IA à préserver chaque hypothèse et à lui faire franchir chacun des cinq points de contrôle, cela a fortement réduit les erreurs. La plupart des mauvaises réponses découlent d’un contexte oublié. Il est essentiel d’intégrer la traçabilité à chaque étape. Quatrième leçon : Le modèle opérationnel doit évoluer Les équipes traditionnelles – risque, recherche et gestion de portefeuille – reflètent la façon dont les humains divisent actuellement le travail. L’IA change cette logique. Les futurs organigrammes seront fondés sur la façon dont les humains et l’IA divisent naturellement le travail. Nous constatons que trois tendances émergent : L’IA excelle : L’IA fait le travail, les êtres humains traitent les exceptions (p. ex., les opérations automatisées). L’IA exécute : L’IA analyse, les êtres humains décident (p. ex., recommandations de placement). L’IA examine : L’IA repère des tendances que les humains interprètent et peaufinent (p. ex., études de marché). Cette transition nous oriente vers de petites équipes organisées en fonction des résultats, et non des services, et trois rôles humains réinventés : Les animateurs, qui gèrent les flux de travail de l’IA. Les architectes, qui définissent le cadre des problèmes. Les leaders, qui prennent des décisions. Le changement stratégique L’activité économique a toujours consisté à cristalliser l’information sous forme de produits. Un crayon incarne la cristallisation de connaissances tirées des secteurs forestier, minier, de la chimie et de la fabrication, une spécialisation qui compense une intervention humaine limitée. La gestion des placements est semblable : il s’agit d’une cristallisation de calculs produisant des portefeuilles et des décisions. Les rôles visent à contourner ces limites. Le rôle d’analyste des actions existe parce qu’une personne ne peut traiter simultanément les risques de crédit, les valorisations boursières et les tendances macroéconomiques. L’ensemble de notre structure sectorielle repose sur les contraintes cognitives humaines. Chaque institution doit maintenant faire un choix : utiliser l’IA pour obtenir une accélération de 20 % ou tout reconstruire pour être 10 fois plus différent. Nos expériences suggèrent trois mesures immédiates : Arrêtez d’optimiser, commencez à réinventer. Repérez les flux de travail qui n’existent que parce que les humains ne peuvent pas tout traiter simultanément et tester si l’IA peut combiner les étapes séquentielles en processus continus. Investir dans la gouvernance plutôt que dans la complexité. Les infrastructures de vérification, comme nos cinq points de contrôle et nos seuils de confiance, importent plus qu’une orchestration perfectionnée. Les humains doivent rester aux commandes. Réalisez de petites expériences où l’IA prend l’initiative et les humains vérifient, l’IA analyse et les humains décident, ou encore l’IA examine et les humains dirigent. Votre futur modèle d’exploitation émergera de ces tendances. La transformation n’approche pas : elle est déjà là. Ceux qui accepteront que les contraintes organisationnelles actuelles sont déjà désuètes deviendront les chefs de file. Voici pourquoi chaque investisseur devrait adopter l’IA responsable Alors que les investisseurs font face à l’expansion rapide de l’IA, l’IA responsable devient une considération de plus en plus L'Article juin 21, 2024 Pourquoi l’IA générative marque-t-elle un « changement progressif » dans À titre de chef de l’exploitation d’Investissements RPC, Jon Webster est aux premières lignes des changements technologiques qui L'Article mai 16, 2024 Comment les investisseurs composent-ils à l’ère de l’IA L’intelligence artificielle générative (IA générative) transforme le monde des placements. L'Article mars 14, 2024
Privacy Preferences
When you visit our website, it may store information through your browser from specific services, usually in form of cookies. Here you can change your privacy preferences. Please note that blocking some types of cookies may impact your experience on our website and the services we offer.