Conseiller, l’intelligence artificielle convoite votre travail. Êtes vous prêt à vous défendre?
En tant que conseiller en investissement, aux côtés de nombreux autres professionnels du conseil (avocats, conseillers en stratégie, informatique…), j’observe l’essor de l’IA avec intérêt et préoccupation. Que dois-je faire? Comment puis-je réagir pour survivre à cette vague qui risque d’emporter mon travail ? Et d’abord, il y a t’il vraiment une vague?
Des questions bien légitimes. Gardons la tête froide et tâchons d’y répondre…
Eh bien, nous avons encore un peu de temps
Comme je l’écrivais ici, je continue de penser que l’IA est encore incapable à ce jour de remplacer efficacement les humains sur des problèmes complexes (i.e. impliquant énormément de données). L’industrie du jeu vidéo le sait bien, et les talents en IA n’y manquent pas. Bien sûr, les LLMs (« Large Language Models » comme ChatGPT) constituent un énorme pas en avant pour l’IA, et il est certain que ceux-ci améliorent déjà, et continueront d’améliorer, le traitement des problèmes complexes, dont l’IA des jeux vidéo, mais surtout d’autres problèmes autrement plus importants.
Mais ce n’est pas encore le cas pour le conseil complexe aux personnes. En fait, l’IA est encore limitée pour l’instant dans ses cas d’utilisation pratique pour le conseil direct. Cela va sans doute changer, cela change en ce moment même, mais non, en tant que conseiller financier, je ne peux pas aujourd’hui être remplacé par l’IA.
De nombreuses personnes dont le métier consiste à « conseiller des personnes » devraient cependant examiner très attentivement son évolution. Les avocats bien sûr, et également toutes les professions liées au droit. Les investisseurs également, et en fait tous les métiers qui vendent une prestation intellectuelle.
Mais soyons un peu plus pragmatiques. Pourquoi ? Quelles sont les limites pratiques qui m’empêchent dans les faits d’utiliser ou d’être remplacé par l’IA en tant que conseiller à ce jour ?
Eh bien, c’est pas terrible en fait
La limitation purement technique à l’utilisation des LLMs pour des problèmes autres que simples réside dans deux problèmes :
Premièrement, à présent, la qualité du conseil n’est pas au rendez-vous. Clair et net. Les LLMs sont très efficaces pour faire des recherches rapides et complètes, créer des images et des vidéos, créer des modules de codes informatique, organiser, synthétiser, et écrire de longs textes qui sont effectivement très bien écrits, mais quand vous entrez dans des problèmes complexes, et bien… ils ne peuvent tout simplement pas répondre de façon assez fiable. Ils font constamment des fautes, ne se rappellent pas de ce qu’on a écrit il y a une minute, font des erreurs de calcul, se contredisent… bref çà ne va pas. D’autres algorithmes et technologies d’IA « classiques » existent bien sûr, ils sont nombreux et utiles dans leurs domaines d’application, mais ils n’ont pas encore prouvé qu’ils pouvaient remplacer les conseillers non plus pour le moment.
Les « robo-advisors » existent depuis environ dix ans maintenant et il n’y a toujours pas de véritable intelligence artificielle inclue dans ce service. Un très bon service, certes, mais qui ne remplace pas les conseillers en chair et en os (et n’en a pas la prétention). L’IA n’est pas vraiment entrée dans le domaine. Cela ne fonctionne tout simplement pas.
Bien sûr, cela s’améliore, et je suis cela de près. Mais je ne peux absolument pas faire confiance à un OpenAI GPT ce jour pour analyser la situation d’un client et encore moins proposer une optimisation.
Le deuxième problème peut être résumé par cette devise classique de l’analyse de données :
Garbage in, garbage out
Mauvaises données à l’entrée, mauvaises analyses à la sortie.
Utiliser l’IA pour optimiser fonctionne dans de nombreux cas, mais l’éternel problème du conseil est toujours là : aussi intelligents que vous, ou l’ordinateur, puissiez être, vous obtiendrez toujours de mauvais résultats si vos données de départ sont incomplètes, biaisées ou simplement incorrectes.
Et transmettre d’énormes quantités de données à un LLM est très pénible. Vous devez les pré-formater et travailler beaucoup sur les instructions du LLM pour vous assurer qu’il les comprend. Il faut beaucoup répéter et tester sa compréhension et sa mémoire. Beaucoup de travail. Est-ce que ça vaut le coup?
Bien sûr, cela peut être largement automatisé (avec des API entre autres), mais de toute façon, le conseiller devra toujours collecter et vérifier des données, étape qui dépend fortement d’un processus non automatisé, de biais émotionnels et de limitations purement politiques ( les tiers – comme les banques – ne cèdent PAS leurs données et font tout pour ne PAS les donner ).
Une machine ne peut pas encore assumer la responsabilité du conseil
C’est un gros problème pour l’utilisation des LLMs et IA en général.
Cela fait un certain temps qu’IBM l’a exprimé de manière claire, et bien avant que ChatGPT ne devienne célèbre. Dans l’un de ses manuels de formation des années 70, l’entreprise énoncait ceci comme principe fondateur :
« Un ordinateur ne peut jamais être tenu responsable, donc un ordinateur ne doit jamais prendre de décision de gestion »
Au-delà des barrières réglementaires, qui vont probablement se multiplier dans le monde entier à cause de cela (cela a déjà commencé dans l’UE, nous sommes si doués dans ce domaine), ceci une véritable limite à l’utilisation de l’IA et des LLMs en particulier.
Lorsque nous payons pour des conseils d’experts, nous payons en réalité pour trois sources de valeur : la connaissance, l’expérience et la responsabilité. Et la partie responsabilité est très importante.
En fait, et cela est particulièrement vrai pour les experts juridiques: ce que les clients achètent, ce ne sont pas seulement des connaissances ou de l’expérience. Ce qu’ils achètent surtout, c’est la certitude de ces conseils juridiques, c’est la responsabilité. « Un avocat me l’a dit : ça DOIT être vrai ! ». C’est d’ailleurs pour cela qu’un avocat ou notaire ne revient (quasiment) jamais sur son avis initial. Ils savent bien que si ils admettent qu’ils se sont trompés ils remettent en question une partie essentielle de la valeur de leur service, la certitude.
Pour l’instant, l’IA ne peut pas fournir cela. Cela pourrait cependant devenir le cas dans le futur, quand la qualité des conseils s’améliorera et que la société aura reconnu que les conseils en matière d’IA sont tout aussi fiables, voire plus, que les conseils humains.
En conseil financier, cela pourrait être exprimé de cette façon:
On saura que l’IA est devenu compétitive sur ce point lorsque le membre du foyer qui gère les finances pourra rentrer chez lui et dire sereinement à son mari ou à sa femme « OK, nous avons perdu 30% de notre capital retraite, mais j’ai juste suivi les conseils du robot-conseiller que j’ai engagé l’année dernière, donc ce n’est pas ma faute, n’est-ce pas ? ».
À QUI appartiennent les données ? À qui appartient l’intelligence ?
Tels qu’ils sont actuellement structurés et utilisés, les LLMs sont un peu une arnaque. Nous le savons tous.
Les utilisateurs, nous, leur donnons gratuitement des connaissances en interagissant avec eux.
Nous leur fournissons des données ( parfois même sensibles !).
Et nous leur apportons BEAUCOUP d’expérience professionnelle ou émotionnelle.
Et qu’obtenons-nous en retour? Pas grand chose. A moins d’être une très grosse entreprise avec des poches profondes et qui puisse se permettre d’avoir une équipe LLM interne et une infrastructure propriétaire, nous devons tous faire confiance à OpenAI.
Je peux dés maintenant commencer à former un robot-conseiller personnel en finance (chatGPT permet cela pour ceux qui ne l’ont pas encore essayé), lui donner toutes mes connaissances, mon expérience et mes données… mais OpenAI peut très bien me mettre dehors demain avec une bonne tape dans le dos, un merci et au revoir.
Je me limite donc naturellement. Pour l’instant, je ne peux pas utiliser sérieusement les LLMs car je ne possède rien du travail et de la valeur que j’y apporte.
Je ne peux en aucun cas dépendre d’eux. Ce n’est pas une bonne décision professionnelle.
Cela pourrait changer lorsque les fournisseurs de LLMs trouveront un moyen de protéger la valeur individuelle donnée par les utilisateurs, ce qui signifie :
- Toutes les instructions et données doivent être facilement transférables vers un autre LLM.
- La valeur apportée par un utilisateur doit être complètement séparée des autres utilisateurs. Ce n’est pas seulement une question de confidentialité, je ne veux pas travailler pour les autres et je suis presque sûr de ne pas être le seul. Pour l’instant je ne suis pas sûr que les tests que je fais avec mon GPT personnel ne sont pas utiles pour améliorer le modèle général (en fait je suis plutôt sûr du contraire).
Si je devais être parfaitement honnête et cynique, je préfère que d‘autres conseillers donnent leur temps et partagent leur expérience avec le modèle, afin que je puisse l’utiliser plus tard gratuitement quand il sera au point.
Mais nous devons nous préparer, dés maintenant.
Oui, car, en lisant la partie précédente, vous avez remarqué que bon nombre de ces problèmes peuvent être résolus d’une manière ou d’une autre (au moins partiellement). Pour commencer, ChatGPT est sur le point d’ouvrir son « GPT Store », sorte de bibliothèque de « personnages », ce qui pourrait être un excellent moyen pour les créateurs de conseillers « numériques » de protéger et monétiser la valeur qu’ils transmettent au modèle.
Très bientôt, j’en suis sur, il y aura un conseiller public, accessible pour 19,99€ par mois sur open AI (ou autre) et qui pourra fournir avec une bonne qualité (pas parfaite mais suffisante pour ce prix) une très grande partie des conseils que nous vendons.
Alors, que pouvons-nous faire ?
- Premièrement, en tant que conseiller, nous devons cesser de nous définir comme de pures références techniques. Nous ne possédons pas de connaissances uniques. Tout ce qui est technique que nous connaissons est accessible au public, ce qui signifie que les LLMs disposent de ces informations.
- Commencer dès maintenant à travailler sur l’IA. Cela peut être un ennemi ou un ami. Si nous voulons survivre, nous devrons être capables de l’utiliser lorsqu’elle sera suffisamment performante. Et ce n’est pas facile. Il n’existe pas de cours d’apprentissage « maîtriser l’IA en 10 minutes ». Cela signifie que nous devons y investir du temps. Et investir est risqué : cela pourrait ne pas être rentable.
- Nous devons ainsi maîtriser les « hacks » outils de productivité pratiques que nous proposent déjà les LLMs. Ils ne peuvent pas encore nous remplacer, mais ils peuvent néanmoins augmenter considérablement notre productivité et précision sur des tâches très spécifiques. Il faut savoir les utiliser. Et nous devons continuer à en apprendre davantage à mesure qu’ils s’améliorent et se développent.
- Vendre de la responsabilité. Cela implique de prendre des risques et de les assumer. Nous devons supporter le fardeau du stress et de l’incertitude pour nos clients. C’est quelque chose de très difficile à remplacer.
- Travailler sur notre tarification. Toute forme de rémunération horaire n’a aucun sens face à un ordinateur qui sera toujours plus rapide que nous. Nous vendons de la valeur, pas du temps. Nous devons donc adapter nos tarifs pour qu’ils reflètent correctement la valeur que nous offrons (et il faut bien sûr qu’elle existe…)
- Enfin, focalisons-nous sur l’intermédiation, le coaching comportemental et les relations humaines. Les compétences relationnelles (« soft skills »). L’accompagnement psychologique, les mises en relations. Il y a une limite humaine à la technologie. Regardez les livres : il y a encore beaucoup de livres papier. Certaines personnes aiment simplement la sensation du papier. Aussi intelligente que soit une IA, elle restera toujours une machine et beaucoup de gens auront du mal à croire qu’elle ressent quoi que ce soit (Certains conseillers non plus, mais c’est un autre problème). Soyons celui qui ressent sincèrement de l’empathie, de l’amitié et se réjouit avec nos clients. Pour conclure, voici une citation que j’ai entendue récemment et qui résume assez bien mon opinion :
Nous avons plus de chances d’être remplacés par un conseiller qui utilise l’IA que par l’IA seule. Mais nous pouvons être remplacés.