Heureux depuis 2015 de présenter une conférence plénière lors des All4Customer Meetings avec un invité. La thématique de cette année – vous l’auriez deviné – était « Comment faire des IA les alliées de votre expérience client ». Ce sujet est la préoccupation du moment pour les milliers de rendez-vous d’affaires et les dizaines d’ateliers qui se déroulent sur deux jours à Cannes lors de cet événement annuel, organisé par WeYou.
Le speaker de cette année, Mick Lévy, est un slasher, un homme aux multiples casquettes, Directeur Stratégie & Innovation Digital Services chez Orange Business, animateur du Podcast Trench Tech – Esprits Critiques pour Tech Ethique et auteur du livre « Sortez vos données du frigo » sorti en 2021, un « Manifeste pour une exploitation intensive et responsable des données et des IA ».
Voici un compte-rendu synthétique de cette très riche intervention.
La conférence sur l’IA et l’expérience client de Mick Lévy
En guise d’introduction, je rappelais ce matin que selon l’étude faite lors du salon All4Customer d’avril dernier à Paris, 42% des professionnels pensent que l’IA générative type ChatGPT est la source de beaucoup d’anxiété même si 45% en tirent déjà profit car elle améliore l’expérience collaborateur (80%) et client (75%). Vous pouvez relire mon billet au sujet de cette étude « Les 3 défis de l’expérience client 2024 ».
« Il faut arrêter d’opposer l’intelligence artificielle et l’intelligence naturelle, humaine. L’enjeu n’est pas là. » Les questions sont selon le conférencier Mick Lévy : « Qu’est-ce qu’on va faire de l’IA, quelle est son apport de valeur, son utilité pour les collaborateurs, comment faire en sorte qu’elle soit transformationnelle, qu’elle améliore l’expérience client, qu’elle permette de créer de nouveaux services, de nouveaux usages. » La question n’est pas « Est-ce que l’IA va nous remplacer ? » mais bien « Comment allons-nous travailler avec l’IA ?« .
A ce propos, je faisais référence à mes chroniques de livre, dont l’excellent « Sens de la tech » dans lequel Catherine Malabou, philosophe française défend cette réconciliation qui tient autant à cœur à Mick Lévy qu’à moi.
« L’IA est déjà là et ses bénéfices très concrets sont sensibles et visibles aujourd’hui » nous dit Mick Lévy, « des vaches connectées dont on arrive à prédire les maladies aux cuves de vinification dotées de capteurs pour améliorer notre champagne… Et pourtant le monde ne semble plus tourner tout rond depuis l’avènement de ChatGPT qui a explosé tous les records du nombre d’utilisateurs, ayant dépassé les 200 millions il y a quelques semaines. Nous sommes dans l’oeil du cyclone, et les délires vont bon train, comme les peurs et les phantasmes... » ajoute notre conférencier.
« L’IA progresse tous les jours, mais ces IA vont atteindre un plateau. C’est le moment de se poser la question de l’intégration harmonieuse au sein des entreprises !
Est-ce si énorme ? » interroge Mick Lévy qui apporte ces pistes de réponse : « Selon McKinsey, la technologie de l’IA générative pourrait ajouter entre 2 600 et 4 400 milliards de dollars par an à l’économie mondiale. A chaque nouvelle technologie (Metavers, Objets connectés…), les grands analyses avaient donné des chiffres 20 à 50 fois inférieurs. L’impact va être massif. Mais l’IA générative, la plus récente forme, ne pèserait que 33% de cette valeur. Le gros de la valeur sera produit par les IA analytiques, prédictives, perceptives. Aux yeux des entreprises, l’IA générative agit comme un aimant, elle s’exprime, elle est visible. Tous les Comex veulent en faire quelque chose ! »
Les 3 grandes vagues de l’intelligence artificielle
Mick Lévy poursuit : « Depuis une vingtaine d’années, de nombreux usages sont dans notre quotidien et représentent la première vague, celle de l’analytique, du « machine learning » qui s’appuie sur des données structurées. Il va décrire et expliquer des situations complexes (telles que les comportements du client), mais aussi prédire ces comportements et enfin prescrire des actions.
La deuxième lame, c’est l’IA qu’on va appeler « perceptive », baséee sur des capteurs, des caméras (la vision par ordinateur) et le traitement du langage naturel. C’est la capacité de la machine à percevoir le monde réel. Exemple dans la relation client : le conseiller entre un verbatim du problème rencontré et il obtient 5 réponses jugées pertinentes. Dans 90% des cas, il y a la bonne réponse parmi elles. La 1ère réponse proposée par l’IA est la bonne dans 70% des cas. Résultats : le taux de productivité des collaborateurs augmente, leur taux de turn-over baisse.
La 3ème vague, c’est celle des IA génératives telles qu’on les connait aujourd’hui. Elles arrivent avec un package de connaissance énorme. On peut faire 3 choses avec elles :
- générer des textes, du code, des images, du son, de la vidéo. Des fiches produit, des argumentaires ou des emails personnalisés avec les éléments de langage propres à la marque jusqu’à la revue de clauses contractuelles… : les applications sont nombreuses.
- bénéficier d’une assistance documentaire. Résumés, traductions en une cinquantaine de langues, interactions avec le document : c’est certainement ce qui nourrit le plus en cas d’usages les entreprises, et c’est ce qui va changer la donne. On rentre dans la 3ème génération des outils d’accès à l’information !
- interagir. Cette interaction devient riche et on arrive à ce qu’on appelle l’omnimodalité (cf définition plus bas). Au texte, au prompt que nous avons expérimenté déjà, s’ajoutent l’interaction orale désormais, et bientôt la vidéo. L’omnimodalité va bientôt s’imposer et les progrès vont être énormes. Cela va amener l’intégration de l’IA dans un certain nombre de processus, dans des modes de fonctionnement… »
Selon l’invité de All4Customer Paris 2024, les cas d’usage et la création de valeur vont se faire au croisement de ces 3 grandes capacités.
Quels gains peut-on attendre de l’IA en entreprise ?
« Premièrement, selon Mick Levy, un gain de performance individuelle. On le voit tous, de ChatGPT à Copilot, il y a un gain de performance. Mais l’enjeu est la formation : savoir comment ça fonctionne, comment on déjoue les pièges, les hallucinations, être conscient des limites,… Il faut faire des choix en conscience, où va-t-on utiliser l’IA au quotidien, quelle compétence va-t-on continuer de cultiver par nous-même ?
Second sujet : la valeur. Gagner en productivité c’est très bien, mais créer de nouveaux services, de nouveaux produits, transformer des processus, imaginer de nouvelles expériences client avec ces IA, c’est une approche transformative qui augmente la valeur de votre entreprise. Mais à l’ère de l’IA générative (ou une poignée d’algorithmes sont les mêmes sur toute la planète), votre seul différenciant, c’est vos propres données, en tant qu’actif. Les entreprises vont devoir entrainer ces IA générales et leur apprendre votre langage, vos clients, vos produits, vos process, vos acronymes. Pour moi, c’est l’enjeu et on en a encore pour 10 à 20 ans de travail. » annonce Mick Lévy.
Pour poursuivre à propos d’IA et d’expérience client, je vous propose de lire ou relire mes billets à ce sujet :
- La chronique du livre « Et si la tech pouvait sauver le monde »
- La chronique de « When machines become customers »
- Le billet de tendance « Le client sera robot »
- La chronique du livre « Le sens de la tech »
- Les 3 défis de l’expérience client, basée sur l’étude All4Customer
1133ème billet signé Thierry Spencer, conférencier, créateur du blog Sens du client, co-fondateur de KPAM Next
Le petit plus : la réponse à une question, un nouveau terme à connaître.
Qu’est-ce que l’omnimodalité ?
L’omnimodalité (ou omnimodality en anglais), dans le domaine de l’Intelligence artificielle générative, dont parle Mick Lévy dans sa conférence synthétisée ci-dessus, fait référence à la capacité d’un modèle d’IA à traiter et à générer plusieurs types de données ou « modalités » (du texte, de l’image, de l’audio, de la vidéo, etc.) de façon totalement fluide et intégrée. Contrairement aux modèles spécialisés dans une seule modalité (par exemple, un modèle de traitement du langage naturel pour le texte ou un modèle de vision pour les images), un modèle omnimodal peut comprendre, interagir avec, et générer du contenu à partir de plusieurs sources multimodales.
« Cela ouvre un éventail plus large de cas d’utilisation impliquant l’intégration de données provenant de la parole, du texte et de la vision, ce qui permet de passer d’une approche multimodale à une approche omni-modale. La principale différence entre le multimodal et l’omnimodal est que dans l’omnimodal, les trois sources peuvent être exploitées en parallèle de manière transparente. » nous dit le blog de Cody à ce propos, ce qui devrait parler aux professionnels de l’expérience client qui savent faire la différence entre multicanal et omnicanal.
« L’omnimodalité va bientôt s’imposer et les progrès vont être énormes. Cela va amener l’intégration de l’IA dans un certain nombre de processus, dans des modes de fonctionnement… » déclarait Mick Lévy lors de la conférence à Cannes pour All4Customer Meetings.
Caractéristiques de l’omnimodalité en IA générative :
- Multimodalité unifiée. Le modèle d’IA peut passer d’une « modalité » à une autre ou les combiner (par exemple, générer une image à partir d’un texte, ou du texte à partir d’une vidéo).
- Contextualisation croisée. L’IA omnimodale utilise le contexte d’une modalité (comme une description textuelle) pour influencer ou enrichir la génération dans une autre modalité (comme une image).
- Caractère interopérable. Le modèle peut interpréter et générer différentes formes de données tout en maintenant la cohérence entre elles. Par exemple, la cohérence entre l’audio et les sous-titres d’une vidéo générée.
Cela permet à l’IA d’interagir plus naturellement avec les humains en combinant différents types de médias, et offre des applications plus riches et plus variées dans la création de contenu, nous précise le blog de Cody.
Exemple : OpenAI, leader dans le domaine de l’intelligence artificielle, a lancé il y a quelques mois ChatGPT 4o, abréviation de « GPT-4 Omni » (O pour Omnimodal). Ses possibilités, reprises ci-dessous et détaillées sur le blog My Connecting IA, sont :
- Le mode conversationnel. Les interactions seront plus humaines et engageantes. Lors de l’événement, OpenAI a démontré qu’il est capable de conversations en temps réel en interrompant la conversation pendant qu’elle parle, en lui demandant de changer de ton et de réagir aux émotions de l’utilisateur.
- La traduction instantanée. Lors du lancement, Mira Murati, directrice technologique d’OpenAI, a démontré comment l’assistant vocal peut traduire dans différentes langues, comme de l’anglais à l’italien et de l’italien à l’anglais en temps réel.
- Les capacités de mémorisation accrues. Cette version nouvelle de ChatGPT peut « se souvenir des interactions passées au sein d’une session, permettant des réponses plus contextuelles et personnalisées. Par exemple, si vous mentionnez que vous rédigez un rapport sur un sujet spécifique, il peut adapter ses suggestions ou la récupération d’informations à ce sujet tout au long de votre conversation. » nous précise My Connecting IA