Si demain l’assistant personnel virtuel doté d’intelligence va devenir incontournable, les machines intelligentes désignées aussi par systèmes cognitifs feront partie des fondations du système d’information de l’entreprise.
Entreprise 3.0 : De l’urbanisation à l’humanisation du SI
Pour tirer toute la valeur des informations et des évènements générés par l’évolution de leur écosystème vers le tout digital, de plus en plus d’entreprises n’auront d’autres choix que de recourir à l’intelligence machine. Celle-ci sera la seule en mesure d’apporter à terme une réponse industrielle à l’analyse et la corrélation en masse de toutes les données à disposition de l’entreprise (données transactionnelles, sociales, comportementales, techniques…) et à la prise de décision en juste à temps à partir d’évènements de moins en moins prévisibles corrélativement au développement des objets communicants, des réseaux sociaux, de l’économie des APIs et de la dématérialisation des processus métiers.
L’intelligence artificielle, nouvelle fondation de l’entreprise 3.0
Disparus de l’actualité, les travaux sur la création d’une intelligence artificielle n’ont cependant pas cessé dans les laboratoires de recherche et les récentes avancées ont même permis leur introduction, certes plus ludique qu’efficace, auprès du grand public. Alors, même si nous sommes encore loin de pouvoir simuler le fonctionnement du cerveau humain, les dernières propositions d’architecture de machines intelligentes inspirées de celle de notre cortex et les exemples encourageants de leurs mises en œuvre sous forme logicielle pour l’entreprise (ex IBM Watson) et matérielle (ex puce cognitive SyNAPSE) ont déjà permis de faire des avancées conséquentes et produire des résultats pertinents, rendant l’utopie de réussir à créer une intelligence machine plus envisageable que jamais.
Les nouvelles architectures proposées s’appuient sur ce que certains, et de plus en plus, pensent être au cœur des facultés de l’intelligence de notre cortex : la reconnaissance de forme (Jeff Hawkins – On-Intelligence ; Ray Kurtzweil – How to create a mind). L’objectif est de pouvoir, dans un premier temps, reproduire les capacités d’apprentissage du cerveau, d’analyse et de prise de décision, puis de créativité et in-fine d’émotion et de conscience pour les visions les plus futuristes.
Des systèmes comme IBM Watson exploitent ces nouvelles architectures et sont déjà capables d’apprentissage et d’interactions « naturelles » avec les humains en langage naturel et se positionnent comme des aides à la décision efficace, voire dans certaines situations comme substituts à des décisions humaines. Ils sont ainsi capables d’imaginer des nouvelles recettes de cuisine, aider aux diagnostics médicaux, aider à l’analyse des comportements clients, à la détection de fraude, jouer aux jeux vidéo… Le secret commun à tous ces systèmes : ils n’ont pas été programmés pour telles ou telles tâches, ils ont été programmés pour apprendre et engendrer de nouvelles connaissances et leur algorithme ainsi codé entraîné pour répondre à un cas d’usage spécifique.
On comprend dès lors que ces technologies intéressent les entreprises qui se rendent compte de la complexité qu’il y a à imaginer des algorithmes pertinents, fiables et performants capables de leur procurer un avantage concurrentiel durable. La perspective de pouvoir disposer d’un système cognitif capable d’apprendre, de raisonner et de décider comme l’humain sait le faire est une idée infiniment plus séduisante. Pour autant est-elle réaliste à un horizon raisonnable et l’entreprise doit-elle s’y engager dès maintenant ?
Il existe d’ores et déjà des cas d’usage à court terme permettant notamment d’améliorer l’expérience client, la performance du marketing et le pilotage des processus de l’entreprise :
1. L’automatisation du service client
Cela se matérialise par des assistants virtuels en guise d’interlocuteurs dans les centres d’appels clients et sur internet, des interfaces vocales en langage naturel… Ces assistants existent déjà aujourd’hui et si l’humain intervient encore c’est lorsque la machine n’est pas en mesure de répondre ou de comprendre, principalement parce qu’elle manque encore de sens commun (contexte et sens implicite, ironie, second degré, métaphore…). Pour autant, le transfert de responsabilité vers l’intelligence machine va inéluctablement s’amplifier et s’accélérer pour plusieurs raisons majeures :
• La continuité de service qui impose d’être ouvert 24/24-7j/7 et d’apporter une réponse utile pour garantir une expérience client réussie.
• Le développement des self-services (Home banking, self-care, on-line purchasing…) qui déplacent la valeur ajoutée du conseil et de l’assistance à l’achat vers de l’aide à l’usage des services et des produits.
• La multiplication des offres, qui dans un contexte marché de fort turn-over des ressources, complexifie la formation des conseillers clientèle et le développement de conseillers-expert à même d’apporter une valeur perçue supérieure aux substituts marchés (réseau sociaux, sites spécialisés…)
• La digitalisation des processus qui part leur caractère dématérialisé, omni-canal et non-linéaire multiplient les combinatoires possibles d’usages (ex Web-to-store) et rendent de plus en plus difficile l’analyse des causes de disfonctionnement et leurs résolutions.
2. Le marketing interactif
Avec la multiplication des sources d’information sur les produits et les services, la diversification des techniques marketing, des canaux et médias, les campagnes marketing de masse traditionnelles voient leur efficacité s’effondrer face à des prospects/clients de plus en plus avertis et volatiles. L’exemple de la publicité sur Internet via des bannières est d’ailleurs très évocateur ; en effet, selon une étude de ComScore, 8% des internautes génèrent 85% des clics et 50% des clics sur des bannières mobiles sont accidentels ! Avec des cartes redistribuées entre les acteurs de la chaîne de valeur et des pistes brouillées par une perte de contrôle et de monopole sur la communication de marque, des produits et des services, les marketeurs ne sont clairement plus en mesure de répondre efficacement et durablement aux nouvelles exigences digitales qui requièrent un marketing conversationnel en temps réel et individualisé.
Mais reconstituer les faits sur l’ensemble du parcours client, comprendre ses motivations avant et pendant l’achat, identifier ses facteurs clés d’adhésion aux produits/services de la marque et inversement les raisons de s’en détourner, anticiper la meilleure action à faire (push d’offre/tarification différenciée, push de contenu versus centre d’intérêt/préoccupation/graphe de relation, prise de contact, invitation à un évènement, relance…) et le meilleur moment pour la faire (évolution personnelle, évolution professionnelle, intérêt naissant pour un produit/service…) nécessitent d’être capable de traiter et de corréler des volumes de données comme jamais auparavant, en particulier les fameuses Big Data (Tweets, Likes, Web logs, GPS Data, Video Data, Voice Data…).
Face à cette complexité exponentielle, comment identifier les variables discriminantes et trouver les corrélations pertinentes ? Une partie de la réponse se trouve déjà dans l’évolution des suites marketing. Les dernières générations intègrent de l’intelligence machine sous la forme d’algorithmes ‘boites noires’ auto-apprenants (ie. Machine Learning). Celle-ci sont capables de déterminer la teneur et couleur de la conversation client, de proposer des segmentations non-triviales basées sur des comportements similaires, des centres d’intérêt partagés et plus seulement des catégories sociaux professionnelles mais également de proposer la meilleure action à mettre en place sur la base de l’observation de l’historique ou sur l’analyse prédictive de l’évolution de la situation client ou encore de reconnaître, à minima de micro-profiler, une personne sur la base de sa signature digitale (ex signature visuelle, vocale, éditoriale, comportementale) sans qu’elle n’ait à (re)communiquer explicitement son identité.
3. Le pilotage des processus de l’entreprise
Pour tirer la quintessence des opportunités du digital et éviter les nouvelles menaces associées, l’entreprise doit être en mesure de capter et d’analyser en quasi temps réel toutes sortes de stimuli prévus ou imprévus. Et en réponse à ces derniers, l’entreprise doit pouvoir orchestrer en conséquences ses activités, c’est-à-dire s’assurer non seulement de la conformité d’exécution de ses processus métiers mais également d’être en mesure de parer à tout évènement non prévus. Pour y parvenir, l’entreprise doit observer (ie. Process Mining) et analyser le plus en amont possible l’ensemble des évènements à sa disposition, s’assurer de leur légitimité d’occurrence par rapport au comportement nominal attendu ou observer jusqu’alors et en cas d’anomalie, de dérive par rapport à cette référence, adapter dynamiquement l’exécution de ces processus.
Cette adaptation peut consister à la modification de l’exécution nominale des processus impactés (ex client en mobilité dans l’impossibilité de fournir une pièce justificative à l’instant t), au déclenchement de processus spécifiques pré-codés standards (ex réponse automatique à une rumeur infondée) ou de dérivation lorsque la situation n’a pas été codifiée par l’entreprise (ex escalade dans le traitement d’un dossier, fraude), à la création ex-nihilo de processus totalement nouveau (e.g.. Case Managemen ; Intelligent Business Process Management). Une orchestration, observation et réaction dynamique qui ne peuvent être envisagées sans recours là encore à de l’intelligence machine. Une intelligence machine qui devient en quelque sorte le GPS ou l’aide à la conduite du processus d’entreprise.
Conclusion : le SI du data-centric vers le cortex-centric ?
Après la SOA, le Big Data, et dernièrement l’API Management, le cognitif (avec l’Event Processing) est sans doute la prochaine addition aux portefeuilles des fondations digitales du système d’information de l’entreprise 3.0.
Les data scientists ne seront bientôt plus en mesure de produire les algorithmes qu’on leur demande à un coût économiquement viable et dans le bon momentum, c’est une certitude. Une nouvelle réponse est nécessaire et c’est là tout l’enjeu et l’une des propositions de valeur de l’intelligence machine.
Les entreprises qui se sont lancées dans des activités de Data Science vont devoir rapidement intégrer cette perspective afin de ne pas s’engager dans la mauvaise direction et anticiper l’évolution du rôle de leurs data scientists de concepteur d’algorithme à cogniticien, non pas pour développer des machines intelligentes mais pour les nourrir et les superviser. Ils auront ainsi la charge de sélectionner les connaissances à leur présenter, de surveiller et garantir la justesse de leur apprentissage et de s’assurer de la pertinence des résultats produits pour éviter toute dérive. Une activité d’autant plus critique que l’intelligence machine sera mise en situation d’autonomie et plus encore lorsque les intelligences machines se parleront. Une perspective aussi inquiétante que fascinante.
Néanmoins, la question de la fiabilité et de la pertinence des systèmes cognitifs se posent encore. La vérification par l’humain reste encore indispensable dans la plupart des cas, mais pour encore combien de temps ?
Si le risque de déception est encore grand et la route encore longue, les récentes avancées conceptuelles et technologiques aux résultats encourageants, les investissements stratégiques consacrés par les états (ex European Commission – Human Brain Project) et le secteur privé (ex Google – Brain Project ; Numenta – Hierarchical Temporal Memory Technology, IBM – TrueNorth Brain Inspired Chip) et le développement du Cloud Computing qui permettra leur accessibilité au plus grand nombre d’entreprises laissent à penser que ces technologies sont à un point d’inflexion historique. Leur intégration a déjà commencé sur des usages où l’erreur est permise et où elles ont démontré leurs capacités à faire aussi bien, voire mieux que l’humain.
On peut se risquer à imaginer que d’ici 3 ans les usages à fort interactivité digitale client (ex marketing interactif, assistance virtuelle) bénéficieront de recommandations faites d’abord par une intelligence machine. D’ici 5 ans, on peut penser que les entreprises les plus avancées auront intégré dans leur système d’information des systèmes cognitifs sur des activités clés de leur chaine de valeur (ex recrutement, supply chain, veille, analyse d’impact, analyse de fraude et de risque, recherche de cause de disfonctionnement). Le système d’information qui aura digéré la vague du data-centric pourra alors entrer dans l’ère du cortex-centric.
Avec l’aimable collaboration de Claude-Yves Bernard, entrepreneur, enseignant-chercheur pluridisciplinaires et auteur de plusieurs ouvrages et essais scientifiques dont « Jeff-Hawkins & Ray Kurtzweill – Une proposition d’architecture pour notre Cortex »
Téléchargez cette ressource
Guide inmac wstore pour l’équipement IT de l’entreprise
Découvrez les dernières tendances et solutions IT autour des univers de Poste de travail, Affichage et Collaboration, Impression et Infrastructure, et notre dossier Green IT sur les actions engagés par inmac wstore pour réduire son impact environnemental
Les articles les plus consultés
- 9 défis de transformation digitale !
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- Dark Web : où sont vos données dérobées ?
- L’utilisation des données pour survivre !