Plusieurs éléments de la nouvelle législation européenne sur l’IA entreront en vigueur courant 2025, marquant ainsi une nouvelle étape réglementaire pour les acteurs du secteur manufacturier en France.
La législation européenne sur l’IA entre en vigueur. Comment s’y préparer au mieux ?
Cheick Sylla, directeur des ventes Automation, Data & AI, Infor partage son expertise et son analyse du sujet.
Les avantages de l’IA sont déjà largement documentés : optimisation des performances en s’appuyant sur des données probantes, identification des pistes d’amélioration et automatisation des tâches manuelles et processus répétitifs permettant aux employés de se consacrer à des activités plus stratégiques pour l’entreprise.
L’entrée en vigueur d’une nouvelle réglementation peut toutefois impacter de manière significative les processus et procédures d’une entreprise. Il est donc crucial d’anticiper les changements nécessaires avant leur mise en œuvre.
Entrée en vigueur en 2025
La nouvelle législation fixe pour la première fois les règles du développement, de l’utilisation et du positionnement des systèmes IA au sein de l’UE, avec pour objectif de protéger les droits fondamentaux, d’assurer la sécurité et de respecter les principes éthiques. La nouvelle réglementation sera progressivement mise en œuvre au cours des deux prochaines années, avec plusieurs dates cruciales dès 2025 :
- 2 février – Application des chapitres I et II (Dispositions générales et Pratiques interdites en matière d’IA).
- 2 août – Application du chapitre III, section 4 (Autorités de notification et organismes notifiés), chapitre V (Modèles d’IA à usage général), chapitre VII (Gouvernance), chapitre XII (Sanctions) et article 78 (Confidentialité).
En l’absence de conformité, des sanctions substantielles et des amendes pouvant s’élever à 35 millions d’euros (ou 7 % du chiffre d’affaires annuel) pourront être appliquées à l’entreprise. Au-delà des implications financières, une gouvernance inadéquate de l’IA peut entacher une réputation, conduire à des difficultés juridiques et éroder la confiance des clients. Les fabricants doivent donc commencer à se préparer, en étant conscients de l’urgence.
En relevant le défi de la mise en conformité, il convient de prendre en compte dix points majeurs :
Evaluation des risques
Répertorier tous les systèmes IA utilisés et les classer en fonction des catégories de risques définis par la législation européenne. Les applications à haut risque, comme celles qui peuvent avoir un impact sur la sécurité des produits ou sur la santé des consommateurs, doivent faire l’objet d’une attention particulière, et les applications IA comportant un risque jugé inacceptable désactivées.
Documentation et transparence
Conserver des dossiers détaillés sur les différents systèmes IA, avec leurs objectifs, les algorithmes et les jeux de données utilisés pour l’apprentissage s’avère essentiel. Le suivi continu des processus de prise de décision basés sur l’IA, notamment avec les systèmes à haut risque, permet d’avoir une vision claire sur la façon dont les données alimentent les recommandations et les décisions. Cette démarche permet ainsi d’expliquer les résultats obtenus avec les systèmes IA.
A titre d’exemple, dans le secteur automobile, l’utilisation de l’IA pour la maintenance prédictive nécessite une transparence absolue. Documenter les algorithmes et les données utilisés, ainsi que superviser et clarifier les décisions prises par l’IA pour l’entretien du véhicule, est essentiel pour instaurer un climat de confiance avec les clients.
Gestion des données et confidentialité
Utiliser des données de qualité, précises, représentatives et régulièrement mises à jour afin de promouvoir l’innovation et de minimiser les biais. Il reste structurant de veiller tout particulièrement à la conformité au RGPD et à l’utilisation de données anonymisées à des fins d’apprentissage, pour assurer la confidentialité et renforcer la sécurité des données.
Robustesse, précision et sécurité
Procéder régulièrement à des tests afin de vérifier la robustesse, la précision et la sécurité des systèmes IA. Cela permet d’identifier et de rectifier les biais possibles et de répondre rapidement à l’apparition de tout nouveau risque de biais détecté par les utilisateurs, les fournisseurs ou les clients.
Supervision humaine
Définir des chaînes de responsabilité claires pour les prises de décision basées sur l’IA, notamment celles qui revêtent un caractère critique. Les fabricants doivent s’assurer de l’existence d’un système de notification ou d’alerte permettant à une personne responsable de rester informée des décisions prises automatiquement.
Dans une usine de fabrication de produits chimiques, les systèmes IA peuvent être utilisés pour surveiller en continu les données de production. Toutefois, un opérateur humain reste indispensable pour superviser les décisions de l’IA et intervenir en cas d’anomalie.
Politique éthique
Etablir des directives éthiques pour l’utilisation de l’IA, en conformité avec la nouvelle législation est également important. Assurer la formation dans ce domaine de tous les utilisateurs et gestionnaires d’applications IA, ainsi que toute autre partie prenante, contribue à ancrer des pratiques éthiques dans la culture de l’entreprise.
Dans l’électronique grand public, par exemple, un fabricant peut élaborer des directives déontologiques pour s’assurer que l’IA utilisée dans ses produits ne perpétue aucun biais dans la reconnaissance vocale ou dans l’interaction assurée avec les consommateurs.
Surveillance
Il est conseillé de mettre en œuvre des systèmes de gouvernance, d’évaluation des risques et d’assurance de conformité pour surveiller en permanence les performances de l’IA. La création de protocoles pour signaler les incidents aux instances réglementaires, mais aussi de directives pour restaurer rapidement la conformité, doit également faire partie de la stratégie adoptée.
Pour un site e-commerce, cela peut signifier la création de protocoles permettant de surveiller les performances des systèmes IA au niveau des chatbots de service client, afin de s’assurer que les réponses fournies sont précises et pertinentes dans le temps.
Certification et audits
Veiller à la certification des systèmes IA à haut risque auprès d’organismes gouvernementaux agréés, et réaliser des audits réguliers pour assurer le plus haut niveau possible de conformité et de confiance dans les applications IA.
Sécurité technique
L’utilisation dans le cloud de plateformes et d’applications SaaS fiables permet d’obtenir des architectures systèmes robustes, de disposer de capacités de chiffrement, de contrôles d’accès sécurisés et d’une anonymisation des données, ce qui assure la sécurité technique et l’intégrité des informations.
Partenariat
Les fabricants doivent également envisager des partenariats avec des fournisseurs de technologie capables de les conseiller sur les procédures de conformité, grâce à des connaissances spécialisées et à des outils adaptés. Ce faisant, les entreprises peuvent bénéficier de la pleine puissance de l’IA, tout en minimisant les risques associés aux procédures de conformité.
La nouvelle législation de l’Union européenne sur l’IA soulève indiscutablement de nouveaux défis pour le secteur manufacturier. Elle devrait toutefois contribuer à accélérer le déploiement de modèles IA sûrs et éthiques, donnant lieu à une efficacité nouvelle et à des capacités d’innovation sans précédent dont bénéficieront les entreprises. Les plus rapides à relever le défi de la mise en conformité seront aussi les mieux placées pour prospérer dans ce nouvel environnement.
Téléchargez cette ressource
Guide inmac wstore pour l’équipement IT de l’entreprise
Découvrez les dernières tendances et solutions IT autour des univers de Poste de travail, Affichage et Collaboration, Impression et Infrastructure, et notre dossier Green IT sur les actions engagés par inmac wstore pour réduire son impact environnemental