L’essor rapide de l’intelligence artificielle (IA) a créé de nombreuses opportunités au niveau mondial, qu’il s’agisse de faciliter les diagnostics de santé, de permettre des interactions humaines par le biais des réseaux sociaux ou de créer des rendements au niveau du travail grâce à l’automatisation des tâches.
Toutefois, ces changements rapides soulèvent également de profondes préoccupations éthiques. Celles-ci découlent du potentiel des systèmes d’IA à intégrer des biais, à contribuer à la dégradation du climat, à menacer les droits de l’homme et bien d’autres choses encore. Ces risques associés à l’IA ont déjà commencé à s’ajouter aux inégalités existantes, causant un préjudice supplémentaire à des groupes déjà marginalisés.
Pour faire face à ces défis, le tout premier standard mondial de l’UNESCO (Organisation des Nations unies pour l’éducation, la science et la culture) sur l’éthique de l’IA, intitulé « Recommandation sur l’éthique de l’intelligence artificielle », a été adopté par l’ensemble de ses 193 États membres en novembre 2021.
Pourquoi une recommandation sur l’éthique de l’IA ?
L’IA a le potentiel d’améliorer considérablement la vie humaine : médecine de précision, automatisation des tâches complexes, accès facilité à l’information, etc. Toutefois, son utilisation mal encadrée peut amplifier les inégalités, renforcer les discriminations et menacer des valeurs fondamentales comme la vie privée ou la dignité humaine.
Les risques associés à l’IA :
- Biais et discriminations : Les algorithmes peuvent reproduire et accentuer les biais présents dans les données utilisées pour les entraîner.
- Manque de transparence : Les décisions prises par l’IA sont parfois opaques et difficiles à expliquer.
- Fracture numérique : Tous les pays et populations n’ont pas le même accès aux technologies avancées.
- Impact environnemental : La consommation énergétique des infrastructures d’IA peut être considérable.
Pour faire face à ses risques, l’UNESCO a défini un cadre éthique universel qui repose sur deux piliers afin de garantir que l’IA profite à tous, sans mettre en péril les droits fondamentaux :
Ce cadre s’articule autour de deux piliers clés :
- Les valeurs fondamentales : un ancrage humaniste et durable, véritable « boussole éthique » face aux dilemmes technologiques.
- Les principes directeurs : une feuille de route opérationnelle pour transformer l’idéal en actions tangibles – gouvernements, entreprises et citoyens inclus !
- Les valeurs fondamentales sont les piliers éthiques qui guident la conception et l’utilisation de l’IA. Elles définissent les grands principes universels qui doivent être respectés pour garantir une IA éthique et responsable. L’UNESCO en identifie quatre :
- Respect des droits humains et de la dignité : L’IA ne doit jamais compromettre les droits fondamentaux des individus. Les principes de non-discrimination, de liberté d’expression et de respect de la vie privée doivent être respectés.
- Durabilité environnementale : L’IA devrait reconnaître l’interdépendance entre l’humanité et la nature. Cela implique de minimiser son empreinte écologique et de protéger les écosystèmes essentiels à la vie. Le principe de précaution devrait guider toute innovation technologique.
- Inclusion et équité : L’accès aux innovations en IA doit être équitable et garantir la participation de tous les groupes sociaux, indépendamment de leur origine, genre ou statut économique.
- Paix, justice et gouvernance responsable : L’IA doit favoriser la cohésion sociale et ne pas être utilisée comme un outil de surveillance massive ou d’exclusion.
- Les principes directeurs, en revanche, déclinent ces valeurs en actions concrètes à mettre en œuvre. Ils servent de lignes directrices pour l’application des valeurs dans la gestion et le développement de l’IA. Ils incluent des aspects comme :
- L’évaluation de l’impact éthique des systèmes d’IA : Les gouvernements et entreprises doivent mettre en place des outils d’évaluation pour mesurer les effets des systèmes d’IA sur les droits humains, l’environnement et la société.
- La gouvernance et la régulation pour un usage responsable : Par la mise en place de lois et réglementations garantissant un développement responsable et la promotion de normes ouvertes et d’interopérabilité pour assurer un contrôle démocratique de l’IA.
- L’éducation et la sensibilisation pour former à l’IA éthique : Le développement de programmes de formation à l’IA responsable et la sensibilisation des citoyens aux risques et opportunités de l’IA.
- Le respect de l’environnement dans le déploiement des technologies : Les technologies d’IA doivent être conçues et utilisées de manière à minimiser leur empreinte écologique.
Des domaines d’action stratégique
Les domaines d’action stratégique définissent clairement les orientations que les États membres peuvent prendre en faveur d’une évolution responsable de l’IA.
Si les valeurs et les principes sont essentiels à la mise en place d’une base pour tout cadre éthique de l’IA, de récents mouvements dans le domaine de l’éthique de l’IA ont souligné la nécessité d’aller au-delà des principes de haut niveau vers des stratégies pratiques.
La Recommandation sur l’éthique de l’intelligence artificielle définit onze domaines d’action stratégique :
- Évaluations d’impact éthique : Obligation pour les États et entreprises d’évaluer les risques et avantages des systèmes d’IA.
- Gouvernance : Cadres réglementaires inclusifs, surveillance des préjudices et mécanismes de réparation.
- Données : Qualité, sécurité et partage équitable des données, avec protection des informations sensibles.
- Coopération internationale : Soutien aux pays en développement et partage des connaissances.
- Environnement : Réduction de l’empreinte carbone et promotion des solutions durables.
- Égalité des genres : Inclusion des femmes dans tous les stades du cycle de vie de l’IA.
- Culture : Préservation du patrimoine linguistique et lutte contre les biais culturels.
- Éducation : Formation aux compétences numériques et sensibilisation aux enjeux éthiques.
- Communication et information : Lutter contre la désinformation et garantir l’accès à une information fiable et impartiale.
- Économie et travail : Adaptation des marchés du travail et protection contre les disruptions liées à l’IA.
- Santé : Régulation stricte des applications médicales de l’IA et protection de la santé mentale.

Quel avenir pour l’éthique de l’IA ?
La recommandation ne fournit pas de définition « unique » de l’IA, « celle-ci étant appelée à évoluer en fonction des progrès technologiques« . Elle vise en général les « systèmes technologiques capables de traiter l’information par un processus s’apparentant à un comportement intelligent, et comportant généralement des fonctions de raisonnement, d’apprentissage, de perception, d’anticipation, de planification ou de contrôle ».
Néanmoins, la recommandation de l’UNESCO est un premier pas vers une gouvernance mondiale de l’IA. Elle appelle les États, entreprises et citoyens à collaborer pour une intelligence artificielle centrée sur l’humain. Son adoption large et son application rigoureuse seront essentielles pour éviter que l’IA ne devienne un facteur d’exclusion et d’inégalités.
Mise en œuvre et suivi de la Recommandation
- Les États doivent intégrer ces principes dans leurs législations et politiques.
- L’UNESCO fournira des méthodologies pour évaluer l’impact éthique et la préparation des pays.
- Collaboration multipartite (gouvernements, secteur privé, société civile) pour un déploiement responsable.
En guise de conclusion
L’IA est à la croisée des chemins : quel « diagnostic » posons-nous pour son avenir ? Comme en médecine, ses principes doivent allier efficacité et prévention des effets secondaires. Ces protocoles sont-ils économiquement « viables » pour les petites structures, ces « cabinets de ville » de l’innovation ? Et les mutuelles, garantes de la couverture collective, pourront-elles y souscrire sans craindre un « trou de sécurité » éthique ?
Quel « serment d’Hippocrate » imagineriez-vous pour que l’IA soit un allié thérapeutique, et non un virus social ou environnemental ?
Mutualisons nos réflexions – car sans une « immunité collective » face aux risques, aucun progrès ne sera durable.