Forum Mondial Normandie Pour la Paix

L’Acte constitutif de l’UNESCO commence par la phrase suivante : « Les guerres prenant naissance dans l’esprit des hommes et des femmes, c’est dans l’esprit des hommes et des femmes que doivent être élevées les défenses de la paix ». C’est ce que nous cherchons à réaliser avec les projets que nous menons, notamment en éducation, en coopération internationale, en dialogue interculturel et, plus récemment, par l’élaboration de la première Recommandation mondiale sur l’éthique de l’intelligence artificielle. La paix est un mode de vie : un instrument permettant non seulement d’éviter la guerre, mais aussi de résoudre les tensions de longue date entre les peuples et la planète, entre les possédants et les plus démunis, et entre les individus et la technologie.

La technologie a un grand potentiel pour assurer la paix, notamment en surmontant les barrières culturelles et linguistiques, en anticipant les facteurs de conflit les plus profonds et en faisant progresser la prise de décision (voir encadré 1). Il est remarquable, par exemple, que l’IA ait pu détecter les signes avant-coureur du début de la pandémie COVID-19, en analysant régulièrement des centaines ou des milliers de sources de données gouvernementales et médiatiques dans plusieurs langues.

Cependant, la technologie peut avoir des effets négatifs, que ce soit à cause d’actions délibérées venant d’individus agissant de façon peu éthique (« de manière intentionnelle »), à cause d’effets secondaires liés à une mauvaise conception (« erreurs d’ingénierie »), ou encore à cause de l’impact de l’environnement du système (« environnement »). L’utilisation dite malveillante de l’IA est encore plus évidente et elle peut menacer la sécurité numérique, physique et politique. De plus, les défaillances constituent également une menace de longue date (voir encadré 2). Les raisons qui les sous-tendent sont nombreuses, allant de pures erreurs d’algorithmes à des biais intégrés ou appris de façon autonome. Nous avons déjà vécu des krachs boursiers causés par des logiciels de commerce intelligents, déjà entendu parler d’accidents causés par des voitures autonomes, et même déjà ressenti de la gêne provoquée par des « chat-bots », parfois racistes et enclin à des discours de haine. On prévoit que la fréquence et la gravité de ces événements augmenteront régulièrement à mesure que les systèmes d’IA gagneront en efficacité.

L’IA se répand de plus en plus rapidement et il n’existe pas de cadre unique pour canaliser les bénéfices et s’attaquer aux risques. C’est pour cela que l’UNESCO a pris l’initiative d’élaborer la première Recommandation mondiale sur l’éthique de l’IA, afin d’en faire une référence.

L’éthique est la base de toute chose, et doit être le fondement moral de l’utilisation de ces technologies. Ce fondement moral se traduit par la décision de développer de solutions basée sur l’IA uniquement lorsqu’elles respectent la dignité humaine, les droits humains et tous les principes mis en avant dans la Recommandation.

Ce projet de Recommandation est tourné vers l’avenir à de nombreux égards. Il fournit un cadre d’anticipation pour aider à atténuer les risques futurs et propose des actions stratégiques concrètes destinées à résoudre les nouveaux défis. Par exemple, il prévoit un outil concret pour sa mise en œuvre – l’évaluation de l’impact éthique. Il prévoit également une valeur fondamentale « Vivre en harmonie et en paix », qui consiste à assurer un avenir interconnecté pour le bien de tous, et le principe de « Proportionnalité et d’innocuité », qui stipule que dans les scénarios impliquant des décisions de vie et de mort, la décision finale devrait être prise par l’être humain.

Il est clair que nous devons appliquer aux domaines numériques les mêmes règles, ou mieux encore, celles que nous avons mises en place pour protéger nos droits et notre sécurité dans le monde réel, afin d’éviter un fossé législatif toujours plus large, qui pourrait avoir des implications importantes pour notre bien-être. Un principe de base du droit est que nous devons appliquer les lois avec cohérence. Nous devons donc trouver des moyens d’intégrer tout le domaine de l’intelligence artificielle dans le cadre éthique régi par des normes et des principes universels.

Nous avons également besoin d’une coopération internationale et d’une appropriation par tous les pays, indépendamment du niveau de développement. Malheureusement, certains pays sont souvent en concurrence sur le plan technologique, juste pour être les premiers. Cette compétition peut impliquer des prises de raccourcis dans le développement de l’IA, y compris sur le plan éthique, ce qui peut être lourd de conséquence. C’est pourquoi l’effort de l’UNESCO sur la scène mondiale est si important et pourquoi il est crucial de réussir une mise en œuvre pratique de la Recommandation.

Encadré 1 – Exemples d’utilisation pratique de l’IA pour faire progresser la paix

  • Surmonter les barrières culturelles et linguistiques – l’IA peut nous aider à comprendre le langage humain et les nuances des dialectes dans le cadre des efforts d’alerte précoce de l’ONU :
    • Mieux analyser le contenu des médias sociaux et le relier aux contextes locaux de conflit
    • Suivre méthodiquement ce que disent les discours de haine dans un endroit où le risque de conflit est élevé
  • Anticiper les causes profondes des conflits – en associant les nouvelles techniques d’imagerie à l’automatisation :
    • La rareté de l’eau alimente les conflits et sape la stabilité dans les environnements post-conflit
    • L’enfoncement des terres est un indicateur fiable de l’épuisement de l’eau, mesuré par l’imagerie satellite et les drones.
    • Si vous combinez les techniques d’imagerie avec l’apprentissage automatique, vous pouvez anticiper les futurs conflits liés à l’eau et permettre un engagement proactif pour réduire leur probabilité.
  • Faire avancer la prise de décision :
    • les décisions relatives à la cessation des hostilités et au maintien de la paix sont intrinsèquement complexes et reposent sur des objectifs contradictoires et des options non découvertes, dans un contexte où les informations et les préférences politiques sont limitées.

L’apprentissage automatique peut être utilisé pour améliorer les prévisions et aider à orienter les décisions complexes sur l’application, la construction et le maintien de la paix.

Encadré 2 – Exemples de premières occurrences de défaillances non intentionnelles de l’IA (dont beaucoup ont également été observées par la suite)

  • 1959 L’IA conçue pour résoudre des problèmes généraux n’a pas réussi à résoudre les problèmes du monde réel.
  • 1982 Un logiciel conçu pour faire des découvertes, a découvert à la place comment tricher.
  • 1983 Le système d’alerte précoce des attaques nucléaires a prétendu à tort qu’une attaque avait lieu.
  • 2010 Un logiciel complexe d’IA pour la négociation des actions a causé un crash flash de plusieurs billions de dollars.
  • 2011 L’assistant électronique qui a reçu l’ordre de “m’appeler une ambulance” a commencé à appeler l’utilisateur “Ambulance”.
  • 2015 Un logiciel de marquage d’images a classé des individus Noirs comme des gorilles.
  • 2015 Un robot de saisie de pièces automobiles a attrapé et tué un homme.

2016 L’IA conçue pour converser avec les utilisateurs sur Twitter est devenue verbalement abusive.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s