liberte

Intelligence artificielle

Les propositions du Centre d’Action Laïque

Pour l'Union européenne

Le développement technologique sans précédent qui accompagne nos sociétés et n’a fait que s’accélérer depuis le début du XXIesiècle, est à l’origine de l’avènement de systèmes informatiques de plus en plus autonomes, simulant l’intelligence humaine. On les appelle communément intelligence artificielle.

Comme toute technologie en principe au service de l’homme, ces nouveaux outils doivent donc se soumettre au jugement et à l’évaluation des utilisateurs. L’empreinte de l’intelligence artificielle et les réseaux qu’elle permet de créer sont d’échelle mondiale. Nul n’y échappe. La question du contrôle de cette puissance tentaculaire est donc essentielle à la démocratie. 

En outre, les questions de cybersécurité, d’influence occulte, d’utilisation politique ou mercantile de la capture de données personnelles, ou d’acceptation sociale du risque se posent de plus en plus. Et sur ce dernier point, la sensibilité des citoyens est à fleur de peau. Car une erreur jugée acceptable venant d’un humain, ne l’est plus si elle est commise par un outil IA supposé à tort infaillible.

Deux questions se posent donc d’emblée: comment bénéficier des potentialités extrêmes de ces outils mais en les contrôlant pour qu’ils restent au service de la société et du bien commun? Et quel risque venant d’eux sommes-nous prêts à accepter socialement? 

Si l’homme conserve une suprématie sur l’ordinateur dans le domaine du jugement (spécialement pour trancher sous incertitude, dans des cas de conscience aux paramètres non quantifiables), dans tous les secteurs où les décisions à prendre sont formalisées et reposent sur de nombreuses données à traiter de manière quasi instantanée, les outils IA sont étonnamment performants. En revanche, dès qu’il y a une forte incertitude, il faut repasser la main aux hommes. Ce n’est donc pas l’outil qu’il faut juger en soi, mais la classe de problème qu’il doit résoudre.  

Dans des systèmes administratifs très formalisés comme les décisions d’octroi de prêts financiers, la recherche d’informations sur Internet, les services de clientèle en ligne, le marketing personnalisé sur base des intérêts exprimés sur les réseaux sociaux, la spéculation financière, etc. les outils intelligents se multiplient et excellent. Ici, si l’algorithme utilisé respecte ce qu’aurait été une décision humaine et si la base de données qui a servi à les concevoir est suffisamment exhaustive, il n’y a en principe pas de mauvaise surprise. Mais sans garantie de contrôle dès leur conception, il faut au moins que d’éventuels biais ou incohérences puissent être corrigés post hoc. Car si le citoyen ne contrôle ni la conception des outils, ni leur utilisation, il les subit, de plein fouet, inconscient du fait que d’autres choix étaient théoriquement possibles.

Libre arbitre et intelligence artificielle

Trois facteurs peuvent menacer ce libre arbitre: la difficulté de contrôle des outils IA, leur opacité croissante, et l’éthique de leur utilisation.

1. Le contrôle des outils IA

Certains outils, comme les systèmes experts simulent simplement, de façon plus rapide et plus performante, ce qu’un expert du domaine aurait pu faire. Or, s’ils reproduisent des performances humaines en les surpassant sur le plan de la capacité et la rapidité du traitement des données, par précaution, la plupart du temps, l’homme reste le contrôleur principal de la boucle. L’élément risque, très lié à la question de l’éthique, a toujours été le garde-fou du libre arbitre humain. Dès lors que des vies sont en danger, la personne humaine garde sa place. Il faut toujours, qu’à un moment de la conception ou de l’utilisation, existe une boucle de régulation humaine.

2. L’opacité croissante

L’opacité croissante des technologies IAleur extension à de multiples domaines de la vie posent moins le problème du contrôle à la conception ou dans l’utilisation directe (devenus quasi impossibles), que celui de leur impact social et du recours possible. Le Règlement Général sur la Protection de Données permet un droit de recours auprès d’un être humain, mais ceci n’épuise pas les difficultés: qu’en est-il de l’autonomie des êtres humains et de leur capacité à opposer un raisonnement fondé sur une certaine subjectivité à la rationalité automatisée et apparemment objective opérant une recommandation ou imposant une décision? 

Plus la conception d’outils IA s’éloigne d’un modèle rationnel et formalisé, pour passer à des modèles plus performants dans un monde complexe et dynamique, moins le contrôle par un utilisateur, ou même un observateur attentif de sa conception est possible. Ce sont les outils IA les plus performants aujourd’hui qui présentent le risque d’opacité le plus grand lorsqu’ils sont appliqués à des champs essentiels sur le plan éthique, juridique ou social qui exigent un recours possible et rapide. La forme et l’organisation généralisée de ces recours doit faire partie non seulement du programme politique des partis, mais de toute plate-forme politique gouvernementale. C’est donc un contrôle post hoc qui est nécessaire, et un recours rapide.

3. L’éthique de leur utilisation

Différents organismes aujourd’hui ont, par le biais d’enquêtes auprès de leurs affiliés, défini des principes de conception de l’IA. Parmi eux, Asilomar (1), qui dans sa conférence de 2017, épinglait 23 principes, dont plus de la moitié sont consacrés exclusivement à l’éthique (2). Ces principes qui nécessitent d’être opérationnalisés par des décisions politiques ont le mérite de remettre le contrôle de ces nouveaux outils dans les mains des hommes – et des citoyens. Ils en sont responsables. Ceux qui les conçoivent, ceux qui en tirent bénéfices, ceux qui gèrent leur diffusion, ce sont les humains. C’est donc bien en cela que l’IA, avec son formidable potentiel de prospérité et de destruction, est un problème de démocratie et d’éducation citoyenne, et non un artefact technologique.

Nos demandes à l’Europe

En tant que laïques, nous encourageons l’innovation dans ce secteur dont nous mesurons le potentiel aussi bien sur le plan économique que scientifique et sociétal. Ce faisant, nous comptons adopter une attitude vigilante car nous mesurons également les risques, notamment éthiques, liés à ces nouvelles technologies.

Nous sommes partisans du progrès technologique pour autant que ce dernier fasse progresser l’humanité vers plus de liberté et d’égalité et qu’il soit au service de la mise en œuvre et du renforcement des valeurs fondamentales européennes et humanistes: la démocratie, l’État de droit, l’exercice des droits humains et des libertés fondamentales, le libre arbitre, l’émancipation, le libre examen, l’autodétermination et la dignité humaine.

Selon l’Ordre des Ingénieurs du Québec, les enjeux posés par l’intelligence artificielle sont de différentes natures:

  • Socio-économique, avec le risque d’accentuer le déséquilibre croissant des richesses, de réduire l’emploi, et de modifier les métiers.
  • Technique: compréhension des décisions des algorithmes et de leur impact…
  • Juridique et éthique: responsabilité de l’homme, type de délégation à l’IA, protection des données, préservation des intérêts collectifs, apparition de nouveaux risques.

Pour nous, au cœur des problématiques posées par l’intelligence artificielle réside la capacité des êtres humains à exercer leur libre arbitre et à prendre le contrôle de cette évolution technologique, de façon individuelle et/ou collective. Il s’agit de maîtriser les flux d’informations et les décisions produites par les outils IA. Parfois à la conception, parfois en cours d’utilisation. Parfois après coup, en évaluant leurs effets, en multipliant les retours d’incidents, les recours juridiques si nécessaire. Parfois en portant un regard à plus long terme sur les changements sociaux et les modifications des mentalités induits par ces outils. 

Toutes les technologies qui ont surgi au XXe siècle ont produit ces bouleversements. De même, la réalité virtuelle, les réseaux sociaux, les moteurs de recherche et Wikipedia ont bouleversé l’accès à la connaissance et même la limite entre le vrai et le faux. À nous de piloter cette évolution. Nous avons toujours su le faire. Reste que ces outils très puissants offrent des possibilités de détournement, de piratage, de cybercriminalité qui prendront sans doute une importance croissante à l’avenir, difficile à estimer.

Nous invitons les institutions européennes à encourager et à accompagner le développement de l’intelligence artificielle tout en veillant à ce que les risques liés à son utilisation individuelle et collective soient maîtrisés.

1. Éducation citoyenne

En premier lieu, le citoyen doit être conscient du fonctionnement, des problématiques et des risques liés à l’intelligence artificielle. Ceci implique que les programmes scolaires éveillent à la réalité des algorithmes et promeuvent une véritable éducation aux valeurs, à la citoyenneté et à la réflexion critique. Au-delà du cadre scolaire, les pouvoirs publics doivent développer des programmes de sensibilisation sur ces questions.

2. Formation éthique des acteurs

Les acteurs de la « chaîne algorithmique », du concepteur d’algorithme à l’utilisateur professionnel en passant par les ingénieurs, les data scientists ou les codeurs, doivent recevoir une formation sur la dimension éthique de leur activité. En toute hypothèse, ces formations devraient mettre en évidence la nécessité de transparence, de traçabilité et d’intelligibilité des systèmes.

Des programmes visant à augmenter le nombre de femmes et de personnes issues de groupes souffrant de discriminations pourraient également permettre de sensibiliser la chaîne algorithmique.

3. Régulation

L’intelligence artificielle va encore évoluer de façon formidable, mais c’est dès à présent qu’il faut la guider dans des rails. Il est possible dès aujourd’hui de rendre obligatoire la prise en compte de certains principes pour encadrer les développements technologiques tels que le suggère la Commission nationale de l’informatique et des libertés (CNIL) française qui propose d’adopter deux principes:

  • Le principe de loyauté des algorithmes à l’égard des utilisateurs qui oblige à la transparence (l’algorithme doit dire ce qu’il fait et faire ce qu’il dit) et à la détermination loyale par le développeur des critères de son fonctionnement tant à l’égard des individus (pour éviter par exemple les biais conduisant à des discriminations) qu’à l’égard de la collectivité (par exemple pour promouvoir une certaine exposition à la diversité culturelle).
  • Le principe de vigilance notamment afin d’anticiper le caractère nécessairement inconnu des évolutions futures, et en particulier de celles qui autonomisent les décisions à travers le « machine learning ».

Les enjeux éthiques et plus largement démocratiques sont tels que les autorités politiques doivent trouver le juste milieu entre compétitivité et respect des valeurs fondamentales et, si nécessaire, encadrer les développements par de la législation. Nous proposons de structurer ces réflexions autour des axes suivants:

  • Un travail d’éducation et de sensibilisation des citoyens à l’échelle européenne sur la portée de ces nouveaux outils, les principes de leur conception, et la notion de risque acceptable – le risque zéro n’existant pas.
  • Une incitation des travailleurs et de leurs représentants à participer à la conception et au développement de ces outils intelligents de façon à les améliorer et à en garder le contrôle.
  • La promotion de la recherche visant à renforcer l’autonomie et la réflexivité des citoyens vis-à-vis de ces outils. Il peut par exemple s’agir d’interfaces permettant aux utilisateurs de modifier la pondération des critères utilisés et d’ainsi comprendre comment cette pondération peut conduire à des résultats très différents.
  • La nécessité d’une réflexion légale identifiant les réglementations européennes et nationales qui risquent de devoir être adaptées ou amendées. On pense ici à la législation en matière de sécurité des produits et services, la cybersécurité, la protection des données personnelles ainsi que l’utilisation des données non personnelles ou encore la responsabilité légale.
  • La création d’un observatoire de l’utilisation de l’IA comprenant la mise en place et la gestion de systèmes de retour d’incidents, comme il en existe déjà dans des secteurs de haute technologie à risque (nucléaire, aéronautique), pour dépister d’éventuels problèmes de fiabilité de systèmes IA.
  • Le renforcement des capacités publiques de contrôle des développements comprenant, la maîtrise, l’audit et la surveillance d’outils intelligents du point de vue de leur transparence et du respect des droits et libertés fondamentales – ce, tout en respectant l’intérêt légitime d’acteurs privés dans la protection de leur propriété intellectuelle. 
  • Le renforcement d’une approche européenne commune permettant d’utiliser le marché unique comme levier pour imposer des standards éthiques élevés à l’échelle mondiale.

(1) Les 23 principes d’Asilomar développés lors d’une grande conférence en 2017 organisée par le Future of life institute: https://futureoflife.org/ai-principles/.

(2)  La sécurité, la transparence et la traçabilitéla transparence vis-à-vis du système judiciairela responsabilité des concepteurs vis-à-vis des implications morales de l’usage de l’IA, l’alignement sur des valeurs humaines, notamment de la dignité humaine, les droits, les libertés et la diversité culturelle, le respect de la vie privée, le bénéfice et la prospérité partagésle contrôle humainla non-subversion, selon laquelle le pouvoir conféré par le contrôle de systèmes IA avancés devrait améliorer plutôt que subvertir, les processus sociaux et citoyens dont dépend la bonne santé civique de la société et enfin éviter la course aux armements IAautonomes.

Liberté

La brochure

Une sélection de pistes de solutions proposées par le Centre d'Action Laïque qui illustrent comment le mouvement laïque souhaite que soient traduites concrètement les valeurs de liberté, égalité et solidarité.