Le développement technologique sans précédent qui accompagne nos sociétés et n’a fait que s’accélérer depuis le début du XXIesiècle, est à l’origine de l’avènement de systèmes informatiques de plus en plus autonomes, simulant l’intelligence humaine. On les appelle communément intelligence artificielle.
Comme toute technologie en principe au service de l’homme, ces nouveaux outils doivent donc se soumettre au jugement et à l’évaluation des utilisateurs. L’empreinte de l’intelligence artificielle et les réseaux qu’elle permet de créer sont d’échelle mondiale. Nul n’y échappe. La question du contrôle de cette puissance tentaculaire est donc essentielle à la démocratie.
En outre, les questions de cybersécurité, d’influence occulte, d’utilisation politique ou mercantile de la capture de données personnelles, ou d’acceptation sociale du risque se posent de plus en plus. Et sur ce dernier point, la sensibilité des citoyens est à fleur de peau. Car une erreur jugée acceptable venant d’un humain, ne l’est plus si elle est commise par un outil IA supposé à tort infaillible.
Deux questions se posent donc d’emblée: comment bénéficier des potentialités extrêmes de ces outils mais en les contrôlant pour qu’ils restent au service de la société et du bien commun? Et quel risque venant d’eux sommes-nous prêts à accepter socialement?
Si l’homme conserve une suprématie sur l’ordinateur dans le domaine du jugement (spécialement pour trancher sous incertitude, dans des cas de conscience aux paramètres non quantifiables), dans tous les secteurs où les décisions à prendre sont formalisées et reposent sur de nombreuses données à traiter de manière quasi instantanée, les outils IA sont étonnamment performants. En revanche, dès qu’il y a une forte incertitude, il faut repasser la main aux hommes. Ce n’est donc pas l’outil qu’il faut juger en soi, mais la classe de problème qu’il doit résoudre.
Dans des systèmes administratifs très formalisés comme les décisions d’octroi de prêts financiers, la recherche d’informations sur Internet, les services de clientèle en ligne, le marketing personnalisé sur base des intérêts exprimés sur les réseaux sociaux, la spéculation financière, etc. les outils intelligents se multiplient et excellent. Ici, si l’algorithme utilisé respecte ce qu’aurait été une décision humaine et si la base de données qui a servi à les concevoir est suffisamment exhaustive, il n’y a en principe pas de mauvaise surprise. Mais sans garantie de contrôle dès leur conception, il faut au moins que d’éventuels biais ou incohérences puissent être corrigés post hoc. Car si le citoyen ne contrôle ni la conception des outils, ni leur utilisation, il les subit, de plein fouet, inconscient du fait que d’autres choix étaient théoriquement possibles.
Trois facteurs peuvent menacer ce libre arbitre: la difficulté de contrôle des outils IA, leur opacité croissante, et l’éthique de leur utilisation.
1. Le contrôle des outils IA
Certains outils, comme les systèmes experts simulent simplement, de façon plus rapide et plus performante, ce qu’un expert du domaine aurait pu faire. Or, s’ils reproduisent des performances humaines en les surpassant sur le plan de la capacité et la rapidité du traitement des données, par précaution, la plupart du temps, l’homme reste le contrôleur principal de la boucle. L’élément risque, très lié à la question de l’éthique, a toujours été le garde-fou du libre arbitre humain. Dès lors que des vies sont en danger, la personne humaine garde sa place. Il faut toujours, qu’à un moment de la conception ou de l’utilisation, existe une boucle de régulation humaine.
2. L’opacité croissante
L’opacité croissante des technologies IA, leur extension à de multiples domaines de la vie posent moins le problème du contrôle à la conception ou dans l’utilisation directe (devenus quasi impossibles), que celui de leur impact social et du recours possible. Le Règlement Général sur la Protection de Données permet un droit de recours auprès d’un être humain, mais ceci n’épuise pas les difficultés: qu’en est-il de l’autonomie des êtres humains et de leur capacité à opposer un raisonnement fondé sur une certaine subjectivité à la rationalité automatisée et apparemment objective opérant une recommandation ou imposant une décision?
Plus la conception d’outils IA s’éloigne d’un modèle rationnel et formalisé, pour passer à des modèles plus performants dans un monde complexe et dynamique, moins le contrôle par un utilisateur, ou même un observateur attentif de sa conception est possible. Ce sont les outils IA les plus performants aujourd’hui qui présentent le risque d’opacité le plus grand lorsqu’ils sont appliqués à des champs essentiels sur le plan éthique, juridique ou social qui exigent un recours possible et rapide. La forme et l’organisation généralisée de ces recours doit faire partie non seulement du programme politique des partis, mais de toute plate-forme politique gouvernementale. C’est donc un contrôle post hoc qui est nécessaire, et un recours rapide.
3. L’éthique de leur utilisation
Différents organismes aujourd’hui ont, par le biais d’enquêtes auprès de leurs affiliés, défini des principes de conception de l’IA. Parmi eux, Asilomar (1), qui dans sa conférence de 2017, épinglait 23 principes, dont plus de la moitié sont consacrés exclusivement à l’éthique (2). Ces principes qui nécessitent d’être opérationnalisés par des décisions politiques ont le mérite de remettre le contrôle de ces nouveaux outils dans les mains des hommes – et des citoyens. Ils en sont responsables. Ceux qui les conçoivent, ceux qui en tirent bénéfices, ceux qui gèrent leur diffusion, ce sont les humains. C’est donc bien en cela que l’IA, avec son formidable potentiel de prospérité et de destruction, est un problème de démocratie et d’éducation citoyenne, et non un artefact technologique.
En tant que laïques, nous encourageons l’innovation dans ce secteur dont nous mesurons le potentiel aussi bien sur le plan économique que scientifique et sociétal. Ce faisant, nous comptons adopter une attitude vigilante car nous mesurons également les risques, notamment éthiques, liés à ces nouvelles technologies.
Nous sommes partisans du progrès technologique pour autant que ce dernier fasse progresser l’humanité vers plus de liberté et d’égalité et qu’il soit au service de la mise en œuvre et du renforcement des valeurs fondamentales européennes et humanistes: la démocratie, l’État de droit, l’exercice des droits humains et des libertés fondamentales, le libre arbitre, l’émancipation, le libre examen, l’autodétermination et la dignité humaine.
Selon l’Ordre des Ingénieurs du Québec, les enjeux posés par l’intelligence artificielle sont de différentes natures:
Pour nous, au cœur des problématiques posées par l’intelligence artificielle réside la capacité des êtres humains à exercer leur libre arbitre et à prendre le contrôle de cette évolution technologique, de façon individuelle et/ou collective. Il s’agit de maîtriser les flux d’informations et les décisions produites par les outils IA. Parfois à la conception, parfois en cours d’utilisation. Parfois après coup, en évaluant leurs effets, en multipliant les retours d’incidents, les recours juridiques si nécessaire. Parfois en portant un regard à plus long terme sur les changements sociaux et les modifications des mentalités induits par ces outils.
Toutes les technologies qui ont surgi au XXe siècle ont produit ces bouleversements. De même, la réalité virtuelle, les réseaux sociaux, les moteurs de recherche et Wikipedia ont bouleversé l’accès à la connaissance et même la limite entre le vrai et le faux. À nous de piloter cette évolution. Nous avons toujours su le faire. Reste que ces outils très puissants offrent des possibilités de détournement, de piratage, de cybercriminalité qui prendront sans doute une importance croissante à l’avenir, difficile à estimer.
Nous invitons les institutions européennes à encourager et à accompagner le développement de l’intelligence artificielle tout en veillant à ce que les risques liés à son utilisation individuelle et collective soient maîtrisés.
1. Éducation citoyenne
En premier lieu, le citoyen doit être conscient du fonctionnement, des problématiques et des risques liés à l’intelligence artificielle. Ceci implique que les programmes scolaires éveillent à la réalité des algorithmes et promeuvent une véritable éducation aux valeurs, à la citoyenneté et à la réflexion critique. Au-delà du cadre scolaire, les pouvoirs publics doivent développer des programmes de sensibilisation sur ces questions.
2. Formation éthique des acteurs
Les acteurs de la « chaîne algorithmique », du concepteur d’algorithme à l’utilisateur professionnel en passant par les ingénieurs, les data scientists ou les codeurs, doivent recevoir une formation sur la dimension éthique de leur activité. En toute hypothèse, ces formations devraient mettre en évidence la nécessité de transparence, de traçabilité et d’intelligibilité des systèmes.
Des programmes visant à augmenter le nombre de femmes et de personnes issues de groupes souffrant de discriminations pourraient également permettre de sensibiliser la chaîne algorithmique.
3. Régulation
L’intelligence artificielle va encore évoluer de façon formidable, mais c’est dès à présent qu’il faut la guider dans des rails. Il est possible dès aujourd’hui de rendre obligatoire la prise en compte de certains principes pour encadrer les développements technologiques tels que le suggère la Commission nationale de l’informatique et des libertés (CNIL) française qui propose d’adopter deux principes:
Les enjeux éthiques et plus largement démocratiques sont tels que les autorités politiques doivent trouver le juste milieu entre compétitivité et respect des valeurs fondamentales et, si nécessaire, encadrer les développements par de la législation. Nous proposons de structurer ces réflexions autour des axes suivants:
(1) Les 23 principes d’Asilomar développés lors d’une grande conférence en 2017 organisée par le Future of life institute: https://futureoflife.org/ai-principles/.
(2) La sécurité, la transparence et la traçabilité, la transparence vis-à-vis du système judiciaire, la responsabilité des concepteurs vis-à-vis des implications morales de l’usage de l’IA, l’alignement sur des valeurs humaines, notamment de la dignité humaine, les droits, les libertés et la diversité culturelle, le respect de la vie privée, le bénéfice et la prospérité partagés, le contrôle humain, la non-subversion, selon laquelle le pouvoir conféré par le contrôle de systèmes IA avancés devrait améliorer plutôt que subvertir, les processus sociaux et citoyens dont dépend la bonne santé civique de la société et enfin éviter la course aux armements IAautonomes.
Une sélection de pistes de solutions proposées par le Centre d'Action Laïque qui illustrent comment le mouvement laïque souhaite que soient traduites concrètement les valeurs de liberté, égalité et solidarité.