L'édito de Pascal Boniface

« La plus grande révolution de toute l’histoire de l’humanité » – 3 questions à A. Beaufumé, J. Bondu et J. Coutou

Édito
19 octobre 2022
Le point de vue de Pascal Boniface
Anne Beaufumé est spécialiste du changement social, Jérôme Bondu est expert en intelligence économique, spécialisé sur la place des GAFAM, et Jérôme Coutou est expert en innovations technologiques (réalité augmentée et virtuelle, métavers). Ils répondent aux questions de Pascal Boniface à l’occasion de la parution de leur ouvrage « La plus grande révolution de toute l’histoire de l’humanité », aux éditions Inter-Ligere.

Vis-à-vis de l’intelligence artificielle (IA) faut-il privilégier le principe de précaution ou la prise de risque ?

Dans le chapitre 7 de notre livre (« Des limites de la recherche scientifique et de la difficulté à s’accorder sur une éthique et des règles mondiales partagées »), nous évoquons le principe de précaution. Né à la fin du XXe siècle et formulé lors de la Conférence des Nations unies sur l’environnement et le développement à Rio en 1992, ce principe érigé au départ en vue de prévenir des dommages irréversibles que les progrès scientifiques pourraient provoquer sur l’environnement[1] a été progressivement élargi à la santé humaine et invoqué dans certaines décisions d’interdiction de commercialisation de produits potentiellement dangereux pour l’homme (OGM, glyphosates,…).

Depuis une dizaine d’années (avec le passage d’une IA « symbolique » à l’IA « connectique », développé dans notre livre), la recherche en IA offre des champs d’application de plus en plus vastes. Le « big data » puis l’explosion de la puissance de calcul des ordinateurs ont permis de développer le « machine learning » puis le fameux « deep learning ». Comment imaginer aujourd’hui quelles « innovations » vont être rendues possibles dans les prochaines années ?

La question d’appliquer dans certains cas le principe de précaution se pose donc légitimement puisqu’il s’agit justement de le mettre en œuvre quand subsiste d’importantes incertitudes quant à l’existence et à l’ampleur d’un risque dont les effets pourraient être graves et irréversibles…

Mais « Peut-on privilégier le principe de précaution sur la prise de risque ? ».

Car ce principe complexe n’est pas universellement admis, il a des définitions variables selon les pays, et on peut douter de son application mondiale alors que la recherche en IA ne connaît pas de frontière et recouvre des enjeux scientifiques, économiques et géopolitiques qui vont difficilement permettre de faire appliquer un principe de précaution.

À un moment où l’IA peut représenter de réels progrès pour l’Homme, notamment pour la santé humaine (point développé par Daniel Loisance dans le chapitre de notre livre « De l’Homme réparé à l’Homme augmenté »), la balance « bénéfices-risques » du développement de l’IA est difficile à apprécier…

Face à cela, la réponse européenne cherche à être « équilibrée ». C’est le terme employé par la Commission européenne dans son projet de règlement sur l’IA (Artificial Intelligence Act), qui vise à encadrer les usages de l’IA en distinguant selon les niveaux de risques qu’ils entraînent. Certaines IA « à risques inacceptables », sont ainsi interdites parce que contraires aux valeurs de l’UE (comme par exemple les systèmes qui reposent sur une logique de notation sociale ou encore ceux qui peuvent altérer le comportement d’une personne en raison d’une vulnérabilité liée à l’âge ou à un handicap physique ou mental, ainsi que les systèmes qui permettent une identification biométrique à distance dans des espaces publics). Ce règlement devrait être voté par le parlement européen courant 2023 mais suscite actuellement de forts débats entre les eurodéputés car le sujet est très complexe et voit effectivement s’opposer ceux qui cherchent à protéger avant tous des usages « contraires aux valeurs de l’Europe » et ceux qui invoquent des distorsions de concurrence possibles avec des pays « tiers ».

Seul l’avenir nous dira si l’Europe parvient à s’accorder et à préserver ses « valeurs » dans le concert mondial de l’IA…

L’intelligence artificielle est-elle la solution pour lutter contre le réchauffement climatique ?

Comme dans tout phénomène complexe par le caractère systémique de ses « causes », en l’occurrence celui du réchauffement climatique, il n’y a pas UNE solution. D’autant plus qu’en la matière l’urgence implique de déployer des solutions « tous azimuts » si l’on veut espérer pouvoir répondre à cet enjeu.

Il nous semble tout d’abord que tous les champs d’applications de l’IA qui permettent d’accélérer les changements de comportements et usages néfastes… et d’adapter nos modes de production sont directement concernés.

Le dernier rapport du GIEC définit les 7 principaux domaines d’action possibles pour la lutte contre le réchauffement climatique. Parmi ceux-ci, il en est qui, clairement, peuvent être grandement « aidés » par l’utilisation de l’IA. Citons-en deux. D’abord tout ce qui concerne les « Villes et infrastructures clefs », que ce soit via son utilisation en matière de transports (gestion des flux et trajets optimisés) ou de production industrielle (matériaux moins polluants, chaînes de ravitaillement plus courtes, etc.) ou encore d’accroissement de la performance énergétiques de l’habitat existant.

Ensuite ce qui a trait à la « Nourriture » et, donc, à l’agriculture. Avec par exemple le ciblage fin des zones nécessitant des arrosages ou des pesticides ou l’amélioration des prévisions météorologiques.

Par ailleurs, les immenses possibilités offertes par l’IA pourraient aussi fortement accélérer (voire rendre possible) des recherches scientifiques consacrées à des « solutions » permettant de lutter directement contre le phénomène. On pense notamment aux recherches sur la fusion nucléaire abordée dans notre livre comme une solution majeure (potentielle) au réchauffement climatique. L’intelligence artificielle pourrait permettre de réaliser des simulations pour optimiser la gestion de la réaction de fusion et des plasmas par exemple.

Donc, oui, l’IA pourrait être une des cordes à notre arc pour enrayer le réchauffement climatique. Sachant qu’il faudrait aussi l’utiliser pour réduire la consommation énergétique des méga centres de données qu’elle nécessite et qui contribuent aujourd’hui à ce réchauffement climatique…

Vous évoquez le risque de tiers-mondisations de l’Europe qui deviendrait un tiers numérique, qu’entendez-vous par cela ?

Internet et le web sont des inventions portées par une multitude d’acteurs. Ils doivent beaucoup à la Darpa, aux universités américaines, mais aussi au projet Cyclade du français Louis Pouzin, à l’anglais Tim Berners-Lee et au belge Robert Caillaux du CERN.

Mais l’exploitation d’internet et du web a vu émerger des géants privés, essentiellement américains et chinois. Ces entreprises ont connu une croissance considérable, en développant des services à des coûts parfois (en apparence) nuls pour les utilisateurs. Il suffit de penser au moteur de recherche Google, gratuit pour l’internaute. La conjonction de leur utilité et de l’absence de concurrence a créé des monopoles, qui ont acquis un pouvoir énorme. Au final, l’Europe s’est trouvée marginalisée, incapable de contribuer au développement d’entreprises européennes de cette taille dans un domaine pourtant stratégique.

Tout le monde a compris avec la guerre en Ukraine ce que la dépendance énergétique signifie. Nous ne sommes pas en phase avec la géopolitique du chef du Kremlin. Il en résulte une coupure dans l’approvisionnement en gaz… et des entreprises industrielles européennes au ralenti. Ainsi qu’une crainte pour le chauffage des particuliers cet hiver. Transposons simplement cela à notre dépendance numérique. Imaginons que nous ne soyons plus en phase avec la géopolitique du chef de la Maison-Blanche. Il pourrait en résulter des coupures de flux internet, ou des restrictions sur les solutions numériques… On ne l’imagine pas aujourd’hui mais l’épisode de Trump montre bien que les États-Unis peuvent très bien se retrouver avec à leur tête un chef aux positions aussi tranchées qu’anti-européennes… Tout est imaginable. Que Google devienne payant. Que le trafic soit ralenti. Que les États-Unis continuent impunément à piocher dans nos données… Les conséquences seraient catastrophiques pour les entreprises européennes comme pour les particuliers.

Avec la guerre froide que se livrent aujourd’hui la Chine et les États-Unis, il est probable que ces derniers chercheront à utiliser tous les ressorts de leur influence pour maintenir le camp européen du bon côté du nouveau rideau de fer. Et vu les précédents d’Alstom Power, Technip, BNP Paribas, … il ne fait aucun doute que notre dépendance numérique risquera de nous priver de toute liberté d’action et d’autonomie stratégique. Est-ce vraiment ce que nous voulons ? Pour l’éviter il est temps de bâtir une souveraineté numérique à l’échelle européenne. Nous évoquons cela dans les « perspectives » qui forment la dernière partie de notre livre.

 

[1] « En cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives visant à prévenir la dégradation de l’environnement »
Tous les éditos