ANALYSES

« Sur l’intelligence artificielle, l’Europe peine à dessiner sa troisième voie face aux États-Unis et à la Chine »

Presse
9 juin 2021
Interview de Charles Thibout - Le Monde

La Commission européenne a dévoilé le 21 avril son projet de régulation de l’intelligence artificielle (IA). Le but : encadrer ses usages pour définir une troisième voie distincte des pratiques totalitaires de la Chine et du « capitalisme de surveillance » des grandes firmes technologiques américaines. Autrement dit, l’Europe entend fonder sa stratégie de développement technologique sur des bases éthiques, respectueuses des valeurs consacrées par la Charte des droits fondamentaux de l’Union européenne.


Le répertoire de techniques regroupées sous le nom d’intelligence artificielle est l’objet de convoitises politiques depuis son origine, dans les années 1950. Mais, ces dix dernières années, ces technologies ont acquis un tel pouvoir de fascination sur les élites dirigeantes qu’elles sont devenues un enjeu de puissance de premier ordre, comme si celui qui en maîtrisait le plus haut niveau de sophistication devait fatalement et éternellement subjuguer tous ses rivaux.


Encadrement juridique limité


Cette quête fantasmatique au goût de guerre froide, de course à la bombe atomique et de conquête spatiale repose sur la dualité de ces technologies, applicables tant au domaine civil et commercial que militaire et policier. En Chine comme aux Etats-Unis, l’IA apparaît nettement comme l’instrument privilégié de la réalisation de trois grands objectifs politiques : assurer la prospérité du pays, sa stabilité sociopolitique et la projection de sa puissance sur le reste du monde. Ce faisant, l’encadrement éthico-juridique de l’IA y est fortement limité, d’où son application prévue aux systèmes de crédit social chinois et le développement de systèmes d’armes létales autonomes (SALA).


Entre les puissances américaine et chinoise, l’Europe souhaite promouvoir une troisième voie. L’IA y serait érigée au rang d’instrument de progrès, au service de la compétitivité, de la santé, de la protection de l’environnement, etc. ; bref, une série de technologies compatibles avec les principes et les valeurs de l’Union européenne. C’est pourquoi cette proposition de réglementation est bâtie autour de la notion de risque (« inacceptable », « élevé »…) et entend prohiber un certain nombre d’usages, tels que la manipulation comportementale, l’exploitation des vulnérabilités de personnes en fonction de leur âge ou de leur handicap physique ou mental, ou encore l’identification biométrique à distance et en « temps réel ». Du moins, c’est ce que suggère une lecture rapide de la proposition.

En examinant attentivement le texte, il est un certain nombre d’imprécisions et d’exceptions qui altèrent sensiblement l’ambition princeps. L’exemple le plus saisissant est l’identification biométrique, soit l’usage de systèmes d’IA pour identifier des personnes à partir de leurs « caractéristiques physiques, physiologiques ou comportementales » (art. 3, alinéa 33), à l’instar des systèmes de reconnaissance faciale. Si l’usage général « en temps réel » de ces systèmes est proscrit, il demeure possible « dans un délai signifiant » (art. 3, alinéa 36). On peut gager que les conflits d’interprétation seront nombreux…


Bien plus, des exceptions notables permettent aux Etats membres d’utiliser ces outils d’identification en temps réel : la recherche de victimes ; la « prévention d’une menace spécifique, substantielle et imminente » à l’intégrité physique des personnes ou d’une attaque terroriste ; la recherche d’individus suspectés d’avoir commis un crime.


A la libre appréciation de la police


Mais, surtout, pour utiliser de tels systèmes dans l’espace public, un Etat peut se passer de l’autorisation d’un juge ou d’une autorité administrative indépendante en cas de « situation d’urgence dûment justifiée » (art. 5, alinéa 3). Or, sans définition de ce que serait une telle situation, elle sera ipso facto laissée à la libre appréciation de la police. Le juge, garant des libertés fondamentales et interprète de la loi, se trouvera donc dépossédé de ses fonctions.


Ce type d’exception prolifère au fil des 108 pages de la proposition. Demain, l’utilisation massive de l’identification biométrique en temps réel sera-t-elle toujours l’apanage des régimes totalitaires ? Les Etats disposent déjà d’outils susceptibles d’en propager l’usage : en 2016, par exemple, la France a créé un fichier des titres électroniques sécurisés (TES), qui centralise les données biométriques (image numérisée du visage, empreintes digitales, couleur des yeux…) d’une grande partie de la population et, à terme, de tous les Français. Alors que se multiplient les expérimentations locales, ce fichier pourrait servir de base de données à des systèmes de reconnaissance faciale déployés à plus grande échelle.


Où donc se situe la  troisième voie que l’Europe entend tracer ? En réalité, elle peine à se dessiner face à deux grandes puissances qui promeuvent une conception techniciste du politique et qui voient dans l’IA le moyen de défendre leurs intérêts géopolitiques tout en contenant les tentations insurrectionnelles qui traversent leurs sociétés. Des enjeux auxquels l’Union européenne n’est pas insensible : les technologies de surveillance fondées sur l’IA et conçues par des entreprises américaines et chinoises sont aujourd’hui déployées dans une dizaine d’Etats membres, dont l’Allemagne, le Danemark, l’Italie et la France.


Faut-il en conclure que l’Europe est vouée à faire siennes les perspectives américaines et chinoises ? Ce serait un aveu d’échec, tant du point de vue des valeurs portées par l’Union et consacrées dans son droit que de sa capacité à promouvoir un modèle démocratique et progressiste du développement technologique. La souveraineté numérique est devenue un thème central ; la souveraineté dans le domaine des valeurs connaîtra-t-elle le même destin ?

Sur la même thématique