ANALYSES

Quand le Big Data s’allie à l’intelligence artificielle

Presse
12 décembre 2017
L’essor de l’intelligence artificielle et des mégadonnées (Big Data) offre désormais des perspectives nouvelles de développement économique et militaire. Mais leur utilisation à des fins policières pose à nouveaux frais la question du délicat équilibre entre liberté et sécurité.

La croissance exponentielle des données générées par le Web 1.0, 2.0 et le développement du Web 3.0, engendre de nouveaux risques sécuritaires. Le foisonnement de données partagées sur les réseaux sociaux peut être utilisé à des fins malveillantes par un criminel, qui serait ainsi susceptible de déterminer les fragilités d’un individu ou d’une société et d’en tirer avantage.

L’application Waze, par exemple, permet l’échange de données entre automobilistes sur l’état du trafic. Toutefois, elle peut également être utilisée pour géolocaliser d’éventuels dispositifs policiers sur le bord des routes et, dès lors, bénéficier aux délinquants routiers, voire aux criminels qui chercheraient à esquiver les forces de l’ordre.

Par ailleurs, les cybercriminels peuvent se procurer illégalement ces données massives. En 2013, trois milliards de comptes Yahoo ont été piratés. En octobre 2016, c’était au tour d’Uber d’être visé par une cyberattaque, offrant aux hackers les données de 57 millions de chauffeurs et passagers, plus précisément leurs noms, leurs adresses mail et leurs numéros de téléphone. Il est facile d’imaginer que ces masses gigantesques d’informations seront ensuite revendues aux plus offrants, notamment des entreprises, qui les exploiteront pour mieux cibler leurs offres commerciales.

AMÉLIORER LES POLITIQUES DE SÉCURITÉ
La place grandissante des données dans la vie quotidienne implique leur traitement par les pouvoirs publics : les services de police et de renseignement doivent en prendre la mesure et les exploiter au mieux pour renforcer la sécurité de la population et de l’État.

L’IA offrira un traitement automatisé de données hétérogènes extraites de capteurs variés : caméras de surveillance, drones, satellites, objets connectés, ou encore réseaux sociaux.

Les structures policières, particulièrement dans les pays industrialisés, envisagent le Big Data et l’intelligence artificielle (IA) comme des outils d’avenir pour combattre les pratiques délictuelles et criminelles. L’IA pourra ainsi être utilisée pour l’exploitation automatique des mégadonnées issues des réseaux sociaux ou des objets connectés. Ce sera bientôt le cas dans l’État américain du Delaware, où la police utilisera des caméras « intelligentes » pour détecter un véhicule transportant un fugitif ou un enfant disparu, par exemple.

À l’avenir, on peut imaginer que l’intelligence artificielle fournira une aide précieuse à la prise de décision des forces de l’ordre, en permettant de collecter et d’analyser des quantités colossales de données dans des délais inégalables pour l’être humain. Associée à l’apprentissage automatique (machine learning), l’IA constituera sans doute aussi un outil de choix pour prédire et prévenir la commission de crimes ou de délits.

AU-DELÀ DES RÉVÉLATIONS DE WIKILEAKS
Néanmoins, l’application policière des progrès en IA, en particulier dans le traitement automatique des données personnelles, pose légitimement la question de la liberté et du respect de la vie privée des individus face à des États enclins à l’omniscience.

L’IA, couplée aux mégadonnées, peut constituer un instrument fort utile dans la régulation sociale et politique des populations par les États. Le gouvernement chinois ne s’y trompe pas, qui conjugue un plan d’investissement pharamineux en IA et la collecte des données personnelles de sa population, via ses géants du Web : Baidu, Alibaba et Tencent, entre autres.

Foin de l’agent de renseignement derrière sa table d’écoute ! Telle qu’elle se développe, l’IA offrira un traitement automatisé de données hétérogènes (audiovisuelles, textuelles, etc.) extraites de capteurs eux-mêmes variés : caméras de surveillance, drones, satellites, objets connectés, ou encore réseaux sociaux. L’adaptabilité, l’efficacité et l’intervention des forces de l’ordre en seront certainement accrues, mais cela implique aussi que l’on se dirige vers une société toujours plus surveillée, bien au-delà de ce que nous ont déjà appris les révélations d’Edward Snowden ou de Wikileaks.

Les dispositifs techniques à venir, fruits du mariage de l’IA et du Big Data, offrent des possibilités insoupçonnées d’amélioration de notre sécurité. Il n’empêche, au-delà des menaces de détournement par des États belliqueux ou des organisations terroristes, elles sont aussi susceptibles d’accoucher d’une société de surveillance et de contrôle, plus structurée, plus généralisée et plus systématique encore que celle dépeinte par Michel Foucault, dans Surveiller et punir. Sur l’autel de la sécurité, c’est la liberté qui risque d’être sacrifiée.

Pour l’heure, il importe que ces technologies policières en devenir passent au crible du débat éthique et de l’encadrement juridique. Pour ce faire, encore faut-il que les États y consentent, et c’est loin d’être gagné. Comment l’imaginer, en effet, alors qu’un pays autoritaire comme la Chine mise sur la capacité de l’IA à prévenir un crime, à juger qu’un individu est un criminel avant même qu’il ne passe à l’acte ? Tandis que l’IA peut déterminer qui sera le prochain délinquant, le prochain terroriste, le prochain opposant politique, la prochaine menace à la sécurité publique, pourquoi un tel État se soucierait-il du respect des libertés ?
Sur la même thématique
Caraïbe : quels enjeux pour les opérations HADR ?