Pourquoi l’UE doit repenser son approche de la technologie

Les attaques par ransomware sur les infrastructures stratégiques, les élections ciblées par une désinformation coordonnée et une surveillance trop zélée sont quelques-uns des inconvénients de la technologie désormais bien connus. Les risques qui nous attendent - comme le développement de robots tueurs autonomes - sont moins bien compris et peuvent sembler dystopiques, mais ces menaces sont de plus en plus tangibles. Konrad Bleyer-Simon affirme que la réponse de l’UE doit être fondée sur une compréhension et approche géopolitiques de toutes ces questions. 

En septembre 2021, l’Europe a vu l’une de ses élections les plus importantes être la cible d’intérêts antidémocratiques, tant au niveau national qu’international. Après 16 ans sous la direction de la chancelière Angela Merkel, les citoyens alle- mands ont voté pour élire un successeur qui pourrait prendre en charge ce qui est largement considéré comme l’une des fonctions publiques les plus influentes en Europe. Pendant une période relativement brève de la campagne, au début de l’année 2021, la candidate des Verts, Annalena Baerbock, était considérée comme la favorite, mais à était retombée en troisième position durant l’été. Les raisons pour lesquelles elle a perdu une grande partie de son soutien initial sont nombreuses : celle-ci est relativement jeune et inexpérimentée, elle a commis quelques erreurs pendant la campagne et, en tant que femme, a été désavantagée par ce qui reste un environnement politique extrêmement machiste. 

La désinformation en ligne, diffusée et amplifiée par les médias sociaux et les applications de messagerie, est également susceptible d’avoir contribué à la baisse du soutien à Baerbock. Le réseau d’activistes en ligne Avaaz a constaté que 44 % de la désinformation politique pendant la campagne visait les Verts. En ce qui concerne la désinformation sur les candidats à la chancellerie, 72 % visaient Baerbock. 

Alors que la désinformation lors des élections allemandes était essentiellement d’origine locale, créée par des théoriciens du complot et des militants d’extrême droite, la crainte que Ghostwriter - un groupe de pirates informatiques lié au service de renseignement militaire russe GRU - n’intensifie ses opérations s’est accrue. Il aurait orchestré des attaques de phishing au Bundestag allemand. Au cours des années précédentes, Ghostwriter a piraté des comptes de politiciens et diffusé de la désinformation anti-OTAN en Pologne et dans les États baltes. Les acteurs russes de la désinformation auraient également contribué au résultat du référendum sur le Brexit, et les hackers soutenus par le Kremlin ont joué un rôle dans la publication des Macron Leaks à l’approche de l’élection présiden- tielle française de 2017. Ailleurs, l’»infodémie» autour du Covid-19 a amplifié les sentiments anti-vaccination et anti-masque qui ont conduit à de nombreuses victimes qui auraient pu être évitées pendant la quatrième vague de la pandémie. 

La technologie n’est pas ce qu’elle avait promis d’être 

Si la désinformation est probablement la menace numérique dont on parle le plus, elle est loin d’être le seul risque technologique auquel les démocraties sont confrontées de nos jours. Les attaques par déni de service distribué mettent hors service les sites web des gouvernements et des services financiers et les attaques par ransomware paralysent le travail des hôpitaux et d’autres infrastructures essentielles. Elles ne causent pas seulement des dommages financiers aux entreprises et organisations visées, mais peuvent aussi avoir un impact beau- coup plus large. Des hôpitaux ont retardé des procédures et, aux États-Unis, le décès d’un nouveau-né a été attribué à l’impact des attaques informatiques. 

Les révélations d’Edward Snowden nous ont appris que les gouvernements autoritaires comme les gouvernements démocratiques développent leur infrastructure de surveillance, en achetant et en vendant souvent des technologies et des données les uns aux autres.

Si, officiellement, les technologies construites dans les sociétés démocratiques sont destinées à la défense et à la prévention, ce n’est pas toujours le cas dans la pratique. C’est ce qui est apparu une fois de plus en 2021, lorsque le gouvernement de la Hongrie, pays membre de l’UE, a été accusé d’avoir utilisé le logiciel espion sophistiqué Pegasus pour pirater les téléphones de journalistes et d’opposants politiques. 

Il y a dix ans à peine, les fournisseurs de médias sociaux Facebook et Twitter étaient loués comme catalyseurs des révolutions pro-démocratiques (principalement les printemps arabes) ; aujourd’hui, ils sont largement considérés comme des outils ou des complices des autocraties. Les fuites des Facebook Papers, par exemple, ont révélé que les produits de l’entreprise contribuaient à donner une image corporelle malsaine aux adolescents, à déclencher des conflits ethniques dans les pays en développement et à amplifier les messages haineux. Il est apparu que, bien que consciente de ces problèmes, l’entreprise a fermé les yeux au nom du profit. 

Intelligence artificielle militarisée 

Les menaces numériques se présentent sous différentes formes et tailles, mais l’élément le plus significatif de l’éventail des nouvelles technologies est probablement l’intelligence artificielle (IA), qui vise à copier certains aspects du fonctionnement de l’intelligence humaine pour résoudre des tâches telles que la traduction de textes, l’extinction des lumières dans l’appartement ou la conduite en toute sécurité d’une voiture de A à B. Ces technologies sont développées par l’apprentissage automatique, ce qui signifie qu’à partir d’un certain point, le pro- gramme commence à se coder lui-même : ses réseaux neuronaux lui permettent d’absorber une énorme quantité de données et de rechercher des modèles. L’IA devient ainsi une technologie qui utilise des algorithmes et une puissance de calcul pour comprendre l’environnement dans lequel elle fonctionne et agir de manière autonome. Bien que l’IA actuelle reste dans la catégorie «douce» et soit donc relativement limitée dans ses applications, combinée au contrôle de grandes quantités de données, de matériel et de professionnels de l’informatique qualifiés (ou même de pirates), elle peut offrir des possibilités sans précédent aux acteurs étatiques et non étatiques. L’IA est déjà utilisée par des robots qui diffusent de la désinformation, elle permet de micro cibler des messages politiques polarisants, tandis que les scanners faciaux et les technologies d’assistants virtuels portent la surveillance et le contrôle à des niveaux sans précédent. 

Une utilisation dangereuse de cette technologie qui mérite une attention particulière est le développement d’armes de précision autonomes. Leur utilisation est déjà plus répandue qu’on ne le pense. Par exemple, l’avion Eurofighter Typhoon ou divers systèmes surface-air utilisent une intelligence artificielle sophistiquée pour exécuter leurs tâches essentielles. Ils sont officiellement destinés à des fins de défense, mais la technologie peut tout aussi bien être utilisée pour infliger des dommages. Alors que l’on parle beaucoup de n’utiliser ces technologies qu’avec un «humain dans la boucle», les deux plus grands acteurs de l’IA, la Chine et les États-Unis, ne sont pas disposés à soutenir les efforts internationaux visant à réglementer efficacement les «robots tueurs». Cette situation est d’autant plus inquiétante que la liste des pays et des acteurs faisant appel à l’IA dans un cadre militaire s’allonge. La Turquie a développé - et utiliserait déjà - un drone appelé Kargu-2 capable de cibler et d’identifier des personnes de manière autonome, tandis que l’État islamique a déployé des drones non militaires disponibles dans le commerce et chargés d’explosifs. Si la réglementation prend du retard sur ces évolutions, nous serons de plus en plus confrontés à la menace de robots tueurs fabriqués à la maison, assemblés à partir de produits achetés légalement dans des quincailleries. 

Bien sûr, à ce stade, la technologie n’est pas encore parfaite. Les manifestants pro-démocratie, par exemple, peuvent encore tromper les systèmes de reconnaissance faciale en utilisant un peu de peinture faciale. Mais souvent, les faiblesses de l’IA sont les caractéristiques qui distinguent l’homme de la machine : la capacité de différencier les soldats des civils, de peser les coûts et les avantages non monétisables, ou de réaliser quand une mission doit être abandonnée. Il existe de nombreux acteurs qui n’hésiteraient pas à utiliser cette technologie malgré les risques. 

Les principaux acteurs 

La plupart des grandes entreprises intéressées par le développement de l’IA et des technologies numériques sont basées aux États-Unis et en Chine. Les plus connues sont les cinq entreprises américaines GAFAM (Google, Amazon, Facebook, Apple et Microsoft - parfois IBM est également inclus, ce qui en fait les G-MAFIA). Grâce au grand marché chinois, Alibaba, Baidu et Tencent sont tout aussi influentes au niveau international. Ces sociétés ont déjà dépassé les sociétés financières en termes de richesse et d’influence (et avec un potentiel important pour façonner les politiques). L’Europe n’a pas d’équivalents, et même parmi les quelques entreprises établies en Europe, beaucoup envisagent de s’installer aux États-Unis. 

Bien que ces entreprises soient principalement connues pour leurs projets phares - tels que les appareils intelligents, les places de marché numériques, les médias sociaux et les moteurs de recherche - nombre de ces entreprises privées sont plus efficaces que les projets publics lorsqu’il s’agit de développer de nouvelles technologies d’IA. L’agence américaine Defense Advanced Research Projects Agency (DARPA) a été parmi les premières organisations à expérimenter les voitures à conduite autonome, mais Tesla et Google X se sont avérés plus efficaces pour poursuivre leur développement. La société chinoise eHang est allée encore plus loin, elle aurait construit un drone de passagers à conduite autonome. 

La voie à suivre pour l’Europe 

Les nombreux défis posés par le développement technologique exigent une réponse politique forte. La surveillance, la perturbation, son impact potentiel sur les conflits armés et l’influence excessive des principales entreprises d’IA et de technologie ne sont que quelques-uns des problèmes associés au développement technologique aujourd’hui. D’autres effets perturbateurs, tels que la pollution causée par les fermes de serveurs et les industries extractives construites autour de la production de matériel informatique, sont également de plus en plus reconnus. 

Au cours des dernières décennies, l’Europe est restée les bras croisés pendant que les principaux acteurs façonnaient le cours du développement technologique.

Il est maintenant temps pour l’UE de définir ce qu’elle attend du monde numérique, ce qui pourrait nécessiter de réfléchir sérieusement à une approche européenne de la souveraineté technologique. Cela passe par la création d’une chaîne de valeur européenne, mais aussi par une meilleure compréhension des moyens par lesquels l’Europe peut contrer les évolutions néfastes de la technologie et fixer des normes mondiales. 

C’est d’autant plus important que ces technologies peuvent également avoir un impact positif sur nos sociétés : elles peuvent révolutionner les soins de santé, les transports ou la prise de décision politique, et prévoir les catastrophes naturelles ou les conflits sociaux. De nombreux experts y voient également un potentiel d’amélioration de la protection de l’environnement. Englobant tous ces aspects, il est indéniable que la technologie et l’IA constituent ensemble l’un des principaux enjeux géopolitiques auxquels l’UE devra faire face au cours des prochaines décennies. 

Peu de temps avant la pandémie et les blocages qui ont suivi, la Commission européenne a publié son Livre blanc sur l’intelligence artificielle. Il s’agit d’une «approche axée sur la réglementation et les investissements, avec le double objectif de promouvoir l’adoption de l’IA et de traiter les risques liés à certaines utilisations de cette nouvelle technologie.» Il admet que l’Europe a fait piètre figure jusqu’à présent par rapport aux États-Unis et à la Chine et souligne que les investissements dans l’IA en Amérique du Nord sont au moins quatre fois plus élevés que dans l’UE. 

Pour devenir un acteur mondial, proposer une approche européenne et rester compétitive - tout en évitant les risques - l’UE doit prêter attention à quatre éléments : la qualité des données, l’abondance de professionnels bien formés, la qualité des logiciels (ou algorithmes) et la puissance de calcul. En ce qui concerne les données, il sera difficile de rivaliser avec le capitalisme de surveillance des États-Unis ou l’approche autoritaire de la Chine qui entraîne son logiciel de reconnaissance faciale avec une base de données comprenant la quasi-totalité de la population chinoise. Pourtant, l’Europe ne devrait pas être découragée de compiler ses propres données (comme le mentionne la Stratégie européenne pour les données pour 2020). Les autres domaines offrent toutefois davantage de possibilités. En s’appuyant sur les connaissances que l’on peut trouver, entre autres, dans le cluster IA de Paris ou dans la Cyber Valley allemande, l’Europe a le potentiel pour devenir importante, mais de réels efforts sont nécessaires. La clé est d’augmenter les investissements dans la recherche, la technologie et l’éducation, ainsi que d’inciter les experts à rester en Europe. 

Il est également important de freiner les mastodontes technologiques qui do- minent l’espace de l’IA. L’UE, grâce à la commissaire Margrethe Vestager, a été 

L'UE, grâce à la commissaire Margrethe Vestager, a été le fer de lance d'importants efforts en matière d'antitrust pour mettre un frein aux pratiques anticoncurrentielles et à l'évasion fiscale des grandes entreprises technologiques . 

le fer de lance d’importants efforts en matière d’antitrust pour mettre un frein aux pratiques anticoncurrentielles et à l’évasion fiscale des grandes entreprises technologiques ; ces efforts ont été suivis d’une stratégie axée sur la réglementation et l’investissement. Le paquet numérique de l’UE (qui comprend notamment la loi sur les services numériques, la loi sur les marchés numériques et la loi sur l’intelligence artificielle) vise à établir un cadre qui garantit une concurrence loyale et protège les droits fondamentaux des citoyens dans l’espace numérique. En outre, le plan d’action pour la démocratie établit la réglementation des plateformes comme une composante essentielle des efforts visant à préserver la démocratie. Le plan de relance de la pandémie investira dans l’économie numérique, notamment en encourageant la production de semi-conducteurs. Mais il reste encore beaucoup à faire : les investissements restent insuffisants et il est urgent de travailler à la cohérence de la stratégie européenne. L’UE doit intensifier ses efforts pour contrôler l’utilisation militaire de l’IA, protéger les données des citoyens et mettre fin aux abus commis par les acteurs dominants. 

Un changement dans l’air ? 

S’il reste encore beaucoup à faire, l’orientation des efforts de l’UE est prometteuse : pour offrir une alternative aux approches dominantes de la Chine et des États- Unis, l’accent est mis sur une IA «centrée sur l’humain» et «digne de confiance». La stratégie européenne en matière de données vise à créer un marché unique de l’information, mais sans les méthodes de surveillance controversées des grandes puissances actuelles de l’IA. Le document de la Commission sur l’intelligence artificielle centrée sur l’humain souligne la nécessité d’un cadre éthique et juridique qui empêche, par exemple, les algorithmes d’être façonnés par le type de préjugé occidental, masculin et de classe moyenne supérieure qui exacerbe les injustices dans certaines des utilisations actuelles de l’IA, comme dans les décisions de libération conditionnelle ou la notation des lycéens. 

Dans la dernière édition du Green European Journal, l’eurodéputée verte Alexandra Geese et l’experte en cyberpolitique Marietje Schaake partagent leurs points de vue sur les défis et opportunités actuels liés à l’IA, à la technologie et à l’approche européenne pour y faire face. Les deux expertes soulignent la nécessité pour l’UE d’agir de manière unie, ainsi que pour l’espace numérique d’être un élément clé dans les débats géopolitiques. Ce qui se passe en matière d’algorithmes, de plateformes en ligne, de piratage et d’autres phénomènes numériques est au moins aussi important pour la sécurité de l’Europe que les questions de sécurité classiques, telles que la prolifération nucléaire ou le terrorisme. Si l’Europe veut réussir dans ce domaine, elle aura besoin d’une véritable approche européenne, d’un engagement en faveur de l’investissement, de la protection des droits numériques et de la création de coalitions. Certaines des approches proposées sont prometteuses, mais il faut faire davantage et, compte tenu du rythme effréné du développement technologique, il n’y a pas de temps à perdre. 

Konrad Bleyer-Simon

Version originale publiée dans le Green European Journal

Note de fin :
1. Google est souvent identifié à travers sa société mère Alphabet. De même, Facebook a annoncé en octobre 2021 que le site de médias sociaux n’était qu’un des produits offerts par la nouvelle société Meta. 

Télécharger le PDF
Résumé
Les attaques par ransomware sur les infrastructures stratégiques, les élections ciblées par une désinformation coordonnée et une surveillance trop zélée sont quelques-uns des inconvénients de la technologie désormais bien connus. Les risques qui nous attendent - comme le développement de robots tueurs autonomes - sont moins bien compris et peuvent sembler dystopiques, mais ces menaces sont de plus en plus tangibles. Konrad Bleyer-Simon affirme que la réponse de l’UE doit être fondée sur une compréhension et approche géopolitiques de toutes ces questions. ‍
Lire aussi
Toutes nos publications

Inscrivez-vous à notre newsletter hebdomadaire !

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.