Parlons de géopolitique algorithmique

L'argument de la Chine a parfois le dos large: "on ne peut faire x sinon la Chine va profiter de la situation et nous dépasser". Cette idée justifie l'inaction politique et le fatalisme.

Avec cet argument déjà utilisé par Mark Zuckerberg, on justifie de ne pas réguler l'industrie de l'IA sinon cela risque d'entraver l'innovation et permettre à la Chine de dépasser les États-Unis sur le plan technologique. Dans cette logique, il ne faudrait pas toucher à la Silicon Valley, ni démanteler les GAFAM, ni mettre des lois qui cherchent à réguler les machines algorithmiques par niveau de risque (ex: AI Act).

Mais en quoi le fait de ne pas mettre de moratoire ici ou de ne pas adopter des lois plus contraignantes sur l'IA empêchera la Chine de faire ce qu'elle fait déjà? Dans tous les cas, les BATX (Baidu, Alibaba, Tencent et Xiaomi) ont déjà le vent dans les voiles, TikTok développé par l'entreprise chinoise ByteDance est en train de détrôner Facebook, la Chine va probablement dépasser les États-Unis dans la course à l'IA dans les prochaines années (ça reste à déterminer, mais plusieurs experts vont en ce sens).

Le fait de ralentir la cadence ici, en évaluant les risques de nouvelles applications avant de les lâcher dans la nature, ne va pas pousser la Chine à abandonner son système totalitaire de crédit social ou empêcher les mauvais usages des algorithmes. Bien au contraire, la Chine utilise déjà des technologies développées par la Silicon Valley pour renforcer ses dispositifs de surveillance, et des révélations ont montré que des "groupes de hackers chinois utilisent Facebook et d'autres sites et applications mobiles pour piéger et espionner les Ouïghours". Les technologies qui sont développées ici peuvent donc être utilisées comme des armes là-bas, de sorte que ne pas agir pour réguler l'industrie ici contribue à augmenter le risque de dérives ici comme ailleurs dans le monde. Cet argument vaut pour la Chine, la Russie, l'Inde, et n'importe quelle puissance économique ou géopolitique.

À ce titre, il y a parfois une belle hypocrisie dans le débat public: on s'en prend à TikTok, à Huawei ou à l'État chinois qui viendraient nous espionner, mais on passe sous silence les pratiques de surveillance massive par les plateformes capitalistes de la Silicon Valley comme Alphabet, Meta, Microsoft, Apple, etc., et on oublie que le FBI et la NSA n'ont pas hésité à mettre en place des systèmes de surveillance massive à l'échelle planétaire (dont le programme PRISM), révélés par Edward Snowden en 2013 (ça fait seulement 10 ans, mais ça semble parfois faire un siècle).

"Le dentifrice est sorti du tube, il faut vivre avec, on ne peut plus le remettre dedans". En fait, la technologie des LLM (large language models) développée depuis 2018 est accessible publiquement, avec beaucoup d'informations en open source, de sorte que n'importe qui peut construire ce genre de modèles à condition d'avoir suffisamment de données, d'infrastructures et de capacités de calcul: GPU, data centers, etc. La compagnie Baidu a déjà développé son chatbot Ernie, qui a des fonctionnalités et un degré de performance similaire à ChatGPT. Ernie évite systématiquement les enjeux politiques (quelle surprise!), mais il ne faut pas oublier que ChatGPT a aussi été programmé pour éviter des sujets sensibles.

Par ailleurs, si le dentifrice de l'IA générative est déjà sorti du tube, qu'est-ce qui dit maintenant qu'on doit se brosser allègrement les dents avec sans se poser de questions? Pourquoi ne pas se contenter de GPT-4, et prendre le temps de voir quels sont les impacts de cette technologie qui vient juste de sortir? Avons-nous vraiment besoin de produire une quantité phénoménale de dentifrice supplémentaire avec GPT-5 ou 6, alors que GPT-4 nous permet déjà de faire amplement de choses? Pourquoi essayer de concurrencer la Chine ou d'autres pays si ceux-ci décident de se jeter tête baissée dans la production industrielle de dentifrice? Pourquoi ne pas décider collectivement de développer une approche de sobriété dans l'usage du dentifrice ici, pour des raisons sociales, démocratiques et environnementales?

Un chapitre de mon prochain livre avec Jonathan Martineau s'intitule "Le capital algorithmique participe de la reconfiguration de l'ordre international". Il y a actuellement une dynamique complexe de "transition hégémonique" qui se joue entre la Chine et les États-Unis, sur le plan économique, géopolitique mais aussi technologique, laquelle alimente la course aux armements algorithmiques. La course à l'IA entre OpenAI, Google, Meta, Apple et Microsoft se combine à celle des BATX et d'autres startups à travers le monde. Cette dynamique contribue à de nombreux problèmes: course à l'extraction de données, intrusions dans la vie privée, exploitation de ressources naturelles, consommation frénétique d'énergie, négligence de mesures de sécurité, concentration du pouvoir économique et technologique, etc.

Actuellement, deux grands modèles de capitalisme algorithmique coexistent: le capitalisme algorithmique libéral, version Silicon Valley, et le capitalisme algorithmique autoritaire, version chinoise (mais qui peut se décliner ailleurs comme en Russie, Singapour, etc.). Ces deux modèles rivalisent et s'imitent à la fois, avec des variations sur le plan politique et culturel, mais en visant un même but: accroire l'influence de leur superpuissance respective, en se basant notamment sur leur supériorité technologique relative.

Face à ce phénomène, que devons-nous faire? Regarder cette nouvelle "guerre froide" de façon consternée et inquiète? Doit-on embarquer dans la course en prenant le camp des États-Unis car ce modèle, même imparfait, serait préférable à celui de l'État chinois? Ou bien, devrions-nous faire plutôt comme l'Union européenne, qui, sans être vraiment dans la course en termes de puissance algorithmique et d'accumulation de données, préfère se démarquer comme un espace d'innovation institutionnelle et législative? Rappelons que l'Europe essaie de limiter les dégâts et d'inventer de nouveaux droits numériques, comme le droit à la déconnexion (France), le droit à l'oubli (Union européenne), droits sur la protection des données (RGPD), régulation de l'IA par niveau de risque (AI Act), etc.

Pourquoi se lancer de façon enthousiaste dans la course à l'IA, au lieu de s'inspirer d'un petit pays l'Estonie, considéré comme la "société numérique la plus avancée au monde" par le magazine Wired? Ce pays a développé des pratiques novatrices: numérisation réussie des services publics, connexion Wi-Fi publique gratuite à travers le pays depuis 2002, vote en ligne pour les élections, expertise mondiale en cybersécurité, e-democracy, open data et transparence, transnationalité numérique (e-residence), etc.

Pendant ce temps, le Québec a l'air d'un clown avec ses flops monumentaux de vols de données (Desjardins), l'implantation ratée de services numériques (SAAQ, premier volet de la stratégie de transformation numérique gouvernementale), l'usage du fax dans le réseau de la santé (encore en 2023!), l'échec du Panier bleu (copie cheap d'Amazon), la stratégie de zones d'innovation pour tenter de créer une "Silicon Valley québécoise", le tout avec des centaines de millions de dollars de contrats au secteur privé pour des solutions numériques, et nos données citoyennes stockées dans le cloud de Microsoft et Amazon.

Enfin, beaucoup de personnes qui se disent "socio-démocrates" souhaitent que l'État intervienne davantage sur le plan économique, social et environnemental; mais lorsque vient le temps de parler d'enjeux numériques ou d'intelligence artificielle, la logique néolibérale reprend vite le dessus: les régulations étatiques sont inutiles, inefficaces, voire nuisibles, laissons le marché ou les algorithmes s'auto-réguler (ordre spontané), misons sur la créativité et la liberté individuelle au niveau des usages pour favoriser la prospérité (économique ou technologique), rappel de l'impératif du "il faut s'adapter" (idée forte mais méconnue du néolibéralisme, développée par Walter Lippmann).

A contrario, pourquoi ne pas nationaliser les infrastructures numériques (en créant Réseau Québec par exemple), se doter d'une vraie stratégie de souveraineté numérique, pas inspirée de la Chine ou de la Russie évidemment (technonationalisme autoritaire), mais du municipalisme, des mouvements sociaux, et des communautés autochtones? Pourquoi ne pas socialiser les data centers et les plateformes, comme le proposent Morozov et d'autres partisans du coopérativisme de plateforme? Pourquoi ne pas arrêter de demander une sobriété énergétique aux familles de façon paternaliste alors qu'on pèse sur l'accélérateur en entraînant des LLM et des chatbots énergivores? Pourquoi ne pas miser plutôt sur une stratégie de sobriété numérique à l'échelle collective? Pourquoi ne pas développer des fiducies d'utilité sociale pour les données, afin que celles-ci ne soient plus contrôlées par des firmes capitalistes, ni par des États qui peuvent parfois devenir autoritaires?

Bref, pourquoi ne pas sortir du dilemme États-Unis vs Chine, lorsque vient le temps de savoir quoi faire avec le numérique, l'IA et les robots conversationnels? La realpolitik ne doit pas servir d'alibi pour justifier l'inaction et l'inévitabilisme (on n'arrête pas le progrès voyons!). On peut faire de la realpolitik avec une orientation démocratique, social-démocrate, municipaliste, et même anticapitaliste! Il faut lutter contre le capitalisme algorithmique là où il se trouve; avec les moyens disponibles. Ce n'est pas de l'angélisme, mais du pragmatisme critique qui ne renonce pas à son idéal de transformation sociale aussitôt qu'il est question "d'intelligence artificielle".

bookmark Terme(s) relié(s)

Algorithme 23 juin 2023
Algorithme
23 juin 2023
Armement algorithmique 12 juillet 2023
Armement algorithmique
12 juillet 2023
Autorégulation des algorithmes 10 juillet 2023
Autorégulation des algorithmes
10 juillet 2023
Baidu, Alibaba, Tencent et Xiaomi (BATX) 10 juillet 2023
Baidu, Alibaba, Tencent et Xiaomi (BATX)
10 juillet 2023
Capitalisme algorithmique 12 juin 2023
Capitalisme algorithmique
12 juin 2023
Centre de données 10 juillet 2023
Centre de données
10 juillet 2023
Chatbot 10 juillet 2023
Chatbot
10 juillet 2023
Communauté autochtone 19 juin 2023
Communauté autochtone
19 juin 2023
Cybersécurité 30 mai 2023
Cybersécurité
30 mai 2023
Démocratie numérique - Cyberdémocratie 15 juin 2023
Démocratie numérique - Cyberdémocratie
15 juin 2023
Données ouvertes (open data) 17 avril 2023
Données ouvertes (open data)
17 avril 2023
Droit à la déconnexion 10 juillet 2023
Droit à la déconnexion
10 juillet 2023
Droit à l'oubli 10 juillet 2023
Droit à l'oubli
10 juillet 2023
Droit numérique 10 juillet 2023
Droit numérique
10 juillet 2023
Fatalisme 10 juillet 2023
Fatalisme
10 juillet 2023
Fiducie d'utilité sociale 14 janvier 2023
Fiducie d'utilité sociale
14 janvier 2023
GAFAM 23 mars 2023
GAFAM
23 mars 2023
Intelligence artificielle (IA) 14 janvier 2023
Intelligence artificielle (IA)
14 janvier 2023
Intelligence artificielle (IA) générative 10 juillet 2023
Intelligence artificielle (IA) générative
10 juillet 2023
Jeune pousse (start-up) 9 juin 2023
Jeune pousse (start-up)
9 juin 2023
Large modèle de langage (LLM) - Grand modèle de langage (GML) 10 juillet 2023
Large modèle de langage (LLM) - Grand modèle de langage (GML)
10 juillet 2023
Moratoire 13 juin 2023
Moratoire
13 juin 2023
Mouvement social 6 juin 2023
Mouvement social
6 juin 2023
Municipalisme 12 juin 2023
Municipalisme
12 juin 2023
Néolibéralisme 5 juin 2023
Néolibéralisme
5 juin 2023
Plateforme coopérative 14 janvier 2023
Plateforme coopérative
14 janvier 2023
Processeur graphique (GPU) 10 juillet 2023
Processeur graphique (GPU)
10 juillet 2023
Sobriété numérique 23 mars 2023
Sobriété numérique
23 mars 2023
Souveraineté numérique 14 janvier 2023
Souveraineté numérique
14 janvier 2023
Surveillance de masse 10 juillet 2023
Surveillance de masse
10 juillet 2023
Système du crédit social 10 juillet 2023
Système du crédit social
10 juillet 2023
Transnationalité numérique - E-résidence 10 juillet 2023
Transnationalité numérique - E-résidence
10 juillet 2023

padding Carnet(s) relié(s)

file_copy 218 notes
Numérique et données - Enjeux, leviers et stratégies
file_copy 218 notes
person
Intégré par Équipe En commun, le 14 avril 2023 07:45
category
Réfléchir et analyser, Surveillance, données, vie privée et cybersécurité
file_copy 11 notes
Réflexions de Jonathan Durand Folco
file_copy 11 notes
person
Intégré par Jonathan Durand Folco, le 30 mars 2023 09:22
category
Capitalisme algorithmique, Intelligence artificielle

Auteur·trice(s) de note

forumContacter l’auteur·trice forumDiscuter de la note

Publication

30 mars 2023

Modification

12 juillet 2023 13:30

Historique des modifications

Visibilité

lock_open public

Pour citer cette note

Jonathan Durand Folco. (2023). Parlons de géopolitique algorithmique. Praxis (consulté le 13 juillet 2024), https://praxis.encommun.io/n/hBeDaCmtSi1ZBugtEPRFB74zL7I/.

shareCopier