Parlons de géopolitique algorithmique

L'argument de la Chine a parfois le dos large: "on ne peut faire x sinon la Chine va profiter de la situation et nous dépasser". Cette idée justifie l'inaction politique et le fatalisme.

Avec cet argument déjà utilisé par Mark Zuckerberg, on justifie de ne pas réguler l'industrie de l'IA sinon cela risque d'entraver l'innovation et permettre à la Chine de dépasser les États-Unis sur le plan technologique. Dans cette logique, il ne faudrait pas toucher à la Silicon Valley, ni démanteler les GAFAM, ni mettre des lois qui cherchent à réguler les machines algorithmiques par niveau de risque (ex: AI Act).

Mais en quoi le fait de ne pas mettre de moratoire ici ou de ne pas adopter des lois plus contraignantes sur l'IA empêchera la Chine de faire ce qu'elle fait déjà? Dans tous les cas, les BATX (Baidu, Alibaba, Tencent et Xiaomi) ont déjà le vent dans les voiles, TikTok développé par l'entreprise chinoise ByteDance est en train de détrôner Facebook, la Chine va probablement dépasser les États-Unis dans la course à l'IA dans les prochaines années (ça reste à déterminer, mais plusieurs experts vont en ce sens).

Le fait de ralentir la cadence ici, en évaluant les risques de nouvelles applications avant de les lâcher dans la nature, ne va pas pousser la Chine à abandonner son système totalitaire de crédit social ou empêcher les mauvais usages des algorithmes. Bien au contraire, la Chine utilise déjà des technologies développées par la Silicon Valley pour renforcer ses dispositifs de surveillance, et des révélations ont montré que des "groupes de hackers chinois utilisent Facebook et d'autres sites et applications mobiles pour piéger et espionner les Ouïghours". Les technologies qui sont développées ici peuvent donc être utilisées comme des armes là-bas, de sorte que ne pas agir pour réguler l'industrie ici contribue à augmenter le risque de dérives ici comme ailleurs dans le monde. Cet argument vaut pour la Chine, la Russie, l'Inde, et n'importe quelle puissance économique ou géopolitique.

À ce titre, il y a parfois une belle hypocrisie dans le débat public: on s'en prend à TikTok, à Huawei ou à l'État chinois qui viendraient nous espionner, mais on passe sous silence les pratiques de surveillance massive par les plateformes capitalistes de la Silicon Valley comme Alphabet, Meta, Microsoft, Apple, etc., et on oublie que le FBI et la NSA n'ont pas hésité à mettre en place des systèmes de surveillance massive à l'échelle planétaire (dont le programme PRISM), révélés par Edward Snowden en 2013 (ça fait seulement 10 ans, mais ça semble parfois faire un siècle).

"Le dentifrice est sorti du tube, il faut vivre avec, on ne peut plus le remettre dedans". En fait, la technologie des LLM (large language models) développée depuis 2018 est accessible publiquement, avec beaucoup d'informations en open source, de sorte que n'importe qui peut construire ce genre de modèles à condition d'avoir suffisamment de données, d'infrastructures et de capacités de calcul: GPU, data centers, etc. La compagnie Baidu a déjà développé son chatbot Ernie, qui a des fonctionnalités et un degré de performance similaire à ChatGPT. Ernie évite systématiquement les enjeux politiques (quelle surprise!), mais il ne faut pas oublier que ChatGPT a aussi été programmé pour éviter des sujets sensibles.

Par ailleurs, si le dentifrice de l'IA générative est déjà sorti du tube, qu'est-ce qui dit maintenant qu'on doit se brosser allègrement les dents avec sans se poser de questions? Pourquoi ne pas se contenter de GPT-4, et prendre le temps de voir quels sont les impacts de cette technologie qui vient juste de sortir? Avons-nous vraiment besoin de produire une quantité phénoménale de dentifrice supplémentaire avec GPT-5 ou 6, alors que GPT-4 nous permet déjà de faire amplement de choses? Pourquoi essayer de concurrencer la Chine ou d'autres pays si ceux-ci décident de se jeter tête baissée dans la production industrielle de dentifrice? Pourquoi ne pas décider collectivement de développer une approche de sobriété dans l'usage du dentifrice ici, pour des raisons sociales, démocratiques et environnementales?

Un chapitre de mon prochain livre avec Jonathan Martineau s'intitule "Le capital algorithmique participe de la reconfiguration de l'ordre international". Il y a actuellement une dynamique complexe de "transition hégémonique" qui se joue entre la Chine et les États-Unis, sur le plan économique, géopolitique mais aussi technologique, laquelle alimente la course aux armements algorithmiques. La course à l'IA entre OpenAI, Google, Meta, Apple et Microsoft se combine à celle des BATX et d'autres startups à travers le monde. Cette dynamique contribue à de nombreux problèmes: course à l'extraction de données, intrusions dans la vie privée, exploitation de ressources naturelles, consommation frénétique d'énergie, négligence de mesures de sécurité, concentration du pouvoir économique et technologique, etc.

Actuellement, deux grands modèles de capitalisme algorithmique coexistent: le capitalisme algorithmique libéral, version Silicon Valley, et le capitalisme algorithmique autoritaire, version chinoise (mais qui peut se décliner ailleurs comme en Russie, Singapour, etc.). Ces deux modèles rivalisent et s'imitent à la fois, avec des variations sur le plan politique et culturel, mais en visant un même but: accroire l'influence de leur superpuissance respective, en se basant notamment sur leur supériorité technologique relative.

Face à ce phénomène, que devons-nous faire? Regarder cette nouvelle "guerre froide" de façon consternée et inquiète? Doit-on embarquer dans la course en prenant le camp des États-Unis car ce modèle, même imparfait, serait préférable à celui de l'État chinois? Ou bien, devrions-nous faire plutôt comme l'Union européenne, qui, sans être vraiment dans la course en termes de puissance algorithmique et d'accumulation de données, préfère se démarquer comme un espace d'innovation institutionnelle et législative? Rappelons que l'Europe essaie de limiter les dégâts et d'inventer de nouveaux droits numériques, comme le droit à la déconnexion (France), le droit à l'oubli (Union européenne), droits sur la protection des données (RGPD), régulation de l'IA par niveau de risque (AI Act), etc.

Pourquoi se lancer de façon enthousiaste dans la course à l'IA, au lieu de s'inspirer d'un petit pays l'Estonie, considéré comme la "société numérique la plus avancée au monde" par le magazine Wired? Ce pays a développé des pratiques novatrices: numérisation réussie des services publics, connexion Wi-Fi publique gratuite à travers le pays depuis 2002, vote en ligne pour les élections, expertise mondiale en cybersécurité, e-democracy, open data et transparence, transnationalité numérique (e-residence), etc.

Pendant ce temps, le Québec a l'air d'un clown avec ses flops monumentaux de vols de données (Desjardins), l'implantation ratée de services numériques (SAAQ, premier volet de la stratégie de transformation numérique gouvernementale), l'usage du fax dans le réseau de la santé (encore en 2023!), l'échec du Panier bleu (copie cheap d'Amazon), la stratégie de zones d'innovation pour tenter de créer une "Silicon Valley québécoise", le tout avec des centaines de millions de dollars de contrats au secteur privé pour des solutions numériques, et nos données citoyennes stockées dans le cloud de Microsoft et Amazon.

Enfin, beaucoup de personnes qui se disent "socio-démocrates" souhaitent que l'État intervienne davantage sur le plan économique, social et environnemental; mais lorsque vient le temps de parler d'enjeux numériques ou d'intelligence artificielle, la logique néolibérale reprend vite le dessus: les régulations étatiques sont inutiles, inefficaces, voire nuisibles, laissons le marché ou les algorithmes s'auto-réguler (ordre spontané), misons sur la créativité et la liberté individuelle au niveau des usages pour favoriser la prospérité (économique ou technologique), rappel de l'impératif du "il faut s'adapter" (idée forte mais méconnue du néolibéralisme, développée par Walter Lippmann).

A contrario, pourquoi ne pas nationaliser les infrastructures numériques (en créant Réseau Québec par exemple), se doter d'une vraie stratégie de souveraineté numérique, pas inspirée de la Chine ou de la Russie évidemment (technonationalisme autoritaire), mais du municipalisme, des mouvements sociaux, et des communautés autochtones? Pourquoi ne pas socialiser les data centers et les plateformes, comme le proposent Morozov et d'autres partisans du coopérativisme de plateforme? Pourquoi ne pas arrêter de demander une sobriété énergétique aux familles de façon paternaliste alors qu'on pèse sur l'accélérateur en entraînant des LLM et des chatbots énergivores? Pourquoi ne pas miser plutôt sur une stratégie de sobriété numérique à l'échelle collective? Pourquoi ne pas développer des fiducies d'utilité sociale pour les données, afin que celles-ci ne soient plus contrôlées par des firmes capitalistes, ni par des États qui peuvent parfois devenir autoritaires?

Bref, pourquoi ne pas sortir du dilemme États-Unis vs Chine, lorsque vient le temps de savoir quoi faire avec le numérique, l'IA et les robots conversationnels? La realpolitik ne doit pas servir d'alibi pour justifier l'inaction et l'inévitabilisme (on n'arrête pas le progrès voyons!). On peut faire de la realpolitik avec une orientation démocratique, social-démocrate, municipaliste, et même anticapitaliste! Il faut lutter contre le capitalisme algorithmique là où il se trouve; avec les moyens disponibles. Ce n'est pas de l'angélisme, mais du pragmatisme critique qui ne renonce pas à son idéal de transformation sociale aussitôt qu'il est question "d'intelligence artificielle".

bookmark Terme(s) relié(s)

paddingCarnets qui incluent cette note

Numérique et données - Enjeux, leviers et stratégies
file_copy 268 notes
person
Intégré par Équipe En commun, le 14 avril 2023 07:45
category
Surveillance, données, vie privée et cybersécurité, Réfléchir et analyser
Réflexions de Jonathan Durand Folco
file_copy 12 notes
person
Intégré par Jonathan Durand Folco, le 30 mars 2023 09:22
category
Capitalisme algorithmique, Intelligence artificielle

Auteur·trice(s) de note

forumContacter l’auteur·trice

forumDiscuter de la note

Publication

30 mars 2023

Modification

12 juillet 2023 13:30

Historique des modifications

Visibilité

lock_open public

Pour citer cette note

Jonathan Durand Folco. (2023). Parlons de géopolitique algorithmique. Praxis (consulté le 29 avril 2025), https://praxis.encommun.io/n/hBeDaCmtSi1ZBugtEPRFB74zL7I/.

shareCopier