L'IA n'est ni artificielle ni intelligente

Ce sont les mots de Kate Crawford lors de son entrevue à The Guardian. Elle est professeure-chercheuse en communication, études scientifiques et technologiques à l'Université de Californie du Sud et chercheuse principale principale chez Microsoft Research. Elle étudie les implications sociales et politiques de l'intelligence artificielle.

EXTRAITS

L'IA n'est ni verte, ni sociale . Nous avons encore un long chemin à parcourir avant que l'IA soit une technologie verte. Le virtuel cache de grandes quantités de matériaux et de main-d'œuvre mal payée, allant du travail de masse pour extraire les minerais et catégoriser les données jusqu'aux entrepôts d'Amazon.

Plus que des biais. À plusieurs reprises, ces systèmes produisent des erreurs et on parle de biais que l'on peut éliminer avec plus de données. Mais il y a des logiques plus profondes de classification qui trahissent des formes de discrimination, non seulement lorsque les systèmes sont appliqués, mais aussi dans la façon dont ils sont construits et formés pour voir le monde. Hélas, ce type de classification est ancrée dans l'essence même de l'IA.

L'idée que l'IA peut détecter les émotions sur le visage de quelqu'un est profondément erronée. Il s'agit de l'un des domaines de réglementation les plus urgents. La plupart des systèmes de reconnaissance des émotions d'aujourd'hui sont basés sur une ligne de pensée en psychologie développée dans les années 1970. Il n'y a pas de corrélation fiable entre les expressions sur le visage et ce que nous ressentons réellement. Et pourtant, des entreprises disent qu'elles le font et qu'on pourrait les intégrer dans les voitures.

L'éthique est nécessaire, mais pas suffisante . La question du pouvoir qu'elle donne, à qui elle le donne et à qui il nuit, est tout aussi importante.

Un plus grand encadrement . Une législation plus stricte et une plus grande rigueur et responsabilité quant à la manière d'utiliser et de construire les données sont nécessaires. De plus, les débats doivent être inclusifs. Il faut rejeter le principe selon lequel si une technologie peut être construite, on doit la déployer. Il faut s'assurer que les chercheurs puissent publier sans ingérence des entreprises (favoriser la même liberté académique que celle des universités).

En complément sur Passerelles :

https://www.theguardian.com/technology/2021/jun/06/microsofts-kate-crawford-ai-is-neither-artificial-nor-intelligent?fbclid=IwAR3Wb8CeyHvA2yLDKKyLCmnxn9DdsXhG0SbDNB_0QOECz62WQ4wnsWP0TE4


Commentaire importé

Jerry Espada - 15 juin 2021 à 12:18 :
"La justice sociale : l’angle mort de la révolution de l’intelligence artificielle".
Actuellement, l’absence de consultation, de participation et d’échanges sur notre présent et notre avenir numérique ne permet pas d’inscrire l’IA dans les principes de justice sociale et de justice politique.
Il faut faire émerger des conditions favorables à la participation des citoyens afin de trouver des réponses inclusives à des problématiques numériques qui demeurent avant tout sociales.
https://theconversation.com/la-justice-sociale-langle-mort-de-la-revolut...
Karine Gentelet - professeure et titulaire de la Chaire Abeona-ENS-OBVIA en intelligence artificielle et justice sociale à l'Université du Québec en Outaouais - et Sandrine Lambert - doctorante en anthropologie à l'Université Laval - abordent les biais de l'IA, les fractures numériques et l'urgence de ralentir alors que l’IA intervient de plus en plus pour aider à la prise de décision dans des secteurs clés comme la santé et les services aux citoyens.
Les biais font des discriminations de genre, de race, de lieux, ou encore de littératie numérique. Ces injustices renforcent le poids d’enjeux sociaux et économiques auxquels font face des citoyens qui sont alors écartés des processus décisionnels et davantage exclus de la société.
Exemples de biais :
- certains outils de détection des maladies excluent des personnes ayant la peau plus foncée. https://www.vice.com/en/article/m7evmy/googles-new-dermatology-app-wasnt...
- des outils utilisés par la police pour identifier des personnes ciblent davantage des groupes déjà largement victimes de profilage racial. https://banthescan.amnesty.org/
Les fractures numériques reflètent des fractures sociales profondes et amplifiées – éloignement géographique, faible niveau d’éducation, fossé générationnel – qui n’ont jamais fait l’objet d’une discussion collective.
Il est souhaitable de décider collectivement des domaines d’application de l’IA et des limites sociétales à imposer pour ne pas empiéter sur un certain nombre de droits de la personne.

padding Carnet(s) relié(s)

file_copy 217 notes
Numérique et données - Enjeux, leviers et stratégies
file_copy 217 notes
person
Intégré par Équipe En commun, le 12 avril 2023 09:04
category
Intelligence artificielle (IA, ChatGPT, ...), Réfléchir et analyser

Auteur·trice(s) de note

forumContacter l’auteur·trice

Communauté liée

Numérique et données

Communauté Passerelles

Profil En commun

forumDiscuter de la note

Publication

11 juin 2021

Modification

18 avril 2023 13:28

Historique des modifications

Licence

Attention : une partie ou l’ensemble de ce contenu pourrait ne pas être la propriété de la, du ou des auteur·trices de la note. Au besoin, informez-vous sur les conditions de réutilisation.

Visibilité

lock_open public