Faire preuve de transparence dans le développement et l’utilisation de systèmes d’IA favorise la confiance de tous les acteurs impliqués. Une communication ouverte est essentielle, les entreprises de développement et de déploiement devraient toujours être transparentes sur la collecte, l’utilisation et la protection des données, tout en divulguant les limites et les incertitudes des systèmes d’IA.
Exemple :
Même dans la version actuelle de ChatGPT, le système d’IA ne fournit pas toujours les sources sur lesquelles il s’est basé pour donner sa réponse, et en fournit parfois des fausses. Il peut alors être difficile de valider le contenu de la réponse et donc d’y faire confiance. Il est justifiable de mettre en doute la transparence de ChatGPT.
Source
Obvia (février 2025)
Auteur·trice(s) de note
Création
23 février 2025 12:27
Modification
23 février 2025 12:27
Licence
Attention : une partie ou l’ensemble de ce contenu pourrait ne pas être la propriété de la, du ou des auteur·trices de la note. Au besoin, informez-vous sur les conditions de réutilisation.
Accessibilité des informations relatives aux décisions et aux activités ayant une incidence sur la société, l'économie et l'environnement, et volonté d'en assurer une communication claire, exacte, opportune, honnête et complète.
Source
Norme ISO 26000, 2010, Lignes directrices relatives à la responsabilité sociétale.
https://www.iso.org/obp/ui/#iso:std:iso:26000:ed-1:v1:fr
Auteur·trice(s) de note
Création
15 janvier 2023 11:06
Modification
15 janvier 2023 11:06
Licence
Attention : une partie ou l’ensemble de ce contenu pourrait ne pas être la propriété de la, du ou des auteur·trices de la note. Au besoin, informez-vous sur les conditions de réutilisation.