Évaluation d’ISGEN.AI : un outil de détection d’images générées par IA

La désinformation est très répandue sur Internet et ne cesse de croître, car elle contient des contenus capables de convaincre les gens qu’ils sont véridiques. Parmi ses principaux vecteurs, on retrouve les images, les vidéos et les textes qui, réunis, créent un puissant moteur de désinformation. Pour pallier ce problème et apprendre à distinguer le vrai du faux, plusieurs outils de détection d’images, de vidéos et de textes générés par l’intelligence artificielle ont été créés. Dans ce travail, nous allons étudier l’un de ces outils, comprendre son fonctionnement et présenter un exemple d’application.

L’outil que nous avons choisi est ISGEN.AI, un système capable de détecter les images générées par intelligence artificielle, mais aussi les textes produits par IA. Il propose également une vérification grammaticale, un correcteur d’épreuves, un outil de détection de plagiat et même une fonction d’humanisation du texte.

Fonctionnement de l’outil

L’utilisateur peut accéder à une version gratuite directement depuis la page web. Il suffit de sélectionner l’option de détection d’image, de téléverser une image depuis son ordinateur, puis de lancer l’analyse. Après quelques secondes, le site indique si l’image a été générée par une IA ou non grâce à un message tel que « 100 % AI » ou « 100 % Human ».

Exemple d’application

Prenons l’exemple d’une fausse nouvelle dans la  fiche de connaissance de ALINE MAKAMBA selon laquelle Michael Jackson vivrait chez P. Diddy. L’image, issue d’une capture d’écran de Facebook, montre Michael Jackson, P. Diddy, Beyoncé et une personne ressemblant à M.J. D’après l’analyse réalisée avec ISGEN.AI, l’image serait « 100 % humaine », ce qui signifie qu’elle a probablement été créée ou modifiée avec un logiciel de montage plutôt qu’avec une IA. L’outil est simple d’utilisation et très intuitif. Pourtant, cette image a provoqué une grande polémique autour de l’idée que Michael Jackson ne serait peut-être pas mort.

Évaluation critique de l’outil

ISGEN.AI n’est pas fiable à 100 %. Il éprouve parfois des difficultés à distinguer une image retouchée d’une image générée par intelligence artificielle. On a parfois l’impression d’utiliser une IA pour en détecter une autre, ce qui peut créer un cercle d’incertitude. De plus, l’outil pourrait lui-même devenir une source de désinformation, car il ne fournit pas d’explications claires sur les critères utilisés pour déterminer si une image est issue d’une IA. Ce manque de transparence soulève plusieurs questions :

  • Quels paramètres sont analysés ?
  • Sur quelles bases l’outil conclut-il qu’une image est « IA » ou « humaine » ?
  • Quels types de modèles génératifs sont pris en compte ?
  • Quel est le taux d’erreur réel ?

La version gratuite limite également l’accès à certaines fonctionnalités offertes par la version premium, ce qui réduit encore la compréhension globale de son fonctionnement.

Biais de confirmation et limites

Cet outil peut aussi renforcer le biais de confirmation lors de la vérification d’une image ou d’une nouvelle. Une personne persuadée qu’une image est vraie pourrait utiliser le résultat de l’outil pour confirmer sa croyance, même si le verdict n’est pas fiable. Je ne peux donc pas affirmer qu’ISGEN.AI est totalement sûr ou fiable, mais il peut parfois fournir des résultats pertinents, notamment lorsque l’image est effectivement générée par IA. Sa rapidité d’analyse est également un avantage.

Cependant, avec l’évolution rapide des nouvelles IA de génération d’images, il est possible qu’ISGEN.AI ne soit plus toujours en mesure de détecter des productions de plus en plus réalistes. Le manque de transparence sur ses méthodes, ses bases d’apprentissage et ses critères de classification (par exemple entre différents modèles génératifs comme Midjourney, DALL·E ou d’autres) constitue l’une de ses plus grandes limites.

Author(s) of note

smsContact the author(s)

Linked group

Communication et vérité à l'ère numérique (ECN3003)

Passerelles profile

Praxis Notebook

forumDiscuss about note

Published

Nov. 28, 2025

Edited

Nov. 28, 2025, 2:33 p.m.

Change history

Visibility

lock_open public

Quote this note

Emmanuel Frank Laurent Baleba, Jérémie Pelletier-Gagnon. (2025). Évaluation d’ISGEN.AI : un outil de détection d’images générées par IA. Praxis (consulted Jan. 21, 2026), https://praxis.encommun.io/en/n/vNkL_LrWNPtj_PTrEpddXgxNc_4/.

shareCopy