Vous savez comment fonctionne ChatGPT, n'est-ce pas ?..
C'est un générateur de texte, pas un outil d'analyse. Grosso-modo, en fonction de sa base de donnée, l'IA place des mots les uns à la suite des autres en fonction de la probabilité qu'ils se suivent. Il ne répond pas aux questions sur leur fond (puisqu'il ne les comprend pas vraiment), il se contente de fournir une réponse ayant l'air "crédible".
Lorsque vous demandez par exemple à ChatGPT de faire 1+1, il ne va pas faire le calcul, il va aller chercher dans les textes de sa base de donnée ce qui suit habituellement "1 + 1". Heureusement, vous devriez avoir "= 2" en réponse, car c'est logiquement ce qu'on devrait trouver dans la base. Mais si cette dernière était corrompue et qu'il y avait assez de textes y disant que "1 + 1 = 3", c'est exactement cette réponse que vous fournirait l'IA.
Sérieusement, cette manie que tout le monde (y compris des politiques et des gens supposés représenter l'élite intellectuelle) a d'utiliser les IA comme des sortes d'oracle qui savent tout, ça me rend fou...