J’adore ce mot !
Alors quand je l’ai lu dans une étude très sérieuse sur les IA génératives, appliqué aux IA génératives, je me suis demandée ce que ça voulait dire.
Parce que la définition du Larousse pour hallucination c’est : trouble psychique dans lequel le sujet a la conviction de percevoir, par la vue, l'ouïe ou l'odorat, un objet qui n'existe pas.
Dire d’une machine qu’elle a un trouble psychique, on n’est pas loin de la science fiction !
Alors qu’est-ce que ça veut dire ? Cela désigne ce moment où l’IA génère un contenu qui n’est pas fiable à partir de l’agrégation de données. C’est typiquement le cas quand vous demandez à ChatGPT des citations qui expriment miraculeusement exactement ce que vous vouliez qu’elles disent ! Et quand vous demandez dans quel contexte ces phrases ont été prononcées, la machine s’excuse.
Concrètement, et dans le cadre professionnel cela invite les entreprises à border le champ des possibles (pour éviter les fausses promesses des IA) !
Comments