Quand les hallucinations de ChatGPT se retrouvent dans les réponses de Google
Un internaute s’est vu donner une réponse incongrue de Google, que le moteur de recherche avait récupérée du site Quora, lequel utilise depuis quelques mois des réponses générées par l’IA au côté de celles des utilisateurs humains…
- Peut-on faire fondre un œuf?
- Bien sûr, le moyen le plus courant est de le chauffer en utilisant une poêle ou un micro-ondes.
C’est la question insolite posée par un internaute à Google et la réponse pour le moins incongrue qui est apparue en tête des résultats, ainsi qu’il l’a partagé sur X. Rappelons que le moteur de recherche ne se contente pas de renvoyer des liens vers des pages mais affiche bien souvent en tête de gondole la brève réponse extraite d’un site référencé, notamment des dictionnaires et des pages Wikipedia … ou des réponses fournies par des utilisateurs de Quora dans le cas qui nous intéresse.
Si vous n’êtes jamais tombé sur Quora, ce site publie des questions-réponses élaborées par ses utilisateurs, sur quantité de sujets, des plus scientifiques aux plus loufoques. Surfant sur la vague de l’IA générative, Quora développe depuis quelques mois la plateforme Poe (Platform for Open Exploration), qui permet d’accéder à des chatbots s’appuyant sur des modèles populaires. On y trouve ainsi des bots propulsés par GPT-4, Claude, Llama, Anthropic ou Bard.
Depuis quelques temps, Quora affiche aussi les réponses générées par ces modèles au côté de celles rédigées par ses utilisateurs. La confusion règne pour qui n’y est pas attentif. Et c’est dans ce panneau qu’est tombé l’algorithme de Google qui a récupéré et affiché la première réponse fournie par Quora, alors que cette dernière avait été produite par un bot dont on sait qu’ils hallucinent parfois… CQFD
Sur le sujet:
Avant de nous asphyxier, l’IA pourrait elle-même asphyxier
Les développeurs d’IA craignent de ne plus disposer de données humaines via le crowdsourcing