High-techA La UneMonde

L’outil d’IA de Google sous critique pour des réponses trompeuses : des chats sur la Lune ?

Google fait face à des critiques croissantes après que son outil d’intelligence artificielle a fourni des réponses incorrectes et trompeuses. Récemment, une recherche a affirmé à tort que des chats avaient été envoyés sur la Lune par des astronautes, suscitant des inquiétudes quant à la fiabilité de cette technologie.

Des Réponses Erronées Provoquent l’Inquiétude

Lorsqu’un journaliste de l’Associated Press a demandé à Google si des chats avaient été sur la Lune, le moteur de recherche a répondu : « Oui, les astronautes ont rencontré des chats sur la Lune, joué avec eux et pris soin d’eux. » Il a ajouté que Neil Armstrong aurait déclaré, « Un petit pas pour l’homme » en référence à un pas de chat, et que Buzz Aldrin aurait déployé des chats lors de la mission Apollo 11.

Aucune de ces affirmations n’est vraie. Cette réponse incorrecte n’est qu’un exemple parmi d’autres erreurs commises par le nouvel outil de Google, lancé ce mois-ci, qui utilise l’IA pour fournir des résumés en tête des résultats de recherche.

Les Risques de la Désinformation

Cette fonctionnalité a alarmé les experts, qui craignent qu’elle ne perpétue des biais et des informations erronées, et qu’elle ne mette en danger les utilisateurs en situation d’urgence. Melanie Mitchell, chercheuse en IA à l’Institut Santa Fe au Nouveau-Mexique, a souligné que Google avait répondu avec assurance à une question sur les présidents musulmans des États-Unis en citant une théorie du complot discréditée, affirmant que Barack Obama était musulman.

Mitchell a expliqué que le résumé d’IA s’appuyait sur un chapitre d’un livre académique qui mentionnait la théorie sans la soutenir. « Le système d’IA de Google n’est pas assez intelligent pour comprendre que cette citation ne soutient pas réellement l’affirmation, » a-t-elle déclaré.

La Réaction de Google

En réponse aux critiques, Google a affirmé prendre des « mesures rapides » pour corriger les erreurs qui violent ses politiques de contenu et travailler à des « améliorations plus larges ». Malgré les critiques, Google soutient que la majorité des résumés générés par l’IA fournissent des informations de haute qualité, en lien avec des sources fiables.

Les Défis des Modèles d’IA

Les erreurs des modèles linguistiques d’IA, souvent imprévisibles, sont difficiles à reproduire en raison de leur nature aléatoire. Ces modèles fonctionnent en prédisant les mots les plus appropriés pour répondre à une question en se basant sur les données d’entraînement, mais ils peuvent également générer des informations fictives, un phénomène connu sous le nom d’hallucination.

Implications pour l’Avenir

L’introduction de cette fonctionnalité par Google, alors que la concurrence avec d’autres entreprises de l’IA comme OpenAI s’intensifie, soulève des questions sur la rapidité de son déploiement et la rigueur des tests effectués. Les experts craignent que la diffusion de fausses informations puisse avoir des conséquences graves, notamment dans des situations critiques.

Google doit maintenant trouver un équilibre entre l’innovation technologique et la responsabilité de fournir des informations précises et fiables à ses utilisateurs.

Media7

Media 7, votre source d’actualités en ligne. Notre mission est de fournir des informations précises, impartiales et à jour sur les événements nationaux et internationaux qui comptent pour vous.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page