Home » Voici comment OpenAI prévoit de nettoyer ChatGPT des fausses informations

Voici comment OpenAI prévoit de nettoyer ChatGPT des fausses informations

by Jamesbcn
0 comments

Le 31 mai, OpenAI a annoncé ses efforts pour améliorer les capacités de résolution de problèmes mathématiques de ChatGPT, visant à réduire les instances de intelligence artificielle (IA) hallucinations. OpenAI a mis l’accent sur l’atténuation des hallucinations comme une étape cruciale vers le développement d’une IA alignée.

En mars, l’introduction de la dernière version de ChatGPT – ChatGPT-4 – a encore propulsé l’IA dans le courant dominant. Cependant, les chatbots d’IA générative ont longtemps été aux prises avec l’exactitude des faits, générant parfois de fausses informations, communément appelées “hallucinations”. Les efforts pour réduire ces hallucinations d’IA ont été annoncé via une publication sur le site Web d’OpenAI.

Les hallucinations de l’IA font référence à des cas où les systèmes d’intelligence artificielle génèrent des sorties factuellement incorrectes, trompeuses ou non étayées par des données du monde réel. Ces hallucinations peuvent se manifester sous diverses formes, telles que générer de fausses informations, inventer des événements ou des personnes inexistants, ou fournir des détails inexacts sur certains sujets.

OpenAI menée recherche pour examiner l’efficacité de deux types de rétroaction : la « supervision des résultats » et la « supervision des processus ». La supervision des résultats implique une rétroaction basée sur le résultat final, tandis que la supervision des processus fournit des informations pour chaque étape d’une chaîne de pensée. OpenAI a évalué ces modèles à l’aide de problèmes mathématiques, en générant plusieurs solutions et en sélectionnant la solution la mieux classée en fonction de chaque modèle de rétroaction.

Après une analyse approfondie, l’équipe de recherche a constaté que la supervision des processus offrait une performance supérieure car elle encourageait le modèle à adhérer à un processus approuvé par l’homme. En revanche, la supervision des résultats s’est avérée plus difficile à examiner de manière cohérente.

OpenAI a reconnu que les implications de la supervision des processus s’étendent au-delà des mathématiques, avec une enquête plus approfondie nécessaire pour comprendre ses effets dans différents domaines. Il a exprimé la possibilité que si les résultats observés se maintiennent dans des contextes plus larges, la supervision des processus pourrait offrir une combinaison favorable de performance et d’alignement par rapport à la supervision des résultats. Pour faciliter la recherche, la société a rendu public l’ensemble complet de données sur la supervision des processus, invitant à l’exploration et à l’étude dans ce domaine.

En rapport: La demande d’IA catapulte brièvement Nvidia dans un club de 1 000 $

Bien qu’OpenAI n’ait pas fourni d’exemples explicites qui ont motivé son enquête sur les hallucinations, deux événements récents ont illustré le problème dans des scénarios réels.

Lors d’un incident récent, l’avocat Steven Schwartz dans l’affaire Mata contre Avianca Airlines reconnu compter sur le chatbot comme ressource de recherche. Cependant, les informations fournies par ChatGPT se sont avérées entièrement fabriquées, mettant en évidence le problème en question.

Le ChatGPT d’OpenAI n’est pas le seul exemple de systèmes d’intelligence artificielle rencontrant des hallucinations. Au cours d’une manifestation de sa technologie de chatbot en mars, le chatbot Bing AI de Microsoft a examiné les rapports sur les bénéfices et généré des chiffres inexacts pour des entreprises comme Gap et Lululemon.

Magazine: 25 000 traders parient sur les sélections d’actions de ChatGPT, l’IA est nul aux lancers de dés, et plus encore