Actualités / Jeux

OpenAI veut que ChatGPT arrête de devenir fou, soit plus humain

OpenAI veut que ChatGPT arrête de devenir fou, soit plus humain

OpenAI travaille enfin sur les paramètres de ChatGPT pour créer un meilleur programme d’interaction éliminant toute hallucination de l’IA. Si vous n’avez jamais entendu parler d’hallucination par l’IA et que vous avez déjà utilisé ChatGPT, vous en avez peut-être déjà fait l’expérience. Laissez-nous vous expliquer.

Est-il déjà arrivé que lorsque vous utilisez ChatGPT ou n’importe quel chatbot IA, le système commence simplement à bavarder n’importe quelle information et contenu au lieu de l’invite qui a été insérée. Eh bien, ce phénomène est appelé une hallucination de l’IA rendant la désinformation.

Lisez aussi : Une nouvelle application pour smartphone utilise l’IA pour détecter les produits contrefaits : Voici comment fonctionne Alitheon

Dans un effort pour changer et réduire ces sorties, OpenAI a finalement trouvé une solution et la fonctionnalité s’appelle la supervision de processus. Il pourrait y avoir une confusion entre les fonctions de supervision du processus et de supervision des résultats où, dans cette dernière, le système est récompensé pour la conclusion finale de la tâche. Cependant, dans le premier cas, qui est la nouveauté, le système est récompensé à chaque étape de la tâche.

OpenAI dans un article de blog officiel a publié des exemples mathématiques qui ont abouti à une meilleure précision en général, cependant, la société suggère qu’elle ne peut pas commenter la façon dont la fonction de supervision des processus fonctionnera dans le domaine des mathématiques.

OpenAI a déjà mentionné et corrigé les lacunes du logiciel et a averti les utilisateurs en déclarant que ChatGPT peut être inexact avec les informations diffusées.

“Même les modèles de pointe sont enclins à produire des faussetés – ils ont tendance à inventer des faits dans les moments d’incertitude. Ces hallucinations sont particulièrement problématiques dans les domaines qui nécessitent un raisonnement en plusieurs étapes, puisqu’une seule erreur logique suffit à faire dérailler une solution beaucoup plus vaste. Détecter et atténuer les hallucinations est essentiel pour améliorer les capacités de raisonnement.

Lisez également: IIT-AIIMS développe des applications d’IA pour améliorer les soins de santé en Inde: voici comment

Avec cet effort pour rendre l’expérience utilisateur plus transparente et transparente, OpenAI vise à construire une technologie qui peut refléter des réponses basées sur les interactions humaines et structurer le système pour comprendre les humains et faire des efforts réactifs en conséquence.

Certains experts suggèrent toujours que le logiciel nécessite plus de précision et de transparence tout en incitant à une réglementation du logiciel.