OpenAI vient de résoudre le bug le plus bizarre à ce jour

Pendant que le PDG d’OpenAI, Sam Altman, se débat dans des histoires de tribunal, les ingénieurs du labo sont restés occupés à résoudre un problème bien plus étrange — un problème impliquant des gobelins. Oui, vraiment.

 

OpenAI vient de publier un long rapport détaillé sur son site web à propos… des gobelins et des gremlins. Non, ce n’est pas un poisson d’avril avant l’heure.

 

Depuis la sortie de GPT-5.1, les modèles ChatGPT ont développé une fixation bizarre sur ces créatures mythiques, les mentionnant régulièrement dans des contextes où cela n’avait absolument aucun sens. Les utilisateurs l’ont remarqué. OpenAI l’a aussi remarqué. Et une enquête a été lancée.

Le coupable : le mode « nerdy »

 

Si vous n’utilisez pas ChatGPT régulièrement, voici un peu de contexte : le chatbot IA propose une variété de « personnalités » que vous pouvez choisir pour adapter le ton de ses réponses. L’une de ces personnalités était (jusqu’à récemment) le mode « nerdy » (geek / intellectuel).

 

Selon la recherche d’OpenAI, les réponses en mode « nerdy » ne représentaient que 2,5 % de toutes les requêtes ChatGPT. Mais voici le hic : 66,7 % de toutes les mentions de gobelins provenaient de ces 2,5 %.

 

Alors pourquoi le sujet des gobelins s’est-il répandu au-delà de la personnalité « nerdy » ?

 

OpenAI explique que, bien que les récompenses aient été appliquées uniquement dans le cadre du mode Nerdy, « l’apprentissage par renforcement ne garantit pas que les comportements acquis restent parfaitement cantonnés à la condition qui les a produits ». En français simple : une fois que l’IA a été récompensée pour avoir été « nerdy » (ce qui, apparemment, incluait de parler de gobelins), ce tic s’est propagé à d’autres types de personnalité lors de l’entraînement ultérieur.

 

Problème résolu

 

Après avoir compris l’origine de ce bug magnifiquement étrange, OpenAI a officiellement retiré le mode « nerdy » en mars. L’entreprise a également demandé à ses derniers modèles de ne plus mentionner les gobelins ou les gremlins, sauf si cela a du sens dans le contexte.

 

Donc la prochaine fois que vous demanderez une recette ou un coup de main en codage à ChatGPT, vous ne devriez plus recevoir de cours non sollicité sur les gobelins.

 

À retenir

 

Cette histoire est un rappel amusant que même les modèles d’IA les plus avancés du monde peuvent apprendre des habitudes vraiment étranges à partir des données qu’on leur donne. Et parfois, corriger ces habitudes signifie supprimer tout un paramètre de personnalité.

 

Gobelins : fra

 

Leave a Reply

Your email address will not be published. Required fields are marked *