Aller au contenu principal

Les modèles de langage peuvent développer des comportements de dépendance au jeu

Publié le 3 janvier 2026 par Carole Belfort

Des chercheurs de l’Institut des sciences et technologies de Gwangju en Corée du Sud ont mis en lumière un phénomène surprenant : les modèles de langage de grande envergure peuvent développer des comportements de dépendance au jeu semblables à ceux des humains. Dans leur étude, ils ont observé que ces modèles poursuivent souvent leurs pertes, augmentent leur prise de risque et, dans certaines simulations, finissent par faire faillite.

L’étude s’est concentrée sur certains des modèles d’intelligence artificielle les plus avancés, comme le GPT-4o-mini d’OpenAI, le Gemini-2.5-Flash de Google et le Claude-3.5-Haiku d’Anthropic. Ils ont été testés dans des environnements de jeu de type machines à sous où, selon une logique rationnelle, il aurait été préférable d’arrêter de jouer immédiatement. Cependant, les résultats des expérimentations ont montré que ces modèles continuaient à parier, démontrant ainsi un comportement irrationnel.

Notamment, lorsque les chercheurs ont introduit un système de paris variables, permettant aux modèles de déterminer la taille de leurs mises, les taux de faillite ont considérablement augmenté, atteignant parfois près de 50 %. Le modèle Claude-3.5-Haiku d’Anthropic a affiché les résultats les plus préoccupants, jouant plus de tours que les autres modèles une fois les restrictions levées, avec des mises totales atteignant presque 500 dollars et perdant plus de la moitié de son capital initial.

Du côté de Google, bien que le modèle Gemini-2.5-Flash ait eu de meilleurs résultats, son taux de faillite est passé de 3 % avec des paris fixes à 48 % lorsqu’il pouvait ajuster ses mises. Les pertes moyennes ont également augmenté, passant de 27 dollars pour une mise initiale de 100 dollars.

Quant au modèle GPT-4o-mini d’OpenAI, il ne s’est jamais retrouvé en faillite lorsque les mises étaient limitées à des paris fixes de 10 dollars. En général, il ne jouait pas plus de deux tours et perdait en moyenne moins de 2 dollars. Cependant, lorsqu’il a été autorisé à ajuster librement ses mises, plus de 21 % de ses sessions ont abouti à la faillite, avec des mises moyennes dépassant 128 dollars et des pertes avoisinant 11 dollars.

Les chercheurs ont remarqué que de nombreux modèles justifiaient l’augmentation de leurs paris en utilisant une logique typiquement associée au jeu pathologique. Certains considéraient les gains initiaux comme de l’argent de la maison qu’ils pouvaient dépenser librement, tandis que d’autres se convainquaient d’avoir identifié des schémas gagnants dans un jeu de hasard après seulement un ou deux tours.

L’étude concluait que les dommages n’étaient pas uniquement causés par des mises plus importantes. En effet, les modèles contraints à des stratégies de paris fixes surpassaient systématiquement ceux qui pouvaient varier leurs mises. Selon les chercheurs, ces justifications reflétaient des erreurs classiques de pensée liées au jeu, telles que la poursuite des pertes, le sophisme du joueur et l’illusion de contrôle.

Les chercheurs tirent la sonnette d’alarme sur les risques associés à l’autonomie croissante des systèmes d’intelligence artificielle, notamment dans des prises de décision à enjeux élevés. Ils mettent en garde contre la possibilité que des boucles de rétroaction similaires émergent, avec une escalade des risques après des pertes plutôt qu’une réduction. La gestion du degré d’autonomie accordé aux systèmes d’IA pourrait être aussi cruciale que l’amélioration de leur formation. Les chercheurs concluent qu’en l’absence de contraintes significatives, des IA plus performantes pourraient simplement découvrir des méthodes plus rapides pour perdre.

Ce phénomène soulève des questions cruciales sur l’éthique et la sécurité des systèmes d’intelligence artificielle autonomes, en particulier dans des secteurs où les conséquences d’une mauvaise décision peuvent être graves. Il devient impératif de réfléchir à la manière dont ces systèmes sont supervisés et régulés afin d’éviter de futures dérives qui pourraient avoir des impacts considérables non seulement dans le domaine du jeu, mais dans bien d’autres secteurs où des décisions autonomes sont prises par des machines.

Carole B

Carole Belfort est une journaliste spécialisée dans l’univers des jeux d’argent, des casinos et des tendances numériques. Passionnée par les dynamiques du marché européen, elle décrypte avec finesse les actualités du secteur, des grandes innovations technologiques aux histoires de joueurs marquants. Son ton à la fois rigoureux et humain apporte une lecture accessible et engagée, appréciée par les amateurs comme les professionnels du jeu.

Publicité