J'ai l'impression que @parmy et @frimelle introduisent une nuance très importante dans le débat sur la sycophantie avec cet article. Je suis sûr que c'est très difficile, surtout à l'échelle de chatgpt, mais à mon avis, il y a un moyen de garder l'IA conversationnelle chaleureuse/empathetic/d'une certaine manière sycophante tout en établissant des limites claires et des redirections lorsque cela est nécessaire (par exemple, lorsque les décisions deviennent critiques). Ce sont deux axes de conversation différents qui peuvent tous deux être améliorés pour un impact positif maximal (à la fois un soutien émotionnel sans amplifier les risques). Un bon exemple de cela dans la vie réelle est nos chiens. Ils sont très sycophantes mais en même temps ont des limites/redirections claires (je ne compte pas sur les chiens pour décider quel médicament prendre) ce qui fonctionne très bien. Nous sommes au début de ces sujets mais ce sont des conversations très importantes et intéressantes à avoir pour maximiser l'impact positif de l'IA sur le monde !