Une récente étude met en garde contre la dépendance excessive à ChatGPT et aux autres intelligences artificielles, expliquant que cela pourrait nuire aux facultés cognitives. Les chercheurs de Carnegie Mellon University et Microsoft estiment que l’IA affaiblit la capacité à penser de manière critique.
Il y a un an, une étude de l’Université de Monterrey alertait sur un danger grandissant : la dépendance à l’IA réduirait l’intelligence humaine. L’étude montrait que l’utilisation de l’intelligence artificielle pour des tâches quotidiennes pourrait progressivement détériorer les capacités cognitives. Aujourd’hui, une nouvelle étude de Carnegie Mellon et Microsoft pousse le constat encore plus loin : l’usage excessif de l’IA générative pourrait gravement nuire au fonctionnement cognitif.
Comme le souligne JeuxVideo, une confiance aveugle en l’IA semble être liée à un déclin de la pensée critique, ce qui pourrait entraîner une dépendance néfaste. Ceux qui acceptent les réponses de l’IA sans les remettre en question risquent de perdre leur autonomie dans la résolution des problèmes. Si certains vérifient encore les résultats de l’IA, beaucoup les considèrent comme des vérités absolues. Cette tendance contribue, selon l’étude, à un affaiblissement des capacités de raisonnement critique.
L’automatisation nous rend-elle moins compétents ?
Selon le portail français, les utilisateurs qui ne disposent pas des connaissances adéquates peuvent accepter des réponses erronées sans savoir comment les corriger. Une dépendance excessive à l’IA sans remise en question de ses résultats peut non seulement affaiblir le jugement, mais aussi rendre les individus totalement inadaptés face aux situations exceptionnelles. De plus, la même étude souligne que laisser l’IA exécuter des tâches routinières sans intervention humaine est extrêmement risqué, car cela réduit la capacité des utilisateurs à prendre des décisions lorsqu’ils sont confrontés à des cas imprévus.
Les chercheurs recommandent donc d’utiliser l’IA de manière à encourager le raisonnement et la prise de décision, plutôt que d’encourager une dépendance passive. Des solutions comme retarder l’affichage des réponses ou encourager une interaction plus active avec l’IA pourraient aider à limiter l’abus de ces technologies. La question cruciale reste cependant de savoir si les entreprises développant l’IA accepteraient d’adopter de telles stratégies, sachant que réduire la dépendance des utilisateurs va directement à l’encontre de leurs intérêts économiques. Il est donc probable que beaucoup d’entre elles rejettent ces mesures.
Source : 3djuegos