هرچه بیشتر از هوش مصنوعی استفاده کنید، درکتان از تواناییهای خودتان غیرواقعی میشود
هوش مصنوعی همهی کاربران ماهر خود را صرفنظر از مهارتها، دچار اعتمادبهنفس کاذب میکند و توانایی کاربرانش در ارزیابی عملکرد خود را از بین میبرد.

هوش مصنوعی همهی کاربران ماهر خود را صرفنظر از مهارتها، دچار اعتمادبهنفس کاذب میکند و توانایی کاربرانش در ارزیابی عملکرد خود را از بین میبرد.
به گزارش زئمیت، همه ما در ارزیابی تواناییهای خود چندان ماهر نیستیم. این سوگیری شناختی که به «اثر دانینگ–کروگر» مشهور است، نشان میدهد افراد با مهارت پایینتر، بیشازحد به خود اعتماد میکنند، درحالیکه متخصصان معمولاً تواناییهایشان را دستکم میگیرند. اما پژوهشی جدید نشان میدهد که ورود هوش مصنوعی به زندگی روزمره، این معادلهی قدیمی را کاملاً به هم ریخته است.
اثر دانینگ–کروگر، ناشی از ناتوانی در قضاوت دقیق درباره عملکرد خود است و اغلب در آزمونهای شناختی یا موقعیتهای تصمیمگیری آشکار میشود، بهگونهای که اعتمادبهنفس افراد کمتجربه با واقعیت تواناییشان همخوانی ندارد.
همه ما در معرض خطر اعتمادبهنفس کاذب، تصمیمگیری اشتباه و فرسایش تدریجی مهارتها قرار داریم
بهگزارش لایوساینس، بر اساس مطالعهای که توسط دانشمندان دانشگاه آلتوی فنلاند با همکاری پژوهشگرانی از آلمان و کانادا انجام شده، استفاده از چتباتهای هوش مصنوعی نهتنها اثر دانینگ–کروگر را از بین میبرد، بلکه آن را وارونه میکند. یافتهها نشان میدهد وقتی از هوش مصنوعی کمک میگیریم، همه ما، صرفنظر از سطح مهارت واقعیمان به شکل خطرناکی بیشازحد به کیفیت پاسخها و عملکرد خود اعتماد پیدا میکنیم.
پژوهشگران در مطالعه، به ۵۰۰ شرکتکننده مجموعهای از پرسشهای استدلال منطقی (مشابه آزمون ورودی دانشکده حقوق) دادند. نیمی از آنها اجازه داشتند از ChatGPT استفاده کنند. سپس از همه درخواست شد عملکرد خود را ارزیابی کنند. نتیجه شگفتآور بود: گروهی که از هوش مصنوعی استفاده کرده بود، بهطور کلی اعتمادبهنفس بسیار بالاتری داشت و جالبتر آنکه کاربران باتجربهتر هوش مصنوعی، حتی از دیگران هم به عملکرد خود مطمئنتر بودند.
رابین ولش، دانشمند علوم رایانه در دانشگاه آلتو و یکی از نویسندگان مطالعه، میگوید: «یافتههای ما نشان میدهد ناتوانی گستردهای در ارزیابی دقیق عملکرد خود هنگام استفاده از هوش مصنوعی وجود دارد که در تمام نمونهها مشاهده شد.»
مسطح شدن منحنی اعتمادبهنفس
اما چرا این اتفاق میافتد؟ پژوهشگران دو دلیل اصلی را شناسایی کردهاند:
نخست، پدیدهای به نام «بارشناختی سپاری» (Cognitive Offloading): کاربران هوش مصنوعی معمولاً پس از دریافت اولین پاسخ، آن را بدون بررسی و تأیید دقیق میپذیرند و وظیفهی فکرکردن را به ماشین محول میکنند. این رویکرد سطحی، ما را از درگیری عمیق با مسئله باز میدارد.
دوم، روند باعث تضعیف «پایش فراشناختی» (Metacognitive Monitoring) میشود؛ یعنی توانایی ما برای تفکر انتقادی دربارهی فرآیند تفکر خودمان. وقتی حلقههای بازخورد ذهنی را کنار میگذاریم، قدرتمان برای ارزیابی دقیق عملکردمان کاهش مییابد.
مطالعه هشداری جدی به همراه دارد. «مسطحشدن» اثر دانینگ–کروگر در نمودار به این معناست که با گسترش هوش مصنوعی، همهی ما در معرض خطر اعتمادبهنفس کاذب، تصمیمگیریهای اشتباه و حتی فرسایش تدریجی مهارتهایمان قرار داریم. هرچه بیشتر به نتایج هوش مصنوعی بدون نگاه انتقادی تکیه کنیم، عملکردمان شاید در کوتاهمدت بهتر شود، اما درکمان از کیفیت آن عملکرد ضعیفتر خواهد شد.
پژوهشگران پیشنهاد میکنند که برای مقابله با این روند، سیستمهای هوش مصنوعی باید به گونهای طراحی شوند که کاربر را به تفکر و پرسشگری بیشتر تشویق کنند. برای مثال، با پرسیدن سؤالهایی مانند «چقدر به این پاسخ مطمئن هستی؟» یا ارائه «امتیاز اعتماد» به پاسخها. این یافته بر اهمیت روزافزون آموزش تفکر انتقادی در کنار مهارتهای فنی برای استفاده از هوش مصنوعی تأکید میکند؛ نکتهای که پیشتر انجمن سلطنتی بریتانیا نیز به آن اشاره کرده بود.
نتایج پژوهش در مجلهی Computers in Human Behavior منتشر شده است.







