تکنولوژی

از اطمینان بیش‌از حد تا سوگیری؛ چت جی‌پی‌تی نیز در دام خطاهای انسانی می‌افتد

در پژوهش، سوگیری‌های انسانی شناخته‌شده‌ای مانند اجتناب از ریسک، اعتمادبه‌نفس بیش از حد و اثر مالکیت (اینکه برای چیزهایی که صاحبشان هستیم ارزش بیشتری قائل می‌شویم) در قالب سوالاتی به چت‌جی‌پی‌تی داده شدند تا مشخص شود که آیا هوش مصنوعی هم در همان دام‌هایی می‌افتد که انسان‌ها گرفتارشان می‌شوند یا نه.

تصمیم‌های منطقی، اما گاهی اوقات

دانشمندان از مدل‌های زبانی بزرگ سوالاتی فرضی برگرفته از روان‌شناسی سنتی در زمینه‌هایی با کاربرد تجاری در دنیای واقعی، مثل مدیریت موجودی انبار یا مذاکرات با تأمین‌کنندگان پرسیدند. آن‌ها نه‌تنها می‌خواستند بدانند هوش مصنوعی از سوگیری‌های انسانی تقلید می‌کند، بلکه بررسی کردند آیا حتی در صورت مطرح‌کردن پرسش‌هایی از حوزه‌های مختلف کسب و کار، این رفتار را تکرار می‌کند یا خیر.

بیشتر بخوانید:

هوش مصنوعی GPT-4 در پاسخ‌گویی به مسائلی با راه‌حل‌های ریاضی واضح، عملکرد بهتری نسبت به GPT-3.5 داشت و اشتباهات کمتری در سناریوهای مبتنی بر احتمال و منطق نشان داد؛ اما در شبیه‌سازی‌های ذهنی و سلیقه‌ای، مانند انتخاب گزینه‌ای پرریسک برای رسیدن به سود، این چت‌بات اغلب گرایش‌های غیرمنطقی مشابه انسان‌ها را از خود نشان داد. پژوهشگران در مقاله با اشاره به گرایش هوش مصنوعی برای انتخاب نتیجه‌های ایمن‌تر و پیش‌بینی‌پذیر‌تر هنگام روبه‌رو شدن با وظایف مبهم، نوشتند: «GPT-4 حتی بیشتر از انسان‌ها به قطعیت تمایل دارد.»

مهم‌تر از آن، چه در شرایطی که پرسش‌ها به شکل مسئله‌های روان‌شناختی انتزاعی مطرح شده بود و چه به صورت فرآیندهای عملیاتی کسب و کار، شرایط چت‌بات‌ها ثابت ماند. این پژوهش نتیجه‌گیری کرد که سوگیری‌های مشاهده‌شده صرفاً محصول مثال‌های حفظ‌شده نیستند، بلکه بخشی از منطق استدلالی AI را تشکیل می‌دهند. یکی از نتایج شگفت‌انگیز این تحقیق، روشی بود که GPT-4 گاهی اوقات با آن خطاهای شبیه انسان را تقویت می‌کرد. نویسندگان نوشتند:

در وظیفه‌ی سوگیری تأییدی، GPT-4 همیشه پاسخ‌های دارای سوگیری ارائه می‌داد همچنین تمایل بیشتری به توهم دست داغ (سوگیری انتظار دیدن الگو در داده‌های تصادفی) نسبت به GPT-3.5 نشان داد.

در مقابل، چت‌جی‌پی‌تی موفق شد از برخی سوگیری‌های رایج انسانی از جمله غفلت از نرخ پایه (که در آن اطلاعات آماری را به نفع شواهد موردی نادیده می‌گیریم) و مغالطه هزینه‌ی هدررفته (که تصمیم‌گیری را بر اساس هزینه‌ای که قبلاً انجام شده تحت تأثیر قرار می‌دهد و باعث می‌شود اطلاعات نامربوط بر قضاوت اثر بگذارد) اجتناب کند.

سوگیری‌های چت‌جی‌پی‌تی از داده‌های آموزشی سرچشمه می‌گیرند

به گفته‌ی نویسندگان، سوگیری‌های شبیه انسان در چت‌جی‌پی‌تی از داده‌های آموزشی نشأت می‌گیرد که خود شامل سوگیری‌ها و میان‌برهای ذهنی انسانی است. این گرایش‌ها در مرحله‌ی تنظیم دقیق (fine-tuning) تقویت می‌شوند؛ به‌ویژه زمانی که بازخورد انسانی، پاسخ‌های قابل‌قبول و طبیعی را به پاسخ‌های کاملاً منطقی ترجیح می‌دهد. وقتی هوش مصنوعی با وظایف مبهم‌تر مواجه می‌شود، بیشتر به الگوهای استدلال انسانی تمایل پیدا می‌کند تا منطق صِرف. چن گفت: «اگر به دنبال پشتیبانی تصمیم‌گیری دقیق و بدون سوگیری هستید، از GPT در حوزه‌هایی استفاده کنید که در آن به یک ماشین‌حساب اعتماد دارید.»

وقتی نتیجه به ورودی‌های ذهنی یا استراتژیک بستگی دارد، نظارت انسانی اهمیت بیشتری پیدا می‌کند، حتی اگر فقط برای اصلاح سوگیری‌ها در ورودی‌ها باشد. مینا اندی‌اپان، دانشیار منابع انسانی و مدیریت در دانشگاه مک‌مستر کانادا و یکی از نویسندگان پژوهش، در بیانیه‌ای گفت:

هوش مصنوعی  باید مثل یک کارمند تلقی شود که تصمیمات مهمی می‌گیرد و نیازمند نظارت و دستورالعمل‌های اخلاقی است. در غیر این صورت، به‌جای بهبود تفکر، تفکر معیوب را خودکارسازی می‌کنیم.

مطالعه در مجله Manufacturing & Service Operations Management منتشر شده است.

تیم تحریریه ایگرام

تیم تحریریه ایگرام با تجربه سال‌ها فعالیت حرفه‌ای در حوزه‌هایی مانند اقتصاد دیجیتال، فناوری، کسب‌وکار، گردشگری و هنر، محتوایی دقیق، به‌روز و قابل اعتماد تولید می‌کند. ما با همکاری کارشناسان سئو و رعایت اصول روزنامه‌نگاری مدرن، هزاران مقاله علمی و خبری منتشر کرده‌ایم تا نیازهای اطلاعاتی مخاطبان را به بهترین شکل پاسخ دهیم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا