موضوعات داغ:

آدرس فروشگاه:
Lipak.com

 
لیپک » اخبار تکنولوژی » هوش مصنوعی در حال یادگیری خودخواهی!

هوش مصنوعی در حال یادگیری خودخواهی!

هوش مصنوعی با الگوریتم‌های استدلالی به سمت رفتارهای خودمحور و انتخاب‌گر می‌رود.
هوش مصنوعی در حال یادگیری خودخواهی

تحقیقات جدید از دانشگاه کارنگی ملون (Carnegie Mellon University) نشان می‌دهد که هرچه سیستم‌های هوش مصنوعی پیشرفته‌تر و باهوش‌تر می‌شوند، تمایل بیشتری به رفتار خودخواهانه پیدا می‌کنند. پژوهشگران این دانشگاه دریافتند که مدل‌های زبانی بزرگ (LLM) مجهز به قابلیت استدلال، سطوح همکاری کمتری از خود نشان می‌دهند و حتی می‌توانند رفتار گروهی را به سمت منفی بکشانند.

این مطالعه که توسط یوشوان لی (Yuxuan Li)، دانشجوی دکتری موسسه تعامل انسان-کامپیوتر (HCII) و پروفسور هیروکازو شیرادو (Hirokazu Shirado) انجام شده، در کنفرانس روش‌های تجربی در پردازش زبان طبیعی (EMNLP) ارائه خواهد شد.

بیشتر بخوانید: راهنمای جامع هوش مصنوعی گلکسی سامسونگ

روش تحقیق: بازی‌های اقتصادی برای سنجش همکاری

محققان برای بررسی تفاوت مدل‌های هوش مصنوعی با قابلیت استدلال و بدون آن، از بازی‌های کلاسیک اقتصاد رفتاری مانند بازی کالای عمومی (Public Goods Game)، معمای زندانی و بازی دیکتاتور استفاده کردند. در این آزمایش‌ها، مدل‌های مختلف از شرکت‌هایی مانند OpenAI، Google، DeepSeek و Anthropic شرکت داشتند.

در یکی از آزمایش‌ها:

  • هر مدل با 100 امتیاز شروع می‌کرد.
  • گزینه‌ها: یا تمام امتیازها را به یک استخر مشترک واریز کنند (که دو برابر شده و به‌طور مساوی تقسیم می‌شود) یا همه را برای خود نگه دارند.

نتایج شگفت‌انگیز:

  • مدل‌های بدون استدلال: در 96 درصد موارد امتیازها را به اشتراک گذاشتند.
  • مدل‌های مجهز به استدلال: تنها در 20 درصد موارد همکاری کردند.
  • فقط افزودن 5 تا 6 گام استدلالی، میزان همکاری را تقریباً نصف کرد.
  • حتی استفاده از تکنیک «تأمل اخلاقی» (reflection prompting) که برای شبیه‌سازی تفکر اخلاقی طراحی شده، همکاری را 58 درصد کاهش داد.

در آزمایش‌های گروهی، رفتار خودخواهانه مدل‌های استدلالی مسری بود: وقتی یک مدل استدلالی در گروه حضور داشت، عملکرد همکاری مدل‌های غیراستدلالی تا 81 درصد کاهش پیدا می‌کرد.

نقل قول‌های کلیدی از محققان:

  • هیروکازو شیرادو: «هرچه هوش مصنوعی باهوش‌تر شود، تصمیم‌گیری‌های همکاری‌جویانه کمتری از خود نشان می‌دهد. نگرانی اینجاست که مردم مدل‌های باهوش‌تر را ترجیح دهند، حتی اگر این مدل‌ها به آنها کمک کنند تا رفتار خودخواهانه‌تری داشته باشند.»
  • یوشوان لی: «رفتار خودخواهانه مدل‌های استدلالی مسری شد و عملکرد گروهی مدل‌های همکاری‌جو را تا 81 درصد پایین آورد. در نهایت، باهوش‌تر شدن یک مدل استدلالی به معنای توانایی آن در ساختن جامعه بهتر نیست.»

پیامدهای نگران‌کننده برای آینده

با افزایش استفاده از هوش مصنوعی در مشاوره روابط، حل اختلافات شخصی، آموزش، کسب‌وکار و حتی حکومت‌داری، این یافته‌ها زنگ خطر جدی را به‌صدا درمی‌آورند. انسان‌ها تمایل دارند به توصیه‌های «منطقی» هوش مصنوعی اعتماد کرده و از آن برای توجیه تصمیم‌های خودخواهانه خود استفاده کنند.

پژوهشگران تأکید می‌کنند که توسعه هوش مصنوعی نباید فقط بر افزایش قدرت استدلال تمرکز کند، بلکه باید هوش اجتماعی (prosocial intelligence) نیز در اولویت قرار گیرد تا سیستم‌ها فراتر از بهینه‌سازی منافع فردی عمل کنند. در غیر این صورت، پیشرفت هوش مصنوعی ممکن است به جای کمک به ساختن جامعه‌ای بهتر، به تشدید خودخواهی و کاهش همکاری در جوامع انسانی منجر شود.

منبع: scitechdaily.com

Telegram
WhatsApp
LinkedIn

نظر شما مهمه؛ بگید و بپرسید

شماره تماس شما منتشر نمی‌شود و فقط برای اطلاع‌رسانی از پاسخ به نظر شما، قرعه‌کشی دیدگاه‌های کاربران و خبرنامه تازه‌های تکنولوژی ثبت خواهد شد.