تحقیقات جدید از دانشگاه کارنگی ملون (Carnegie Mellon University) نشان میدهد که هرچه سیستمهای هوش مصنوعی پیشرفتهتر و باهوشتر میشوند، تمایل بیشتری به رفتار خودخواهانه پیدا میکنند. پژوهشگران این دانشگاه دریافتند که مدلهای زبانی بزرگ (LLM) مجهز به قابلیت استدلال، سطوح همکاری کمتری از خود نشان میدهند و حتی میتوانند رفتار گروهی را به سمت منفی بکشانند.
این مطالعه که توسط یوشوان لی (Yuxuan Li)، دانشجوی دکتری موسسه تعامل انسان-کامپیوتر (HCII) و پروفسور هیروکازو شیرادو (Hirokazu Shirado) انجام شده، در کنفرانس روشهای تجربی در پردازش زبان طبیعی (EMNLP) ارائه خواهد شد.
بیشتر بخوانید: راهنمای جامع هوش مصنوعی گلکسی سامسونگ
آنچه در این مقاله میخوانید:
Toggleروش تحقیق: بازیهای اقتصادی برای سنجش همکاری
محققان برای بررسی تفاوت مدلهای هوش مصنوعی با قابلیت استدلال و بدون آن، از بازیهای کلاسیک اقتصاد رفتاری مانند بازی کالای عمومی (Public Goods Game)، معمای زندانی و بازی دیکتاتور استفاده کردند. در این آزمایشها، مدلهای مختلف از شرکتهایی مانند OpenAI، Google، DeepSeek و Anthropic شرکت داشتند.
در یکی از آزمایشها:
- هر مدل با 100 امتیاز شروع میکرد.
- گزینهها: یا تمام امتیازها را به یک استخر مشترک واریز کنند (که دو برابر شده و بهطور مساوی تقسیم میشود) یا همه را برای خود نگه دارند.
نتایج شگفتانگیز:
- مدلهای بدون استدلال: در 96 درصد موارد امتیازها را به اشتراک گذاشتند.
- مدلهای مجهز به استدلال: تنها در 20 درصد موارد همکاری کردند.
- فقط افزودن 5 تا 6 گام استدلالی، میزان همکاری را تقریباً نصف کرد.
- حتی استفاده از تکنیک «تأمل اخلاقی» (reflection prompting) که برای شبیهسازی تفکر اخلاقی طراحی شده، همکاری را 58 درصد کاهش داد.
در آزمایشهای گروهی، رفتار خودخواهانه مدلهای استدلالی مسری بود: وقتی یک مدل استدلالی در گروه حضور داشت، عملکرد همکاری مدلهای غیراستدلالی تا 81 درصد کاهش پیدا میکرد.
نقل قولهای کلیدی از محققان:
- هیروکازو شیرادو: «هرچه هوش مصنوعی باهوشتر شود، تصمیمگیریهای همکاریجویانه کمتری از خود نشان میدهد. نگرانی اینجاست که مردم مدلهای باهوشتر را ترجیح دهند، حتی اگر این مدلها به آنها کمک کنند تا رفتار خودخواهانهتری داشته باشند.»
- یوشوان لی: «رفتار خودخواهانه مدلهای استدلالی مسری شد و عملکرد گروهی مدلهای همکاریجو را تا 81 درصد پایین آورد. در نهایت، باهوشتر شدن یک مدل استدلالی به معنای توانایی آن در ساختن جامعه بهتر نیست.»
پیامدهای نگرانکننده برای آینده
با افزایش استفاده از هوش مصنوعی در مشاوره روابط، حل اختلافات شخصی، آموزش، کسبوکار و حتی حکومتداری، این یافتهها زنگ خطر جدی را بهصدا درمیآورند. انسانها تمایل دارند به توصیههای «منطقی» هوش مصنوعی اعتماد کرده و از آن برای توجیه تصمیمهای خودخواهانه خود استفاده کنند.
پژوهشگران تأکید میکنند که توسعه هوش مصنوعی نباید فقط بر افزایش قدرت استدلال تمرکز کند، بلکه باید هوش اجتماعی (prosocial intelligence) نیز در اولویت قرار گیرد تا سیستمها فراتر از بهینهسازی منافع فردی عمل کنند. در غیر این صورت، پیشرفت هوش مصنوعی ممکن است به جای کمک به ساختن جامعهای بهتر، به تشدید خودخواهی و کاهش همکاری در جوامع انسانی منجر شود.
منبع: scitechdaily.com












