کد QR مطلبدریافت صفحه با کد QR

آیا هوش مصنوعی شبیه انسان فکر می‌کند

the decoder , 24 ارديبهشت 1404 ساعت 12:13

پژوهشی جدید از دانشگاه‌های هاروارد، براون و توبینگن نشان می‌دهد که نحوه پردازش اطلاعات در مدل‌های هوش مصنوعی شباهت قابل‌توجهی به شیوه تفکر انسان دارد. این پژوهش که بر روی برخی مدل‌های معروف هوش مصنوعی انجام شده، نشان می‌دهد که هوش مصنوعی نه فقط در نتایج نهایی، بلکه در فرآیند رسیدن به آن نتایج نیز شبیه انسان‌ها عمل می‌کند.


پژوهشی جدید از دانشگاه‌های هاروارد، براون و توبینگن نشان می‌دهد که نحوه پردازش اطلاعات در مدل‌های هوش مصنوعی شباهت قابل‌توجهی به شیوه تفکر انسان دارد. این پژوهش که بر روی برخی مدل‌های معروف هوش مصنوعی انجام شده، نشان می‌دهد که هوش مصنوعی نه فقط در نتایج نهایی، بلکه در فرآیند رسیدن به آن نتایج نیز شبیه انسان‌ها عمل می‌کند.
 
به گزارش افتانا، مدل‌های ترنسفورمر مانندGPT  وVision Transformers (ViT)  در تولید پاسخ‌های مشابه انسان بسیار خوب عمل می‌کنند. اما محققانی از دانشگاه‌های هاروارد، براون و توبینگن تصمیم گرفتند پا را فراتر بگذارند و بررسی کنند که آیا محاسبات درونی این مدل‌ها شبیه نحوه پردازش زبان و تصویر در مغز انسان به‌صورت لحظه‌ای است یا خیر. در این مطالعه، به جای تمرکز صرف بر خروجی نهایی مدل، پژوهشگران بررسی کردند که چگونه پیش‌بینی‌های داخلی مدل در طول یک عبور رو به جلو (forward pass) در شبکه عصبی تغییر می‌کند.
 
در یک عبور رو به جلو، داده‌ها لایه به لایه در مدل حرکت می‌کنند تا به خروجی برسند. محققان بررسی کردند که چگونه سیگنال‌های درونی مدل (مانند میزان اطمینان به پاسخ‌های مختلف) در طول این فرآیند تغییر می‌کند و آیا این روند شبیه رفتارهای انسانی است یا خیر.
 
برای این مقایسه، آن‌ها چندین «معیار پردازشی» (Process Metrics) از فعالیت لایه به لایه مدل استخراج کردند، مانند:
- عدم قطعیت  (entropy)
- اعتماد به پاسخ درست
- تفاوت بین پاسخ درست و پاسخ شهودی اما اشتباه
- تقویت پاسخ درست در برابر پاسخ شهودی
این معیارها در سه حالت بررسی شدند: مقدار نهایی در آخرین لایه، میانگین در طول همه لایه‌ها  (AUC)، و نقطه‌ای که بیشترین تغییر بین لایه‌ها رخ می‌دهد(Max-delta)  سپس از این داده‌ها برای پیش‌بینی رفتار انسانی استفاده شد.
 
آزمایش‌ها در پنج زمینه مختلف
پژوهشگران عملکرد مدل‌های هوش مصنوعی را در پنج نوع وظیفه مختلف بررسی کردند:
یادآوری اطلاعات عمومی (مثلاً نام پایتخت‌ها): مدل‌ها هم مثل انسان ابتدا به پاسخ‌های شهودی اما اشتباه گرایش داشتند، اما در مراحل بعدی پاسخ صحیح را پیدا می‌کردند.
تشخیص بین گزینه‌ها: مدل‌ها مثل انسان‌ها زمان بیشتری برای تصمیم‌گیری‌های دشوار صرف می‌کردند.
طبقه‌بندی مفهومی با ماوس: مسیر حرکت ماوس انسان‌ها شباهت زیادی به مسیر «تصمیم‌گیری» مدل‌ها در طول لایه‌های پردازشی داشت.
استدلال منطقی: هم انسان‌ها و هم مدل‌ها گاهی بر اساس باورهایشان پاسخ می‌دادند، نه منطق.
تشخیص تصویر در شرایط جدید: مدل‌های بینایی هم مشابه انسان‌ها در مواجهه با تصاویر ناشناخته دچار تردید می‌شدند.
 
در هر پنج مطالعه، نتایج نشان داد که فقط خروجی درست مهم نیست، روش پردازش هم اهمیت دارد. معیارهای پردازشی برگرفته از دینامیک لایه‌-زمانی توانستند به شکل معنی‌داری پیش‌بینی بهتری از رفتار انسانی ارائه دهند؛ نه فقط از نظر دقت، بلکه در معیارهایی مثل بار شناختی، زمان واکنش و میزان تردید. این یعنی محرک‌هایی که برای مدل «سخت‌تر» هستند و نیاز به پردازش لایه‌به‌لایه بیشتری دارند، برای انسان‌ها هم دشوارتر هستند و باعث واکنش کندتر یا خطاهای بیشتر می‌شوند.
 
افق جدیدی برای تبیین‌پذیری و شناخت انسان
این مطالعه نشان می‌دهد که مدل‌های هوش مصنوعی فقط شبیه انسان‌ها پاسخ نمی‌دهند، بلکه گاهی شبیه آن‌ها فکر می‌کنند. اطلاعاتی که مدل در مسیر رسیدن به پاسخ نهایی تولید می‌کند، می‌تواند بازتابی از روندهای ذهنی انسان باشد؛ از تردید و اشتباه گرفته تا اصلاح و اطمینان.

این یافته‌ها می‌توانند به فهم بهتر مغز انسان کمک کنند و در عین حال، باعث شوند هوش مصنوعی در آینده رفتاری انسانی‌تر، قابل‌پیش‌بینی‌تر و تبیین‌پذیرتر داشته باشد.

البته پژوهشگران تاکید دارند که این مطالعه فقط روی مدل‌هایی خاص و از پیش آموزش‌دیده مانند LLaMA-2 و ViT اجرا شده و قابل تعمیم به همه معماری‌ها یا مدل‌های تنظیم‌شده نیست؛ اما پایه‌ای است برای پرسش‌ها و مطالعات آینده.
 
 


کد مطلب: 22813

آدرس مطلب :
https://www.aftana.ir/article/22813/آیا-هوش-مصنوعی-شبیه-انسان-فکر-می-کند

افتانا
  https://www.aftana.ir