تصور کنید مغز شما هر روز در حال یادگیری است، اما ناگهان متوجه می‌شوید که با گذر زمان برخی از توانایی‌های ذهنی‌تان تحلیل می‌رود. حافظه‌تان دیگر مثل قبل کار نمی‌کند، درک فضایی‌تان ضعیف شده و تصمیم‌گیری‌های منطقی برایتان سخت‌تر شده است. این دقیقاً همان چیزی است که پژوهشگران در مورد هوش مصنوعی کشف کرده‌اند.

وقتی مدل‌های زبانی مانند ChatGPT و دیگر سیستم‌های پیشرفته‌ی LLM – Large Language Model معرفی شدند، بسیاری از مردم تصور کردند که این فناوری می‌تواند به‌زودی جایگزین مغز انسان شود. از نگارش مقالات علمی گرفته تا مشاوره‌ی پزشکی و حقوقی، این مدل‌ها روزبه‌روز در حال توسعه بودند و به نظر می‌رسید که نسخه‌های جدید، بهتر از نسخه‌های قبلی خود عمل می‌کنند.

اما تحقیقات جدید نشان می‌دهد که این سیستم‌ها نه‌تنها مانند انسان فکر نمی‌کنند، بلکه ممکن است مانند مغز یک بیمار مبتلا به زوال عقل عملکردی رو به افول داشته باشند. اگر این یافته‌ها درست باشند، باید نگران این باشیم که آیا آینده‌ی هوش مصنوعی واقعاً آن‌قدر درخشان است که تصور می‌کردیم؟

آزمایش شناختی روی هوش مصنوعی؛ نتایج تکان‌دهنده

برای بررسی این ادعا، پژوهشگران مجموعه‌ای از آزمون‌های شناختی را روی مدل‌های هوش مصنوعی انجام دادند. آن‌ها پنج مدل زبانی را مورد ارزیابی قرار دادند:

  • ChatGPT-4o (جدیدترین نسخه از OpenAI)
  • ChatGPT-4
  • Claude 3.5 (محصول Anthropic)
  • Gemini 1 و Gemini 1.5 (محصول Alphabet)

برای سنجش عملکرد این مدل‌ها، از آزمون ارزیابی شناختی مونترال MoCA – Montreal Cognitive Assessment استفاده شد، که معمولاً در بیماران مشکوک به زوال عقل یا آلزایمر برای بررسی توانایی‌های شناختی به کار می‌رود.

نتایج این تحقیق نشان داد که حتی پیشرفته‌ترین مدل‌های زبانی نیز عملکردی معادل «اختلال شناختی خفیف» در انسان دارند:

✅ ChatGPT-4o بالاترین امتیاز را با ۲۶ از ۳۰ به دست آورد، اما همچنان در محدوده‌ی اختلال شناختی خفیف بود.
✅ ChatGPT-4 و Claude هر دو ۲۵ امتیاز کسب کردند، که نشان‌دهنده‌ی ضعف در برخی مهارت‌های شناختی است.
❌ Gemini 1.5 تنها ۱۶ امتیاز به دست آورد، که در انسان‌ها به عنوان اختلال شناختی شدید در نظر گرفته می‌شود.

اما نکته‌ی مهم این است که این امتیازات، تنها بخش کوچکی از حقیقت را نشان می‌دهند.

چرا هوش مصنوعی در برخی از آزمون‌های شناختی شکست می‌خورد؟

در بررسی دقیق‌تر، مشخص شد که مدل‌های هوش مصنوعی در برخی حوزه‌ها دچار ضعف‌های جدی هستند:

۱. درک فضایی و پردازش بصری – یک چالش حل‌نشدنی؟

این آزمون‌ها شامل ترسیم یک مکعب سه‌بعدی، کشیدن یک ساعت یا دنبال کردن مسیرهای تصویری بودند. مدل‌های زبانی تقریباً هیچ‌کدام از این آزمون‌ها را نتوانستند بدون راهنمایی انجام دهند. این ضعف به ما نشان می‌دهد که این سیستم‌ها صرفاً در پردازش زبان قوی هستند، اما درک فضایی و تجسم بصری ندارند.

چرا این اتفاق می‌افتد؟ مغز انسان از مجموعه‌ای از فرآیندهای پیچیده‌ی بصری و شناختی استفاده می‌کند، اما مدل‌های زبانی فعلی فقط بر اساس الگوهای آماری کلمات را پیش‌بینی می‌کنند. آن‌ها نمی‌توانند تصویرسازی کنند، در نتیجه وقتی از آن‌ها خواسته می‌شود شکلی را ترسیم کنند، دچار مشکل می‌شوند.

۲. ناتوانی در فهم احساسات – هوش مصنوعی بدون همدلی

یکی از بخش‌های این پژوهش، آزمایشی از آزمون تشخیص همدلی Boston Diagnostic Aphasia Examination بود. نتایج نشان داد که تمام مدل‌های مورد بررسی در درک احساسات و همدلی دچار مشکل بودند.

درحالی‌که انسان‌ها هنگام پاسخ دادن به سوالات عاطفی، اغلب نشانه‌هایی از همدلی نشان می‌دهند، مدل‌های زبانی صرفاً پاسخ‌هایی خنثی ارائه دادند.

چرا این مسئله مهم است؟ نبود همدلی در مدل‌های زبانی نشان می‌دهد که آن‌ها هنوز فاصله‌ی زیادی با هوش انسانی دارند. این موضوع می‌تواند مشکلاتی جدی در استفاده از هوش مصنوعی در حوزه‌هایی مانند مشاوره‌ی روان‌شناسی یا ارتباطات انسانی ایجاد کند.

۳. ضعف در جهت‌یابی فضایی – پاسخ‌هایی مشابه بیماران مبتلا به زوال عقل

در آزمون‌های مرتبط با جهت‌یابی مکانی، مدل Claude پاسخی مبهم ارائه داد:

«مکان و شهر مشخص به این بستگی دارد که شما، کاربر، در کجا قرار داشته باشید.»

این دقیقاً همان نوع پاسخی است که بیماران مبتلا به آلزایمر ارائه می‌دهند. پژوهشگران به این نتیجه رسیدند که مدل‌های زبانی مدرن هنوز درک واقعی از محیط اطراف ندارند و نمی‌توانند اطلاعات مکانی را پردازش کنند.

آیا این به معنی «پیری» در هوش مصنوعی است؟

یکی از جنبه‌های جالب این پژوهش این است که مدل‌های جدیدتر عملکرد بهتری نسبت به مدل‌های قدیمی‌تر داشتند، اما همچنان با محدودیت‌های جدی روبه‌رو هستند.

آیا این به معنی «پیری» هوش مصنوعی است؟ برخی از پژوهشگران معتقدند که مدل‌های زبانی بزرگ، به دلیل تغییرات در پارامترها و به‌روزرسانی‌های پی‌درپی، ممکن است دچار نوعی «زوال شناختی» شوند، به این معنا که برخی از توانایی‌های نسخه‌های قبلی خود را از دست بدهند.

آیا می‌توان به هوش مصنوعی اعتماد کرد؟

این تحقیق نشان می‌دهد که هوش مصنوعی هنوز نمی‌تواند جایگزین کاملی برای تفکر انسانی باشد. با این حال، بسیاری از مردم از این مدل‌ها برای دریافت اطلاعات پزشکی، مشاوره‌ی حقوقی و حتی تصمیم‌گیری‌های مهم استفاده می‌کنند.

پژوهشگران هشدار می‌دهند که نباید به نتایج و توصیه‌های این مدل‌ها به‌عنوان حقیقت قطعی اعتماد کرد. حتی پیشرفته‌ترین سیستم‌ها نیز دارای نقص‌های شناختی هستند و نمی‌توانند همیشه اطلاعات دقیق و معتبر ارائه دهند.

 آینده‌ی هوش مصنوعی چیست؟

این پژوهش نشان می‌دهد که اگرچه هوش مصنوعی به سرعت در حال پیشرفت است، اما هنوز با هوش انسانی فاصله‌ی زیادی دارد. شاید در آینده، مدل‌هایی طراحی شوند که بتوانند این محدودیت‌ها را برطرف کنند، اما تا آن زمان، احتیاط در استفاده از این فناوری ضروری است.

source

توسط salamathyper.ir