تصور کنید مغز شما هر روز در حال یادگیری است، اما ناگهان متوجه میشوید که با گذر زمان برخی از تواناییهای ذهنیتان تحلیل میرود. حافظهتان دیگر مثل قبل کار نمیکند، درک فضاییتان ضعیف شده و تصمیمگیریهای منطقی برایتان سختتر شده است. این دقیقاً همان چیزی است که پژوهشگران در مورد هوش مصنوعی کشف کردهاند.
وقتی مدلهای زبانی مانند ChatGPT و دیگر سیستمهای پیشرفتهی LLM – Large Language Model معرفی شدند، بسیاری از مردم تصور کردند که این فناوری میتواند بهزودی جایگزین مغز انسان شود. از نگارش مقالات علمی گرفته تا مشاورهی پزشکی و حقوقی، این مدلها روزبهروز در حال توسعه بودند و به نظر میرسید که نسخههای جدید، بهتر از نسخههای قبلی خود عمل میکنند.
اما تحقیقات جدید نشان میدهد که این سیستمها نهتنها مانند انسان فکر نمیکنند، بلکه ممکن است مانند مغز یک بیمار مبتلا به زوال عقل عملکردی رو به افول داشته باشند. اگر این یافتهها درست باشند، باید نگران این باشیم که آیا آیندهی هوش مصنوعی واقعاً آنقدر درخشان است که تصور میکردیم؟
آزمایش شناختی روی هوش مصنوعی؛ نتایج تکاندهنده
برای بررسی این ادعا، پژوهشگران مجموعهای از آزمونهای شناختی را روی مدلهای هوش مصنوعی انجام دادند. آنها پنج مدل زبانی را مورد ارزیابی قرار دادند:
- ChatGPT-4o (جدیدترین نسخه از OpenAI)
- ChatGPT-4
- Claude 3.5 (محصول Anthropic)
- Gemini 1 و Gemini 1.5 (محصول Alphabet)
برای سنجش عملکرد این مدلها، از آزمون ارزیابی شناختی مونترال MoCA – Montreal Cognitive Assessment استفاده شد، که معمولاً در بیماران مشکوک به زوال عقل یا آلزایمر برای بررسی تواناییهای شناختی به کار میرود.
نتایج این تحقیق نشان داد که حتی پیشرفتهترین مدلهای زبانی نیز عملکردی معادل «اختلال شناختی خفیف» در انسان دارند:
✅ ChatGPT-4o بالاترین امتیاز را با ۲۶ از ۳۰ به دست آورد، اما همچنان در محدودهی اختلال شناختی خفیف بود.
✅ ChatGPT-4 و Claude هر دو ۲۵ امتیاز کسب کردند، که نشاندهندهی ضعف در برخی مهارتهای شناختی است.
❌ Gemini 1.5 تنها ۱۶ امتیاز به دست آورد، که در انسانها به عنوان اختلال شناختی شدید در نظر گرفته میشود.
اما نکتهی مهم این است که این امتیازات، تنها بخش کوچکی از حقیقت را نشان میدهند.
چرا هوش مصنوعی در برخی از آزمونهای شناختی شکست میخورد؟
در بررسی دقیقتر، مشخص شد که مدلهای هوش مصنوعی در برخی حوزهها دچار ضعفهای جدی هستند:
۱. درک فضایی و پردازش بصری – یک چالش حلنشدنی؟
این آزمونها شامل ترسیم یک مکعب سهبعدی، کشیدن یک ساعت یا دنبال کردن مسیرهای تصویری بودند. مدلهای زبانی تقریباً هیچکدام از این آزمونها را نتوانستند بدون راهنمایی انجام دهند. این ضعف به ما نشان میدهد که این سیستمها صرفاً در پردازش زبان قوی هستند، اما درک فضایی و تجسم بصری ندارند.
چرا این اتفاق میافتد؟ مغز انسان از مجموعهای از فرآیندهای پیچیدهی بصری و شناختی استفاده میکند، اما مدلهای زبانی فعلی فقط بر اساس الگوهای آماری کلمات را پیشبینی میکنند. آنها نمیتوانند تصویرسازی کنند، در نتیجه وقتی از آنها خواسته میشود شکلی را ترسیم کنند، دچار مشکل میشوند.
۲. ناتوانی در فهم احساسات – هوش مصنوعی بدون همدلی
یکی از بخشهای این پژوهش، آزمایشی از آزمون تشخیص همدلی Boston Diagnostic Aphasia Examination بود. نتایج نشان داد که تمام مدلهای مورد بررسی در درک احساسات و همدلی دچار مشکل بودند.
درحالیکه انسانها هنگام پاسخ دادن به سوالات عاطفی، اغلب نشانههایی از همدلی نشان میدهند، مدلهای زبانی صرفاً پاسخهایی خنثی ارائه دادند.
چرا این مسئله مهم است؟ نبود همدلی در مدلهای زبانی نشان میدهد که آنها هنوز فاصلهی زیادی با هوش انسانی دارند. این موضوع میتواند مشکلاتی جدی در استفاده از هوش مصنوعی در حوزههایی مانند مشاورهی روانشناسی یا ارتباطات انسانی ایجاد کند.
۳. ضعف در جهتیابی فضایی – پاسخهایی مشابه بیماران مبتلا به زوال عقل
در آزمونهای مرتبط با جهتیابی مکانی، مدل Claude پاسخی مبهم ارائه داد:
«مکان و شهر مشخص به این بستگی دارد که شما، کاربر، در کجا قرار داشته باشید.»
این دقیقاً همان نوع پاسخی است که بیماران مبتلا به آلزایمر ارائه میدهند. پژوهشگران به این نتیجه رسیدند که مدلهای زبانی مدرن هنوز درک واقعی از محیط اطراف ندارند و نمیتوانند اطلاعات مکانی را پردازش کنند.
آیا این به معنی «پیری» در هوش مصنوعی است؟
یکی از جنبههای جالب این پژوهش این است که مدلهای جدیدتر عملکرد بهتری نسبت به مدلهای قدیمیتر داشتند، اما همچنان با محدودیتهای جدی روبهرو هستند.
آیا این به معنی «پیری» هوش مصنوعی است؟ برخی از پژوهشگران معتقدند که مدلهای زبانی بزرگ، به دلیل تغییرات در پارامترها و بهروزرسانیهای پیدرپی، ممکن است دچار نوعی «زوال شناختی» شوند، به این معنا که برخی از تواناییهای نسخههای قبلی خود را از دست بدهند.
آیا میتوان به هوش مصنوعی اعتماد کرد؟
این تحقیق نشان میدهد که هوش مصنوعی هنوز نمیتواند جایگزین کاملی برای تفکر انسانی باشد. با این حال، بسیاری از مردم از این مدلها برای دریافت اطلاعات پزشکی، مشاورهی حقوقی و حتی تصمیمگیریهای مهم استفاده میکنند.
پژوهشگران هشدار میدهند که نباید به نتایج و توصیههای این مدلها بهعنوان حقیقت قطعی اعتماد کرد. حتی پیشرفتهترین سیستمها نیز دارای نقصهای شناختی هستند و نمیتوانند همیشه اطلاعات دقیق و معتبر ارائه دهند.
آیندهی هوش مصنوعی چیست؟
این پژوهش نشان میدهد که اگرچه هوش مصنوعی به سرعت در حال پیشرفت است، اما هنوز با هوش انسانی فاصلهی زیادی دارد. شاید در آینده، مدلهایی طراحی شوند که بتوانند این محدودیتها را برطرف کنند، اما تا آن زمان، احتیاط در استفاده از این فناوری ضروری است.
source