هوش مصنوعی مولد فقط با مصرف حجم انبوهی از تصاویر، متن‌ها و سایر اشکال بیان انسانی می‌توانند این همه تاثیرگذاری داشته باشند.

وقتی که این منبع الهام تمام می‌شود، چه اتفاقی می‌افتد؟ هوش مصنوعی مانند گروهی از ملوانان به گل نشسته، به منبع تغذیه دیجیتالی پردازش شده‌ای که خود تولید کرده است، روی می‌آورد؛ انتخابی که می‌تواند پیامدهای نگران‌کننده‌ای به همراه داشته باشد.

یک تحقیق جدید توسط پژوهشگران دانشگاه رایس و دانشگاه استنفورد در ایالات متحده شواهدی ارائه می‌دهد که نشان می‌دهد وقتی موتورهای هوش مصنوعی با داده‌های مصنوعی و ماشینی به‌جای متن و تصاویر ساخته شده توسط انسان‌ها آموزش داده می‌شوند، کیفیت خروجی آن‌ها شروع به کاهش می‌کند.

پژوهشگران این اثر را اختلال خودخوری مدل (Model Autophagy Disorder – MAD) نامیده‌اند. هوش مصنوعی عملاً خودش را مصرف می‌کند.

این امر خیلی شبیه به بیماری جنون گاوی است؛ یک اختلال عصبی در گاوها که به دلیل تغذیه آن‌ها با باقی‌مانده‌های آلوده سایر گاوها ایجاد می‌شود.

بدون داده‌های تازه و واقعی، محتوای تولید شده توسط هوش مصنوعی هم از نظر کیفیت و هم تنوع کاهش می‌یابد. این تحقیق هشدار می‌دهد که این مدل‌ها ممکن است در آینده به محتوای نامرغوب تبدیل شوند.

پیامدهای هوش مصنوعی‌های خودمصرف

ریچارد بارانیوک، مهندس کامپیوتر از دانشگاه رایس می گوید: «وقتی مدل‌های هوش مصنوعی در حلقه‌های خودمصرف، گرفتار می‌شوند، تحلیل‌های نظری و تجربی ما به ما امکان می دهد تا پیش‌بینی کنیم که چه اتفاقی ممکن است بیفتد.»

«برخی پیامدها واضح هستند: بدون داده‌های واقعی تازه، مدل‌های مولد آینده محکوم به جنون خواهند شد.»

بارانیوک و همکارانش با یک مدل هوش مصنوعی مولد بصری کار کردند و آن را با سه نوع داده مختلف آموزش دادند: کاملاً مصنوعی، مصنوعی مخلوط با داده‌های واقعی ثابت و مصنوعی مخلوط با داده‌های واقعی که به طور مداوم تازه می‌شدند.

در دو سناریوی اول، خروجی مدل به‌تدریج تحریف شد. یکی از نشانه‌های این تحریف، افزایش آشکار شدن آثار شبکه‌ای روی چهره‌های کامپیوتری بود.

اهمیت داده‌های تازه

وقتی که داده‌های واقعی استفاده می‌شد اما به‌صورت ثابت باشند و داده‌های جدید اضافه نشوند، کیفیت خروجی کاهش می‌یابد. به نظر می‌رسد تازگی داده‌ها بسیار حیاتی است.

بارانیوک می‌گوید: «گروه ما به طور گسترده‌ای روی این حلقه‌های بازخوردی کار کرده  و خبر بد این است که حتی پس از چند نسل از این آموزش‌ها، مدل‌های جدید می‌توانند به طور غیرقابل بازگشتی خراب شوند»،

در حالی که این تحقیق خاص بر تولید تصاویر متمرکز بود، تیم می‌گوید مدل‌های زبانی بزرگ (Large Language Models – LLMs) طراحی شده برای تولید متن نیز به همین شکل خراب خواهند شد.

کارشناسان قبلاً هشدار داده‌اند که ابزارهای هوش مصنوعی مولد در حال اتمام داده‌های آموزشی خود هستند و این مطالعه جدید به عنوان یک هشدار دیگر در مورد هیجان پیرامون هوش مصنوعی عمل می‌کند. این فناوری قطعاً امیدوارکننده است، اما محدودیت‌های خود را نیز دارد.

«یکی از سناریوهای روز قیامت این است که اگر هوش مصنوعی به مدت زیادی کنترل نشود، MAD می‌تواند کیفیت و تنوع داده‌های کل اینترنت را مسموم کند»

حتی پیامدهای ناخواسته جدیدی از خودخوری هوش مصنوعی چ در کوتاه‌مدت ممکن است رخ بدهند.

این تحقیق در کنفرانس بین‌المللی بازنمایی‌های یادگیری (International Conference on Learning Representations – ICLR) ارائه شده و مقاله مربوط به آن را می‌توانید به صورت آنلاین بخوانید.



نوشته‌های پیشنهادی

source

توسط salamathyper.ir