هوش مصنوعی مولد فقط با مصرف حجم انبوهی از تصاویر، متنها و سایر اشکال بیان انسانی میتوانند این همه تاثیرگذاری داشته باشند.
وقتی که این منبع الهام تمام میشود، چه اتفاقی میافتد؟ هوش مصنوعی مانند گروهی از ملوانان به گل نشسته، به منبع تغذیه دیجیتالی پردازش شدهای که خود تولید کرده است، روی میآورد؛ انتخابی که میتواند پیامدهای نگرانکنندهای به همراه داشته باشد.
یک تحقیق جدید توسط پژوهشگران دانشگاه رایس و دانشگاه استنفورد در ایالات متحده شواهدی ارائه میدهد که نشان میدهد وقتی موتورهای هوش مصنوعی با دادههای مصنوعی و ماشینی بهجای متن و تصاویر ساخته شده توسط انسانها آموزش داده میشوند، کیفیت خروجی آنها شروع به کاهش میکند.
پژوهشگران این اثر را اختلال خودخوری مدل (Model Autophagy Disorder – MAD) نامیدهاند. هوش مصنوعی عملاً خودش را مصرف میکند.
این امر خیلی شبیه به بیماری جنون گاوی است؛ یک اختلال عصبی در گاوها که به دلیل تغذیه آنها با باقیماندههای آلوده سایر گاوها ایجاد میشود.
بدون دادههای تازه و واقعی، محتوای تولید شده توسط هوش مصنوعی هم از نظر کیفیت و هم تنوع کاهش مییابد. این تحقیق هشدار میدهد که این مدلها ممکن است در آینده به محتوای نامرغوب تبدیل شوند.
پیامدهای هوش مصنوعیهای خودمصرف
ریچارد بارانیوک، مهندس کامپیوتر از دانشگاه رایس می گوید: «وقتی مدلهای هوش مصنوعی در حلقههای خودمصرف، گرفتار میشوند، تحلیلهای نظری و تجربی ما به ما امکان می دهد تا پیشبینی کنیم که چه اتفاقی ممکن است بیفتد.»
«برخی پیامدها واضح هستند: بدون دادههای واقعی تازه، مدلهای مولد آینده محکوم به جنون خواهند شد.»
بارانیوک و همکارانش با یک مدل هوش مصنوعی مولد بصری کار کردند و آن را با سه نوع داده مختلف آموزش دادند: کاملاً مصنوعی، مصنوعی مخلوط با دادههای واقعی ثابت و مصنوعی مخلوط با دادههای واقعی که به طور مداوم تازه میشدند.
در دو سناریوی اول، خروجی مدل بهتدریج تحریف شد. یکی از نشانههای این تحریف، افزایش آشکار شدن آثار شبکهای روی چهرههای کامپیوتری بود.
اهمیت دادههای تازه
وقتی که دادههای واقعی استفاده میشد اما بهصورت ثابت باشند و دادههای جدید اضافه نشوند، کیفیت خروجی کاهش مییابد. به نظر میرسد تازگی دادهها بسیار حیاتی است.
بارانیوک میگوید: «گروه ما به طور گستردهای روی این حلقههای بازخوردی کار کرده و خبر بد این است که حتی پس از چند نسل از این آموزشها، مدلهای جدید میتوانند به طور غیرقابل بازگشتی خراب شوند»،
در حالی که این تحقیق خاص بر تولید تصاویر متمرکز بود، تیم میگوید مدلهای زبانی بزرگ (Large Language Models – LLMs) طراحی شده برای تولید متن نیز به همین شکل خراب خواهند شد.
کارشناسان قبلاً هشدار دادهاند که ابزارهای هوش مصنوعی مولد در حال اتمام دادههای آموزشی خود هستند و این مطالعه جدید به عنوان یک هشدار دیگر در مورد هیجان پیرامون هوش مصنوعی عمل میکند. این فناوری قطعاً امیدوارکننده است، اما محدودیتهای خود را نیز دارد.
«یکی از سناریوهای روز قیامت این است که اگر هوش مصنوعی به مدت زیادی کنترل نشود، MAD میتواند کیفیت و تنوع دادههای کل اینترنت را مسموم کند»
حتی پیامدهای ناخواسته جدیدی از خودخوری هوش مصنوعی چ در کوتاهمدت ممکن است رخ بدهند.
این تحقیق در کنفرانس بینالمللی بازنماییهای یادگیری (International Conference on Learning Representations – ICLR) ارائه شده و مقاله مربوط به آن را میتوانید به صورت آنلاین بخوانید.
source