در اوایل ماه اوت، یک حساب ناشناس در پلتفرم «ایکس» (X) شروع به بیان وعدههای بزرگی در مورد هوش مصنوعی کرد. این حساب ناشناس با اشاره به «طعم چشیدن هوش عمومی مصنوعی (AGI)» و استفاده از یک ایموجی توتفرنگی، ادعا کرد که پروژهای به نام «کیو*» (Q*) وجود دارد که نه تنها یک پروژه نیست بلکه یک پورتال است. همچنین بیان کرد که «تکینگی» (singularity) در راه نیست، بلکه همین الان در اینجاست. این پستها توجه زیادی را در میان علاقهمندان به هوش مصنوعی و افرادی که در جوامع آنلاین مانند ایکس، دیسکورد و ردیت فعال هستند، به خود جلب کرد.
کدهای مرموز و شایعات داغ
عبارتهای به کار رفته در این پستها، مثل «کیو*» که احتمالاً یک کد نام برای پروژه یا یک پروژه مرتبط است، و استفاده از نماد توتفرنگی، که به فناوری جدیدی در اوپنایآی (OpenAI) اشاره دارد، باعث شد تا گمانهزنیهای گستردهای در میان کاربران درباره اینکه این حساب ممکن است متعلق به یک هوش مصنوعی باشد، به وجود بیاید. برخی از کاربران حتی تصور کردند که این ممکن است نسل جدیدی از مدلهای اوپنایآی باشد که وظیفه آن ایجاد هیجان و تبلیغات برای خالقش است.
شکست در برابر واقعیت
اما خیلی زود معلوم شد که این حساب ناشناس اطلاعات خاصی نداشته و تاریخهایی که برای عرضه محصولات هوش مصنوعی اعلام کرده بود، همگی گذشتند و هیچ اتفاق خاصی رخ نداد. کاربران ردیت که در جامعه «تکینگی» (r/singularity) فعالیت داشتند، شروع به ممنوع کردن اشاره به این حساب کردند و برخی از این کاربران مانند ماری هِینز (Marie Haynes)، از اینکه فریب خورده بودند، ابراز تأسف کردند.
شخصیتهای مرموز جدید
در ادامه، حساب دیگری به نام «لیلی اَشوود» (Lily Ashwood) شروع به فعالیت در بحثهای صوتی در ایکس اسپیس (X Space) کرد. این حساب نیز به سرعت تبدیل به موضوع گمانهزنیها شد، به طوری که کاربران تصور میکردند ممکن است این حساب هم توسط یک هوش مصنوعی مدیریت شود. برخی از کاربران حتی ادعا کردند که این فرد به قدری شبیه به یک انسان صحبت میکند که میتوانست آنها را متقاعد کند که با یک انسان واقعی صحبت میکنند.
تأثیر روانی هوش مصنوعی
این شایعات و بحثها، باعث شدند برخی از کاربران که به بررسی و تحقیق در مورد هوش مصنوعی میپردازند، تحت تأثیر روانی قرار بگیرند. یکی از کاربران که با نام «پلینی د لیبراتور» (Pliny the Liberator) شناخته میشود، اعلام کرد که فکر میکند پیشرفت در فناوریهای مرتبط با هوش مصنوعی صوتی، میتواند باعث بروز اختلالات روانی شود. وی حتی پیشبینی کرد که اولین مورد مستند از روانپریشی ناشی از هوش مصنوعی تا دسامبر سال ۲۰۲۴ ثبت خواهد شد.
خطرات احتمالی هوش مصنوعی
ادعاهایی مبنی بر اینکه سیستمهای هوش مصنوعی که میتوانند مانند انسانها صحبت کنند، احتمال دارد مردم را گمراه کنند یا حتی آنها را تحت تأثیر قرار دهند، دور از ذهن نیست. این احتمال وجود دارد که محصولات هوش مصنوعی مانند ChatGPT که به طرز کامل شبیهسازی شدهاند، به طور ناخواسته باعث سوءاستفاده از تمایل کاربران به انسانپنداری این فناوریها شوند.
شرکتهایی مانند اوپنایآی، با سیاستهای پیچیده و پنهانکاری درباره نقشههای راه محصولات خود، به جای اینکه به آرامش کاربران کمک کنند، به نوعی باعث ایجاد اضطراب و هیجانهای بیمورد میشوند. این سیاستها ممکن است در کوتاهمدت باعث ایجاد هیجان در بازار و جذب سرمایهگذاران شوند، اما برای جامعه آنلاین که تحت تأثیر پیشرفتهای هوش مصنوعی قرار گرفته، به افزایش شک و تردید و ترس منجر میشود. در این میان، به نظر میرسد برخی کاربران به جای اینکه منتظر ظهور هوش مصنوعی بسیار پیشرفته باشند، شروع به فریب دادن یکدیگر کردهاند.
منبع