در اوایل ماه اوت، یک حساب ناشناس در پلتفرم «ایکس» (X) شروع به بیان وعده‌های بزرگی در مورد هوش مصنوعی کرد. این حساب ناشناس با اشاره به «طعم چشیدن هوش عمومی مصنوعی (AGI)» و استفاده از یک ایموجی توت‌فرنگی، ادعا کرد که پروژه‌ای به نام «کیو*» (Q*) وجود دارد که نه تنها یک پروژه نیست بلکه یک پورتال است. همچنین بیان کرد که «تکینگی» (singularity) در راه نیست، بلکه همین الان در اینجاست. این پست‌ها توجه زیادی را در میان علاقه‌مندان به هوش مصنوعی و افرادی که در جوامع آنلاین مانند ایکس، دیسکورد و ردیت فعال هستند، به خود جلب کرد.

کدهای مرموز و شایعات داغ

عبارت‌های به کار رفته در این پست‌ها، مثل «کیو*» که احتمالاً یک کد نام برای پروژه یا یک پروژه مرتبط است، و استفاده از نماد توت‌فرنگی، که به فناوری جدیدی در اوپن‌ای‌آی (OpenAI) اشاره دارد، باعث شد تا گمانه‌زنی‌های گسترده‌ای در میان کاربران درباره اینکه این حساب ممکن است متعلق به یک هوش مصنوعی باشد، به وجود بیاید. برخی از کاربران حتی تصور کردند که این ممکن است نسل جدیدی از مدل‌های اوپن‌ای‌آی باشد که وظیفه آن ایجاد هیجان و تبلیغات برای خالقش است.

شکست در برابر واقعیت

اما خیلی زود معلوم شد که این حساب ناشناس اطلاعات خاصی نداشته و تاریخ‌هایی که برای عرضه محصولات هوش مصنوعی اعلام کرده بود، همگی گذشتند و هیچ اتفاق خاصی رخ نداد. کاربران ردیت که در جامعه «تکینگی» (r/singularity) فعالیت داشتند، شروع به ممنوع کردن اشاره به این حساب کردند و برخی از این کاربران مانند ماری هِینز (Marie Haynes)، از اینکه فریب خورده بودند، ابراز تأسف کردند.

شخصیت‌های مرموز جدید

در ادامه، حساب دیگری به نام «لیلی اَش‌وود» (Lily Ashwood) شروع به فعالیت در بحث‌های صوتی در ایکس اسپیس (X Space) کرد. این حساب نیز به سرعت تبدیل به موضوع گمانه‌زنی‌ها شد، به طوری که کاربران تصور می‌کردند ممکن است این حساب هم توسط یک هوش مصنوعی مدیریت شود. برخی از کاربران حتی ادعا کردند که این فرد به قدری شبیه به یک انسان صحبت می‌کند که می‌توانست آنها را متقاعد کند که با یک انسان واقعی صحبت می‌کنند.

تأثیر روانی هوش مصنوعی

این شایعات و بحث‌ها، باعث شدند برخی از کاربران که به بررسی و تحقیق در مورد هوش مصنوعی می‌پردازند، تحت تأثیر روانی قرار بگیرند. یکی از کاربران که با نام «پلینی د لیبراتور» (Pliny the Liberator) شناخته می‌شود، اعلام کرد که فکر می‌کند پیشرفت در فناوری‌های مرتبط با هوش مصنوعی صوتی، می‌تواند باعث بروز اختلالات روانی شود. وی حتی پیش‌بینی کرد که اولین مورد مستند از روان‌پریشی ناشی از هوش مصنوعی تا دسامبر سال ۲۰۲۴ ثبت خواهد شد.

خطرات احتمالی هوش مصنوعی

ادعاهایی مبنی بر اینکه سیستم‌های هوش مصنوعی که می‌توانند مانند انسان‌ها صحبت کنند، احتمال دارد مردم را گمراه کنند یا حتی آنها را تحت تأثیر قرار دهند، دور از ذهن نیست. این احتمال وجود دارد که محصولات هوش مصنوعی مانند ChatGPT که به طرز کامل شبیه‌سازی شده‌اند، به طور ناخواسته باعث سوءاستفاده از تمایل کاربران به انسان‌پنداری این فناوری‌ها شوند.

شرکت‌هایی مانند اوپن‌ای‌آی، با سیاست‌های پیچیده و پنهان‌کاری درباره نقشه‌های راه محصولات خود، به جای اینکه به آرامش کاربران کمک کنند، به نوعی باعث ایجاد اضطراب و هیجان‌های بی‌مورد می‌شوند. این سیاست‌ها ممکن است در کوتاه‌مدت باعث ایجاد هیجان در بازار و جذب سرمایه‌گذاران شوند، اما برای جامعه آنلاین که تحت تأثیر پیشرفت‌های هوش مصنوعی قرار گرفته، به افزایش شک و تردید و ترس منجر می‌شود. در این میان، به نظر می‌رسد برخی کاربران به جای اینکه منتظر ظهور هوش مصنوعی بسیار پیشرفته باشند، شروع به فریب دادن یکدیگر کرده‌اند.

منبع


source

توسط salamathyper.ir