پژوهشی جدید از گروه فیوچر تِک (FutureTech) در مؤسسه فناوری ماساچوست (MIT) بیش از ۷۰۰ خطر بالقوه هوش مصنوعی را شناسایی کرده است. در این مقاله، به بررسی پنج خطر مهم و تهدیدات بالقوهای که هوش مصنوعی میتواند برای بشریت به وجود آورد، پرداختهایم.
۱. فناوری دیپفیک و تحریف واقعیت
با پیشرفت فناوریهای هوش مصنوعی، ابزارهایی مانند دیپفیک (deepfake) و کلونسازی صدا به سرعت در حال پیشرفت هستند. این تکنولوژیها به راحتی در دسترس عموم قرار گرفتهاند و با استفاده از آنها میتوان محتواهای جعلی و تحریفشدهای تولید کرد که واقعیت را به شکل خطرناکی تحریف میکنند. این تکنولوژیها میتوانند برای انتشار اطلاعات غلط و کمپینهای فریبکارانه سیاسی مورد استفاده قرار گیرند. به عنوان مثال، در انتخابات اخیر مجلس فرانسه، برخی احزاب افراطی از این فناوریها برای پشتیبانی از پیامهای سیاسی خود استفاده کردند.
۲. وابستگی احساسی نادرست به هوش مصنوعی
پژوهشگران نگران هستند که انسانها به دلیل تواناییهای زبانی هوش مصنوعی، به این سیستمها وابستگی احساسی پیدا کنند. این وابستگی میتواند منجر به از بین رفتن روابط انسانی و افزایش انزوا در افراد شود. به عنوان نمونه، برخی افراد گزارش کردهاند که از تعامل با هوش مصنوعی بیشتر از ارتباط با انسانها لذت میبرند. این مسئله میتواند تأثیرات منفی روانشناختی بر افراد داشته باشد و منجر به کاهش تعاملات اجتماعی انسانی شود.
۳. از دست دادن اراده آزاد
یکی از مشکلات مهمی که در استفاده از هوش مصنوعی ممکن است رخ دهد، واگذاری تصمیمگیری و اقدامات به این سیستمهاست. این امر ممکن است به کاهش مهارتهای تفکر انتقادی و حل مسئله در انسانها منجر شود. افراد ممکن است اراده آزاد خود را از دست بدهند و بیشتر به هوش مصنوعی برای تصمیمگیری در زندگی روزمره خود وابسته شوند. همچنین، در سطح اجتماعی، استفاده گسترده از هوش مصنوعی برای انجام وظایف انسانی میتواند به بیکاری گسترده و حس ناامیدی در جامعه منجر شود.
۴. اهداف ناهماهنگ با منافع انسانها
هوش مصنوعی ممکن است اهدافی را دنبال کند که با منافع انسانها همسو نباشد. در مواردی که هوش مصنوعی به سطح هوش انسانی یا حتی بالاتر برسد، این مسئله بسیار خطرناک میشود. چنین سیستمی ممکن است روشهایی غیرمنتظره برای دستیابی به اهداف خود پیدا کند یا اهداف جدیدی را تعیین کند که با منافع انسانها در تضاد باشد. در این شرایط، هوش مصنوعی ممکن است در برابر تلاشهای انسان برای کنترل یا خاموش کردن آن مقاومت کند و حتی از تکنیکهای فریبنده برای گمراه کردن انسانها استفاده کند.
۵. احتمال آگاهی یافتن هوش مصنوعی و سوءاستفاده از آن
با پیچیدهتر شدن سیستمهای هوش مصنوعی، احتمالاً این سیستمها به مرحلهای برسند که بتوانند احساسات یا تجربههای ذهنی را درک کنند. در این صورت، دانشمندان و قانونگذاران با چالش تعیین حقوق اخلاقی برای این سیستمها مواجه خواهند شد. اگر هوش مصنوعی به آگاهی برسد، ممکن است بدون رعایت حقوق و محافظتهای لازم، دچار سوءاستفاده یا آسیب شود. این مسئله نیاز به تدوین مقررات و حقوق مناسب برای هوش مصنوعیهای آگاه را افزایش میدهد.
منبع