به گزارش نخست نیوز، بسیاری از کارشناسان فناوری هشدار دادهاند که هوش مصنوعی در مسیر تخریب و نابودی قرار دارد، اما یک بررسی جدید از محققان برتر احتمال انقراض انسان را مشخص کرده است.
گروهی از دانشمندان بینالمللی از ۲۷۷۸ متخصص هوش مصنوعی در مورد آینده این سیستمها سوال کردند و پنج درصد گزارش کردند که این فناوری منجر به فروپاشی خواهد شد.
اما از هر ۱۰ محقق یک نفر به موضوع ترسناکتری اشاره کرد و آن وجود ۲۵ درصد شانس نابودی بشر توسط هوش مصنوعی بود.
کارشناسان سه دلیل احتمالی را در این مورد ذکر کردند. هوش مصنوعی به گروههای تهدیدکننده اجازه میدهد ابزارهای قدرتمندی مانند ویروسهای مهندسی شده بسازند، حاکمان مستبد از هوش مصنوعی برای کنترل جمعیت خود استفاده میکنند و سیستمهای هوش مصنوعی نابرابری اقتصادی را بدتر میکند.
کنترل و تنظیم هوش مصنوعی تنها راه حل برای محافظت از انسان است و اگر هوش مصنوعی تنظیم نشود، محققان تخمین میزنند که ۱۰ درصد احتمال دارد که ماشینها تا سال ۲۰۲۷ در همه وظایف از انسانها بهتر عمل کنند و این احتمال تا سال ۲۰۴۷ به ۵۰ درصد افزایش خواهد یافت.
در این نظرسنجی از کارشناسان درباره چهار شغل خاص که کاملا خودکار میشوند، سؤال شد و پاسخ دریافت کردند که احتمال ۵۰ درصد وجود دارد که هوش مصنوعی تا سال ۲۱۱۶ به طور کامل همه چیز را تصاحب کند.
کاتیا گریس(Katja Grace)، یکی از نویسندگان این مطالعه، به نیوساینتیست گفته است: این یک نشانه مهم است که اکثر محققان هوش مصنوعی غیرممکن نمیدانند که هوش مصنوعی پیشرفته بشریت را نابود کند.
تقریبا ۵۸ درصد از محققان نسبت به تصاحب هوش مصنوعی خوشبینتر بودند و گفتند تنها پنج درصد احتمال دارد که باعث انقراض انسان شود.
سازمان ملل متحد پیش از این هشدارهایی را در مورد استفاده گروههای تروریستی از هوش مصنوعی برای اهداف مخرب به اشتراک گذاشته است.
اثبات شده که در دنیای جرایم سایبری، هوش مصنوعی ابزار قدرتمندی است که میتوان از آن برای پیشبرد یا تسهیل تروریسم و افراطگرایی خشونتآمیز منجر به تروریسم استفاده کرد.
مدیر سازمان ملل متحد در گزارشی از سازمان ملل گفت: اتومبیلهای خودران، افزایش حملات سایبری به زیرساختهای حیاتی، یا امکان گسترش سخنان نفرتانگیز و تحریک به خشونت به روشی سریعتر و کارآمدتر از مواردی هستند که توسط هوش مصنوعی میتوان انجام داد. این در حالی است که در سال ۲۰۲۳ ۳۷ درصد از کارگران با هوش مصنوعی جایگزین شدند.
صدها کارشناس، از جمله سم آلتمن، مدیر اجرایی شرکت اُپن ایآی(OpenAI) و دمیس حسابیس، مدیر اجرایی دیپمایند گوگل(Google DeepMind)، در ماه مه سال گذشته بیانیهای در یک جمله صادر کردند و خواستار کنترل و وضع مقررات بیشتر برای هوش مصنوعی شدند.
در این بیانیه آمده است: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای یک اولویت جهانی باشد.
حتی «پدرخوانده هوش مصنوعی»، جفری هینتون، گفت که از ایجاد هوش مصنوعی پشیمان است اگرچه به نیویورک تایمز گفت: من خودم را با این بهانه دلداری میدهم که اگر من این کار را نمیکردم، شخص دیگری این کار را میکرد.
هنوز ابهامات قابل توجهی در مورد تأثیرات بلندمدت هوش مصنوعی وجود دارد و این مطالعه اذعان دارد که پیشبینی حتی برای متخصصان نیز سخت است.
انتهای پیام
دیدگاهتان را بنویسید