تصویر: هوش مصنوعی خطرناکتر از بمب اتومی است؟
ستیفن هاوکینگ میتواند در بسیاری موضوعات علمی توجهات را به خوبی جلب کند. حالا او این بحث را مطرح کرده است که روباتهای مجهز با هوش مصنوعی چه اندازه مصون هستند. جزئیات را در این آلبوم عکس بخوانید.
خطرناکتر از بمب اتومی؟
ایلان ماسک، نماد دره سلیکون و موسس "اسپیس اکس" یا شرکت فن آوریهای اکتشافی فضایی، با هشدارهایش راجع به هوش مصنوعی مشهور است. سال گذشته او گفته بود که هوش مصنوعی بزرگترین خطر قابل تصور برای موجودیت ماست. ستیفو هاوکینگ نیز گفته است که هوش مصنوعی، "بزرگترین اشتباهی" است که انسانها مترکب آن شده اند.
اغراق در بیان خطر؟
آیا روباتهای با هوش مصنوعی چنانکه در فیلم هالیوودی "چپی" نمایش داده میشود، بیشتر از این که آسیب رسان باشد کمک کننده نیستند؟ یک برنامه ریزی مجدد به این روباتها احساس و تفکر میدهد. این روبات مثلا به بشریت در مقابله با تهاجم پولیس روباتیک کمک میکند.
هواپیمای بی سرنشین پرسرعت
واقعات اخیر نشان داده است که به گونه مثال، همه انواع روباتهای با هوش مصنوعی عاری از خطا نیستند. سقوط هواپیمای بیسرنشین موسوم به "شاهین اچ تی وی-2" در تابستان 2011 به اقیانوس صرفاً 9 دقیقه وقت گرفت.
خیلی هم جدید نیست
استفاده از روباتهای هوشمند در بخش نظامی خیلی هم جدید نیست. در بیش از دو دهه اخیر از ماشین آلات و اعضای روباتیک آن در سیستمهای پیشرفته نظامی استفاده شده است. جتهای "یوروفایتر" مثال ساده آن است.
ایدههای علمی-تخیلی به واقعیت تبدیل میشوند
ماشینهای هوشمند با گذشت هر روز پیشرفتهتر میشوند و در بسیاری موارد عملیاتی یا کاربردی میشوند. این روبات چهارپای موسم به "بیگ داگ" یا سگ بزرگ قادر به حمل بار در زمینهای صعب العبور و پوشیده از یخ و برف است. شرکت روباتسازی "بوستون داینامیک" توسط گوگل خریداری شده است.
نیاز به هدایت های اخلاقی
در هر صورت، روشن است که روباتهای مجهز با هوش مصنوعی در جستجوی هدایتهای اخلاقی و حتی اصول سیاسی اند تا استندردهایی برای برنامه ریزی این ماشینها ایجاد گردد. این تنها راه جلوگیری از سوء استفاده از هوش مصنوعی است. به این ترتیب میشود اطمینان حاصل کرد که این روباتها از کنترول خارج نمیشوند.