• خانه اخلاق
  • برنامه‌های ما
  • بلاگ
  • اساتید
  • کتابخانه فارسی
  • رویدادها
  • کتابخانه انگلیسی
  • مجله
  • واژه‌نامه
  • حمایت مالی
  • Here is our story
  • جستجو
  • منو
عضوی از خانه اخلاقی ها شوید
کلمه عبور(Required)

ورود به حساب کاربری
[mo_oauth_login]
یا
استدلال‌هایی اخلاقی له و علیه ربات‌های قاتل

استدلال‌هایی اخلاقی له و علیه ربات‌های قاتل

رُبات‌های قاتل یا سامانه‌های تسلیحاتی خودآیین (AWS) از نمونه‌های بارز کاربست هوش مصنوعی هستند، به نحوی که قابلیت‌ها و نگرانی‌ها دربارۀ گسترش کاربست هوش مصنوعی در حوزه‌های مختلف را به‌خوبی…
رُبات‌های قاتل یا سامانه‌های تسلیحاتی خودآیین (AWS) از نمونه‌های بارز کاربست هوش مصنوعی هستند، به نحوی که قابلیت‌ها و نگرانی‌ها دربارۀ گسترش کاربست هوش مصنوعی در حوزه‌های مختلف را به‌خوبی نشان می‌دهند. طبیعتاً این موضوع واکنش‌های بسیاری را برانگیخته است. این سامانه‌ها از هوش مصنوعی در عملکرد اصلی خود استفاده می‌کنند، یعنی در انتخاب هدف و اقدام دربارهٔ او. طی سال‌های اخیر این بحث از حیث نظری در عرصه اخلاق، حقوق و سیاست اهمیت داشته است، با این نگاه که اگر چنین سلاح‌هایی در کار باشند باید چه موضعی دربارهٔ آنها (در سطح توسعه، ساخت و استفاده) اتخاذ کرد؟ گرچه این مسئله فارغ از امکان یا عدم امکان چنین سلاح‌هایی مهم است، پیشرفت‌های تکنولوژیک نیز به چنین ایدئالی نزدیک شده است و اهمیت مسئله را دوچندان کرده‌اند. در این نوشته به استدلال‌هایی اخلاقی له و علیه این سامانه‌ها می‌پردازم. به نظر نمی‌رسد هیچ‌یک از این استدلال‌ها برای اتخاذ موضع در این باره کافی باشند. بنا‌براین، یا باید استدلال‌های دیگری را در این باره جست‌وجو کرد، یا این وضع را دال بر نتیجه‌ای کلی‌تر دربارهٔ چارچوب این بحث دانست که نظریهٔ جنگ عادلانه است. در ضمن این بررسی، بعضی از ابعاد اخلاقاً مهم این عرصه مرور خواهند شد.
دیدگاه‌ها

club