هوش مصنوعی انتخاب و شانس را از بین می برد
تاریخچه استفاده انسانها از فناوری1 همیشه تاریخ همتکاملی2 بوده است. فیلسوفان از روسو3 تا هایدگر4 و کارل اشمیت5 استدلال کردهاند که فناوری هرگز ابزاری خنثی برای دستیابی به اهداف انسانی نیست. نوآوریهای تکنولوژیکی – از ابتداییترین تا پیچیدهترین – افراد را تغییر میدهند، زیرا آنها از این نوآوریها برای کنترل محیط خود استفاده میکنند. هوش مصنوعی ابزاری جدید و قدرتمند است و بشریت را نیز تغییر میدهد.
نوشتن و بعد از آن ماشین چاپ امکان ثبت دقیق تاریخ و انتشار آسان دانش را فراهم کردند، اما سنتهای چند صد ساله داستانسرایی شفاهی حذف شدند. دوربینهای دیجیتال و تلفنهای موجود در همهجا نحوه تجربه و درک مردم از رویدادها را تغییر دادهاند. سیستمهای جیپیاس6 بهطور گسترده در دسترس به این معناست که رانندگان به ندرت گم میشوند، اما اتکا به این سیستمها استعداد و توان اصلی ایشان برای جهتگیری را نیز از بین برده است.
هوش مصنوعی تفاوتی ندارد. درحالیکه اصطلاح «هوش مصنوعی» نگرانیهایی درباره رباتهای قاتل، بیکاری یا وضعیت نظارت گسترده ایجاد میکند، اما پیامدهای عمیقتری نیز به همراه دارد. از آنجاییکه هوش مصنوعی به طور فزایندهای تجربه انسان را شکل میدهد، چگونه معنای «انسان بودن» را تغییر میدهد؟ مشکل اصلی، ظرفیت و توان یک فرد برای انتخاب است، به ویژه قضاوتهایی که پیامدهای اخلاقی دارند.
تسلط بر زندگی ما؟
هوش مصنوعی برای اهداف گسترده و بهسرعت در حال گسترش استفاده میشود. هوش مصنوعی برای پیشبینی اینکه افراد میخواهند کدام برنامهها یا فیلمهای تلویزیونی را بر اساس ترجیحات گذشته تماشا کنند و تصمیمگیری در مورد اینکه چه کسی میتواند بر اساس عملکرد گذشته و سایر گزینهها پول قرض کند، استفاده میشود. از هوش مصنوعی برای شناسایی معاملات تجاری تقلبی و شناسایی تومورهای بدخیم7 استفاده میشود. برای تصمیمگیریها در مورد استخدام و اخراج در فروشگاههای زنجیرهای بزرگ و مدارس دولتی و همچنین در اجرای قانون از آن استفاده میگردد – از ارزیابی احتمال تکرار جرم، تخصیص نیروی پلیس، تا شناسایی چهره مظنونین جنایی.
مشکل اصلی، ظرفیت و توان یک فرد برای انتخاب است، به ویژه قضاوتهایی که پیامدهای اخلاقی دارند.
بسیاری از این برنامهها خطرات نسبتاً آشکاری دارند. اگر الگوریتمهای مورد استفاده برای تایید وام، تشخیص چهره و استخدام بر اساس دادههای مغرضانه آموزش داده شوند، که در نتیجه آن مدلهای مغرضانه ایجاد کنند، تعصبات و نابرابریهای موجود را تداوم میبخشند. اما محققان بر این باورند که دادههای پاکسازی شده و مدلسازی دقیقتر، سوگیری الگوریتمی را کاهش داده و بهطور بالقوه حذف میکند. حتی این امکان وجود دارد که هوش مصنوعی بتواند پیشبینیهایی منصفانهتر و کم جانبدارانهتر از پیشبینیهای انجامشده توسط انسان انجام دهد.
در جاییکه سوگیری الگوریتمی یک مسئله فنی است که حداقل در تئوری قابل حل می باشد، این سوال که چگونه هوش مصنوعی تواناییهایی را که انسان را تعریف میکند تغییر میدهد، اساسیتر است. ما این سوال را چند سال پیش به عنوان بخشی از پروژه هوش مصنوعی و تجربه در مرکز اخلاق کاربردی UMASS بوستون مطالعه کردهایم.
از دست دادن توانایی انتخاب8
ارسطو9 استدلال میکرد که ظرفیت و توان10 برای صدور احکام عملی11 به طور منظم بر اساس عادت و تمرین12 می باشد. ما ظهور ماشینها را بهعنوان قاضیهای جایگزین13 در زمینههای مختلف کاری بهعنوان یک تهدید بالقوه برای افرادی میبینیم که یاد میگیرند چگونه خودشان بهطور مؤثر قضاوت کنند.
در محل کار، مدیران به طور معمول تصمیم میگیرند که چه کسی را استخدام یا اخراج کنند، چه وامی را تایید کنند و به کجا افسران پلیس را بفرستند. اینها حوزههایی هستند که تجویز الگوریتمی جایگزین قضاوت انسان می شود، و بنابراین افرادی که ممکن است شانس قضاوت عملی در این زمینهها را داشته باشند، دیگر این امکان را نخواهند داشت.
موتورهای پیشنهادکننده14، که به طور فزایندهای واسطههای15 رایج در مصرف مردم از فرهنگ16 هستند، انتخاب را محدود میکنند و آرامش را کاهش میدهند.17 شرکتها با ارائه انتخابهای الگوریتمی انتخابشده برای تماشا، خواندن، پخش آنلاین18 و بازدید بعدی، ذائقه انسان را با سلیقه ماشینی جایگزین میکنند. از یک جهت، این میتواند مفید باشد. بعلاوه، ماشینها میتوانند گستره وسیعتری از انتخابها را بررسی کنند در مقایسه با اینکه هر فرد خودش وقت یا انرژی لازم برای انجام آن بگذارد.
به نظر میرسد ظهور فناوریهای با قدرت پیشگویی بالا بر نهادهای سیاسی اساسی نیز تأثیر بگذارد.
با وجود این، همزمان، «انتخاب و نمایش آنلاین اطلاعات»19 احتمالا بر اساس آنچه مردم در گذشته ترجیح دادهاند، بهینهسازی میشود. ممکن است تصور کنیم که این خطر وجود دارد که انتخابهای افراد بواسطه گذشته آنها به روشی جدید و پیشبینینشده محدود شود – این یک تعمیمی از «اتاق پژواک»20 است که مردم در رسانههای اجتماعی میبینند.
به نظر میرسد ظهور فناوریهای با قدرت پیشگویی بالا بر نهادهای سیاسی اساسی نیز تأثیر بگذارد. به عنوان مثال، ایده حقوق بشر بر اساس این بینش است که انسانها کارگزاران و نمایندگانی باشکوه، غیرقابل پیشبینی و خودگردان هستند که آزادیهای آنها باید توسط دولت تضمین شود. اگر بشریت – یا حداقل تصمیمگیری آن21 – قابل پیش بینیتر شود، آیا نهادهای سیاسی به همان شیوه به حمایت از حقوق بشر ادامه خواهند داد؟
کاملا قابل پیشبینی
همانطور که الگوریتمهای یادگیری ماشین، شکل رایج از هوش مصنوعی «محدود» یا «ضعیف»22، بهبود مییابند، و همانطور که آنها بر روی مجموعه دادههای گستردهتر آموزش میبینند، بخشهای بزرگتر زندگی روزمره به احتمال زیاد کاملا قابل پیشبینی میشود. پیشبینیها بهتر و بهتر میشوند و در نهایت تجربیات مشترک را کارآمدتر و دلپذیرتر میکنند.
الگوریتمها میتوانند به زودی – اگر قبلاً این کار را نکردهاند – در مورد برنامهای که میخواهید بعداً تماشا کنید و کدام نامزد شغلی را باید استخدام کنید، ایده بهتری در مقایسه با ایده شما، داشته باشند. یک روز، انسانها حتی ممکن است راهی پیدا کنند که ماشینها بتوانند این تصمیمات را بدون برخی از تعصباتی که معمولاً نشان میدهند، اتخاذ نمایند.
اما تا جایی که غیرقابل پیشبینی بودن بخشی از نحوه درک افراد از خود و بخشی از آنچه مردم در مورد خود دوست دارند است، بشریت در حال از دستدادن چیزی مهم است. همانطور که آنها بیشتر و بیشتر قابل پیشبینی میشوند، موجوداتی که در دنیای با واسطه هوش مصنوعی زندگی میکنند کمتر و کمتر شبیه ما میشوند.
پی نوشت
- technology
- coevolution
- Rousseau
- Heidegger
- Carl Schmitt
- GPS systems
- malignant tumors
- Losing the ability to choose
- Aristotle
- capacity
- practical judgments
- habit and practice
- substitute judges
- موتور پیشنهادکننده یا recommendation engines سیستمی است که محتوای یا موارد دیجیتال توصیه شده را برای کاربران شناسایی و ارائه می کند. از آنجایی که اپلیکیشنهای موبایل و سایر پیشرفتها در فناوری همچنان نحوه انتخاب و استفاده کاربران از اطلاعات را تغییر میدهند، موتور توصیه در حال تبدیل شدن به بخشی جدایی ناپذیر از برنامهها و محصولات نرمافزاری است. موتورهای توصیه به عنوان سیستم های پیشنهادکننده نیز شناخته می شوند.
- intermediaries
- people’s consumption of culture
- John Dewey
- stream
- curation
- در بحثهای رسانههای خبری، اتاق پژواک یا echo chamber به موقعیتهایی اطلاق میشود که در آن باورها با برقراری ارتباط و تکرار در یک سیستم بسته تقویت میشوند و از ابطال مصون میمانند.
با شرکت در یک اتاق پژواک، افراد قادر به جستجوی اطلاعاتی هستند که دیدگاههای موجود آنها را بدون مواجهه با دیدگاههای مخالف تقویت میکند، که به طور بالقوه منجر به یک تمرین ناخواسته در تایید سوگیری است. اتاق های پژواک ممکن است قطبیت اجتماعی و سیاسی و افراط گرایی را افزایش دهند.
- decision making
- هوش مصنوعی باریک یا ضعیف narrow or weak AI که به عنوان هوش مصنوعی ضعیف نیز شناخته می شود، هوش مصنوعی است که در دنیای امروز ما وجود دارد. هوش مصنوعی باریک هوش مصنوعی است که برای انجام یک کار برنامه ریزی شده است . این یک هوش ماشینی است که به یک منطقه خاص یا باریک محدود می شود. هوش مصنوعی ضعیف شناخت انسان را شبیهسازی میکند و با انجام کارهای وقتگیر و با تجزیه و تحلیل دادهها به روشهایی که گاهی اوقات انسانها نمیتوانند از آن استفاده کنند، برای بشر مفید است. بسیاری از سیستمهای موجود در حال حاضر که ادعا میکنند از «هوش مصنوعی» استفاده میکنند، احتمالاً بهعنوان یک هوش مصنوعی ضعیف عمل میکنند که بر روی یک مشکل خاص متمرکز است. تعریف بهتر از هوش مصنوعی ضعیف «هوش افزوده» است که به وضوح نشان میدهد که این فناوری برای تکمیل ذهن انسان است نه جایگزین آن .
سیستم های هوش مصنوعی باریک (یا ضعیف) هوش عمومی ندارند. آنها هوش خاصی دارند. یک هوش مصنوعی که در آموزش نحوه رانندگی از نقطه A به نقطه B به شما خبره است، معمولاً نمی تواند شما را به یک بازی شطرنج به چالش بکشد. و یک هوش مصنوعی که می تواند وانمود کند با شما چینی صحبت می کند، احتمالاً نمی تواند طبقات شما را جارو کند. هوش مصنوعی ضعیف فاقد آگاهی انسانی است، اگرچه ممکن است بتواند آن را شبیه سازی کند. با این حال، هوش مصنوعی ضعیف میتواند بخشهای خستهکننده و تکراری بیشتر مشاغل را بطور خودکار انجام دهد و بخشهایی که نیاز به مراقبت و توجه دارند به انسان واگذار می کند. هوش مصنوعی ضعیف هم محدودترین و هم رایج ترین در بین سه نوع هوش مصنوعی است. هوش مصنوعی ضعیف تقلید یا تکرار هوش انسانی نیست. بلکه برای شبیه سازی رفتار انسان است. بنابراین، به هیچ وجه با هوش انسانی همخوانی ندارد، و سعی هم نمی کند. یک تصور غلط رایج در مورد هوش مصنوعی ضعیف این است که اصلاً هوشمند نیست – بیشتر شبیه حماقت مصنوعی است تا هوش مصنوعی. اما حتی باهوشترین هوش مصنوعیهای امروزی نیز فقط هوش مصنوعی ضعیف هستند. بنابراین، در واقعیت، هوش مصنوعی باریک یا ضعیف بیشتر شبیه یک متخصص باهوش است. هوش مصنوعی ضعیف در تکمیل وظایف خاصی که برای انجام آنها برنامه ریزی شده است بسیار هوشمند است.
خانم دکتر نخعی با عرض سلام و تشکر از زحماتی که بابت ترجمه مقاله هوش مصنوعی کشیده اید
باید اذعان کنم مطالب بسیار ارزشمند و مفید بودند
به امید دیدن کارهای بیشتر از شما .