من مدافع هیچکدام از گروههای غربی و غیرغربیِ یادشده نیستم. نمیخواهم از هیچ محتوای خاصی دفاع کنم، بلکه میخواهم به سوگیریهای فرهنگی قابلتوجهِ قوانین سفتوسختِ مبتنی بر هوش مصنوعی اشاره کنم که حاکم بر گفتمان عمومی است. به سانسور تصاویر مربوط به سلاخی گاوها یا تبلیغ استیکهای خوشمزه یک رستوران فکر کنید. صدها میلیون انسان، از چنین تصاویری همان قدر (یا حتی بیشتر) برمیَآشوبند که ما از نشان دادن خط قرمزهای حساسیتبرانگیزی که در رسانههای غربی سانسور میشوند.
و دستآخر، نمیخواهم این لیست را بیش از اندازه طولانی کنم (گرچه احتمالاً همین الان هم طولانی است)، اما باید بگویم هوش مصنوعی به تمرکز بسیار زیاد قدرت در دستان تعداد اندکی از شرکتهای بزرگ میانجامد که مالکِ حجم عظیمی از اطلاعات مورد نیاز برای آموزش مدلهای مؤثر هستند: گوگل، بایدو، فیسبوک، توییتر، آمازون، اپل و تسلا. بنابراین، شرکتهای کوچک، استارتاپها، یک موتور جستوجوگر متعلق به شیعیانِ مسلمان، یک ماشین خودران قزاق، یک شبکه اجتماعی فرهنگی واقع در جزایر اقیانوس آرام جنوبی، همه آرمانهایی محققنشده هستند و خواهند ماند، زیرا جمعیتهایشان آنقدر زیاد نیست تا آموزش مدلهای هوش مصنوعی بهصرفه و حتی ممکن باشد.
بد بودن به چه معناست؟
ساده است که بگوییم «بد [و شرور] نباشید». اما خیلی سخت است که بفهمیم چه زمانی خودمان اینگونه هستیم.
شکی نیست که اگر کودکی را به میز زنجیر کنیم و از صبح تا شب او را به برش زدن لباسها مجبور کنیم، بد [و شر] است. اما خرید پیراهنهای ارزان که دقیقاً به همین شکل در هند و بنگلادش تولید شده، چه؟ به هر حال، این صنایع برای سود و منفعت مشتریانِ چنین اجناسی به وجود آمده است. این پیراهنها که طبق مدهای امروزی و رنگهای جذاب تولید شده، در قفسه مغازهها یا کاتالوگ آمازون همراه با تصاویر این کودکان که زندگیشان در راه تولید این اجناس نابود شده، به مشتری عرضه نمیشود. شاید اگر میشد بهتر بود.
کودک در حال غرق شدنِ پیتر سینگر
آزمایش فکری کودک در حال غرق شدنِ پیتر سینگر چنین است: اگر در مسیر اداره، کودکی را ببینیم که در حال غرق شدن در یک برکه است، آیا فکر میکنیم باید نجاتش دهیم؟ اگر نجات دادن این کودک به قیمت خراب شدن کتوشلوار جدیدمان یا دیر رسیدن به جلسه کاریمان تمام شود، چه؟ آیا نظرمان را تغییر میدهیم؟
به همین شکل، وقتی یک توسعهدهنده، برنامهای میسازد که از ۱۰ زبان پشتیبانی میکند، آن را بهخاطر آگاهیبخشی فرهنگی و بینالمللی تحسین میکنیم. اما این برنامه با لیست ۶۴۹۰ زبانی که از منویش حذف شده به مخاطبان عرضه نخواهد شد. وقتی یک رباتِ اسباببازی بر اساس یکی از شخصیتهای دیزنی برای کودکان تولید میشود، هرگز به صدها هزار اسطوره و داستان محلیِ رهاشده فکر نمیکنیم. بر این اساس، کودکان جهان آن اسطورهها و داستانها را نخواهند شنید و قرنها تجربه، حکمت و راهنمایی فراموش خواهد شد. احتمالاً بد نبود اگر این داستانها در قالبِ کتابچههایی مصور و زیبا همراه با عروسکهای دیزنی عرضه میشد. اما چنین نمیشود.
میدانیم این چیزها بد است. اما تفاوتی وجود دارد. مشتریان لباسها میتوانند بهشکلی پذیرفتنی ادعا کنند که نمیتوانستند از چگونگی تولید این لباسها سر در بیاورند، اما چنین عذری از توسعهدهندههای هوش مصنوعی یا دانشمندان کلانداده پذیرفتنی نیست. آنها دقیقاً در مرکز جهانی قرار دارند که دارند میسازند. آنها همان کسانی هستند که ابزارهایی میسازند که موجب نابودی همه فرهنگها، نابودی محیط زیست، به زندان افتادن انسانهای بیگناه، توهین به عقاید میلیونها متدینِ ادیان مختلف، افزایش کلاهبرداری و تروریسم، بسط نظارت و سرکوب در سرتاسر جهان میشود.
پس چه کاری از دستمان برمیآید؟
دستکم باید بدانیم که «خوب بودن» با «بد نبودن» تفاوت دارد. آن مشتریای که یک پیراهن ارزان میخرد، واقعاً بد نیست. آن توسعهدهنده یا دانشمند علم داده که با تولید یک محصول هوش مصنوعی به محو یک فرهنگ کوچک در جایی دور کمک میکند هم مستقیماً بد نیست. اما اینها خوب هم نیستند.
«خوب» بودن (در مقابل بد نبودن)، چیزی بیشتر از صرفِ باعث و بانی مستقیمِ ضرر و زیان نبودن است.