رُباتها؛ ناجیان فناوری یا قاتلان نیروی کار؟!
مصطفی رفعت
8 نوامبر 2023 بود که خبرگزاری «یونهاپ» گزارش داد: یک رُبات در «کره جنوبی» مردی را پسازاینکه ظاهراً دستگاه نتوانست او را از جعبههای محصولاتی که درحالآمادهسازی بودند، «متمایز» کُنَد، تا حد مرگ «لِه» کرد. این کارگرِ 40ساله، درحالبازرسیِ عملیات حسگرِ رُبات در یک مرکز توزیع محصولات کشاورزی مجهز به تجهیزاتِ رُباتیک در استان «گیونگسانگ جنوبی» بود که این حادثه رخ داد. رُبات صنعتی که جعبههای پر از «فلفل دلمهای» را بلند میکرد و روی پالت میگذاشت، گویا دچار اختلال شده و مرد را یک «جعبه» شناسایی کرد. درادامه، بازوی رُباتیک، بدنِ مرد را بهسمت تسمهنقاله فشار داد و صورت و سینه او را لِه کرد. اگرچه مصدوم به بیمارستان منتقل شد؛ اما بعداً درگذشت. این البته ماجرای تازهای دراینکشور نیست؛ مثلاً در مارس امسال نیز یک مرد 50ساله، پس از گیرافتادن توسط یک رُبات در حین کار در یک کارخانه تولید قطعات خودرو، «آسیب جدی» دید. بااینکه سالها از اولین اخطارها درزمینه خطرآفرینبودنِ رُباتها و هوشمندسازیهای رُباتیک در کارخانهها میگذرد؛ اما همچنان ازسوی بعضی کارشناسان، به رُباتها در حوزه صنعت، بهعنوان یک «مزیت» نگاه میشود و جدای از تأثیر منفیِ انکارناپذیرشان بر «نیروهای کار» و «اشتغال»؛ سعی شده تا بر خطراتِ احتمالیِ حضور آنها در محیطهای کاری نیز سرپوش گذاشته شود و اگر کمتر اخباری دراینزمینه شنیده شده، بهعلتِ ایمنبودن کاملِ (یا کمخطربودن) خودکارسازی نیست؛ بلکه «سانسور رسانهایِ» اِعمالشده بر رویدادهای مرتبط است. اتفاق مرگبار اخیر در «کره جنوبی»، موضوع چگونگیِ برخورد با «رُباتهای قاتل در محل کار» و ضرورت ایجاد تضمینهای امنیتی در بهکارگیریِ آنها را باردیگر پررنگ کرد.
25 ژانویه 1979: از «رابرت نیکلاس ویلیامز»؛ کارگر 25ساله در بخش ریختهگری شرکت «فوردموتور» در «میشیگان» خواسته شد قطعات یک واحد قفسهبندی عظیم را بهصورت دستی بشمارد. ماشین پنجطبقه مخصوص بازیابی قطعات ریختهگری، قرائتهای نادرست میدهد. «ویلیامز» وظیفه دارد بالا برود و بفهمد واقعاً چندقطعه وجود دارد. درحالیکه «ویلیامز» آنجاست و کارهایی را انجام میدهد که به او دستور داده شده؛ یک بازوی رُباتیِ فعال، بیصدا سراغ مرد جوان میآید، به سرش ضربه میزند و بلافاصله او را میکُشد. طبق گزارش Knight-Ridder؛ رُبات به کار خود ادامه میدهد؛ اما «ویلیامز» 30دقیقه درحالیکه مُرده است، آنجا افتاده؛ تااینکه جسدش توسط همکاران نگرانش پیدا میشود. در آن روز زمستانی، «ویلیامز» اولین انسانی در تاریخ میشود که توسط یک رُبات کشته میشود. البته مرگی کاملاً غیرعمد. بهسادگی هیچ سپری برای محافظت از «ویلیامز» وجود نداشت، هیچ آلارمی او را از نزدیکشدن بازوی دستگاه مطلع نکرد و هیچ فناوری درآنزمان نمیتوانست رفتار رُبات را در حضور انسان تغییر دهد. در سال 1979، هوش مصنوعی آنقدر پیچیده نبود که بتواند کاری برای جلوگیری از چنین مرگی انجام دهد. هیئتمنصفه موافقت کرد در طراحی رُبات، دقت کافی برای جلوگیری از مرگی اینچنین، صورت نگرفته و نهایتاً خانواده «ویلیامز» برنده دعوی 10میلیوندلاری از صنایع Litton (سازنده رُبات) شدند.
گزارش 6 سپتامبر 2023 در نشریه آنلاین Atlantic باعنوان «رُباتها مردم را میکُشند» مینویسد: انقلاب رُباتها از مدتهاپیش آغاز شد و همینطور کُشتارشان! در سال 1979، یک رُبات در کارخانه ریختهگری شرکت «فوردموتور» دچار اختلال شد و «کارگران انسانی» متوجه شدند که بهاندازهکافی سریع کار نمیکند؛ بهاینترتیب از «رابرت ویلیامز» (25 ساله) خواسته شد تا برای کمک به جابجایی اشیاء، به یک قفسه ذخیرهسازی برود. رُباتِ یکتُنی اما بیصدا به فعالیتش ادامه داد و ناگهان به سر «ویلیامز» کوبید و فوراً او را کُشت. طبق گزارشها؛ این، اولین حادثهای بود که در آن، رُباتی یک انسان را کُشت ... قطعاً که آخرینِ چنین فاجعهای نیز نبود و با بسیار مواردِ دیگر دنبال شد. «کِنجی اورادا» در شرکت چندملیتیِ ژاپنیِ «صنایع سنگین کاوازاکی» (KHI) کار میکرد که در سال 1981 طیِ شرایط مشابه درگذشت. بهادعای «گابریل هالیوی» در کتابش «وقتی رُباتها میکشند: هوش مصنوعی براساس قوانین کیفری» (2013)؛ رُبات، وقتی این مرد برای بازرسی میرفت، مسیرش را مسدود کرد و او را بهمثابه یک تهدید و عاملِ اِخلال، کُشت! همانطورکه «هالیوی» بیان میکند، رُبات بهسادگی تشخیص داد: «کارآمدترین راه برای حذف تهدید اینبودکه کارگر را بهسمت ماشین مجاور هل دهد!» از سال 1992 تا 2017، «رُباتهای محل کار» مسئول 41 مرگ ثبتشده در «ایالاتمتحده» بودهاند و این البته بهاستثنای وقتیست که آثار جانبیِ ناشی از خودکارسازی؛ مانند «ازدستدادن شغل» را درنظر بگیریم. یک توپ ضدهوایی رُباتیک در سال 2007، نُه سرباز «آفریقای جنوبی» را کُشت؛ زیرا یک نقص نرمافزاری باعث شد سامانه بهشدت خود را تاب دهد و دهها گلوله مرگبار را در کمتر از یکثانیه شلیک کند. طیِ آزمایشی در سال 2018، یک رُبات پزشکی، در کُشتن «استفن پِتیت» هنگام یک جراحی معمولی که چندسالقبل رخ داده بود، دست داشت! رُباتها (هوشمند و ...) دهههاست که مردم را میکُشند؛ و توسعه هوش مصنوعی پیشرفتهتر، تنها پتانسیل آسیبرساندن به ماشینها را افزایش داده است. خودروهای «خُودران» درحالحاضر در خیابانهای «آمریکا» هستند و «سگهای رُباتیک» توسط مجریان قانون استفاده میشوند. به سامانههای رایانهای این امکان داده میشود که از ابزارها استفاده کنند و به آنها اجازه میدهد مستقیماً بر دنیای فیزیکی تأثیر بگذارند. چرا باید نگران ظهور نظریِ یک برنامه قدرتمند و فوقهوشمند وقتی مشکلات فوریتری مقابلِ ما هستند، باشیم؟ مقررات باید شرکتها را سَمتِ «نوآوریِ ایمن» و نیز «نوآوری در ایمنی» سوق دهد؛ اما ما هنوز آنجا نیستیم. ازنظر تاریخی؛ «بلایای بزرگ» (انواع بلایا که بهطور ایدئال در الگوی هوش مصنوعیِ امروزی پیشبینی و از آن اجتناب میکنیم) باید رخ دهد تا مقررات را «تحریک» کند. «فاجعه کارخانه کفش گرُوِر» در سال 1905 منجر به تصویبِ مقرراتی شد که بر «عملکرد ایمن دیگهای بخار» حاکم بود. آنزمان، شرکتها ادعا میکردند که «ماشینهای بخار اتوماتیک» آنقدر پیچیدهاند که نمیتوان مقررات ایمنی را سریع و کامل درموردشان پیاده کرد؛ این البته، منجر به نادیدهگرفتهشدن نقصهای ایمنی و تشدید بلایا شد. تازمانیکه «انجمن مهندسین مکانیک آمریکا» (ASME) خواستار تجزیهوتحلیل ریسک و شفافیت شد، خطرات ناشی از این مخازن عظیمِ آب جوش که زمانی مرموز بهحساب میآمدند، بهراحتی قابلدرک شد. «آتشسوزی کارخانه تولید پیراهن تریانگل» (1911) منجر به وضع قوانینی درمورد دستگاههای «اسپرینکلر» (سامانه پاششی اطفاء حریق) و «خروجیهای اضطراری» شد؛ همانطورکه غرقشدن «تایتانیک» (بهعنوان حادثهای قابلپیشگیری) در سال 1912، منجر به قوانین جدیدی درمورد قایقهای نجات، ممیزی ایمنی و رادیوهای کُشتی شد. شاید بهترین نمونه دراینمورد، تکامل «اداره هوانوردی فدرال» (FAA) باشد. نرخِ تلفات در دهههای اول حملونقل هوایی، مقررات اجباری را تحمیل کرد که مستلزم پیشرفتهای جدید در قانون و فناوری بود. با شروع «قانون تجارت هوایی» (ACA) در 1926، کنگره تشخیص داد که ادغام فناوری هوافضا در زندگی مردم و اقتصاد، مستلزم بالاترین بررسیست. امروزه هر سانحه هواپیمایی دقیقاً بررسی و باعث ایجاد انگیزه در فناوریها و رویههای تازه میشود. هرگونه مقررات مربوط به رُباتهای صنعتی، ناشی از مقررات صنعتیِ موجود است که برای چندیندهه درحالتحول بوده. «قانون ایمنی و بهداشت شغلی» (OSHA) در 1970، استانداردهای ایمنی را برای ماشینآلات ایجاد کرد و «انجمن صنایع رُباتیک» که اکنون در انجمن خودکارسازی پیشرفته ادغام شده، از زمان ایجاد (1974)، در توسعه و بهروزرسانی «استانداردهای ایمنیِ رُبات» نقش اساسی داشته و با استانداردهایِ مختلف، بر «طراحی ایمن ذاتی، اقدامات حفاظتی و ارزیابیهای دقیق ریسک» برای رُباتهای صنعتی تأکید میکند. ازآنجاکه فناوری همچنان درحالتغییر است، دولتها نیاز دارند تا نحوه و زمان استفاده از رُباتها در جامعه را بهوضوح تنظیم کنند. قوانین باید روشن کنند چهکسی مسئول است و چه عواقب قانونی (زمانیکه اقدامات رُبات منجر به آسیب شود) درانتظار است. بله؛ تصادفات پیش میآید؛ اما آموزههای هوانوردی و ایمنی محیط کار نشان میدهد: حوادث، زمانی قابلپیشگیری هستند که علناً موردبحثوبررسیِ دقیق کارشناسان قرار گیرند. شرکتهای فعال در حوزه هوش مصنوعی و رُباتیک نمیخواهند این اتفاق بیفتد؛ مثلاً گزارش شده که OpenAI درجهتِ کاهش مقررات ایمنی و کاهش الزامات کیفیت هوش مصنوعی مبارزه؛ و طبق مقالهای در TIME؛ با مقامات اتحادیه اروپا علیه طبقهبندی مدلهایی مانند ChatGPT بهعنوان «پرخطر» که «الزامات قانونی سختگیرانه؛ ازجمله شفافیت، قابلیت ردیابی و نظارت انسانی» را بههمراه دارد، لابی کرده است. ظاهراً استدلال اینبودکه OpenAI قصد نداشت محصولات خود را درمعرضخطر قرار دهد (شبیه به لابیهای مالکان «تایتانیک» مبنیبراینکه کِشتی نباید ازنظر قایقهای نجات بازرسی شود؛ چراکه همهمنظوره بوده و میتواند در آبهای گرم که فاقد کوههای یخیست و مردم میتوانند روزها شناور شوند، حرکت کند). شرکتهای بزرگ تمایل دارند که فناوریهای رایانهای را توسعه دهند تا بارِ کاستیهای خود را بهطور خودخواهانه به جامعه منتقل؛ یا ادعا کنند مقررات ایمنی که از جامعه محافظت میکند، هزینههایی ناعادلانه بر شرکتها تحمیل میکند؛ یااینکه «خطوط پایه امنیتی»، نوآوری را «خفه» میکنند. ما قبلاً همه اینها را شنیدهایم و باید نسبت به چنین ادعاهایی بهشدت شک کنیم. مرگ انسان بهواسطه خطای احتمالیِ هوش مصنوعی، هیچ تفاوتی با تصادفِ ناشی از اشتباه رُباتها در گذشته، ندارد. آن رُباتهای صنعتی دچار «اختلال» شدند و اُپراتورهای انسانی که سعی در کمک داشتند، بهاشکالی نامنتظره کُشته شدند. از زمان اولین مرگ شناختهشده ناشی از این ویژگی (ژانویه 2016)، طبق برآورد گزارش رسمی؛ سامانه راننده خودکار اتومبیل «تِسلا»، در بیش از 40 مرگ نقش داشته است! خودرانهای این برند، با خواندنِ نادرست علائم جاده، انحراف ناگهانی سوی سایر خودروها یا درختان، برخورد با وسایلنقلیه خدماتی دارای علامتگذاریِ خاص؛ یا نادیدهگرفتن چراغقرمز، علائم ایست و ... طبق قابلیتهای هوشمندشان که در تبلیغات، بسیار روی آنها مانُور میدادند، عمل نکرده و فاجعه آفریدند. نگرانیِ یکسری از کارشناسان ایناستکه «رُباتهای کنترلشده با هوش مصنوعی» تحتِ لوایِ کارآمدی و «تصمیمگیری» برای کُشتن یکنفر جهتِ دستیابی به اهداف غیرشفاف و کنترلشده از راه دور، فراتر از «قتل تصادفی» اقدام میکنند. همانطورکه بهسمت آیندهای حرکت میکنیم که در آن، رُباتها به بخشی جداییناپذیر از زندگی تبدیل میشوند، نباید اینرا فراموش کنیم که «ایمنی»، بخش مهمی از نوآوریست. پیشرفت واقعیِ فناورانه، ناشی از بهکارگیری استانداردهای ایمنی جامع در تمامِ فناوریهاست؛ حتی در آیندهنگرترین و جذابترین دیدگاههای رُباتیک. با آموختن درسهایی از تلفات گذشته، میتوانیم پروتکلهای ایمنی را افزایش دهیم، نقصهای طراحی را اصلاح؛ و از «تلفات غیرضروریِ بیشتر» جلوگیری کنیم. دههها تجربه به ما شواهد تجربی برای هدایت اقداماتی بهسمت آیندهای امنتر با رُباتها داده است. اکنون، به «اراده سیاسی برای تنظیم» نیاز داریم.