رُبات‌ها؛ ناجیان فناوری یا قاتلان نیروی کار؟!

مصطفی رفعت

8 نوامبر 2023 بود که خبرگزاری «یونهاپ» گزارش داد: یک رُبات در «کره جنوبی» مردی را پس‌ازاینکه ظاهراً دستگاه نتوانست او را از جعبه‌های محصولاتی که درحال‌آماده‌سازی بودند، «متمایز» کُنَد، تا حد مرگ «لِه» کرد. این کارگرِ 40ساله، در‌حال‌بازرسیِ عملیات حسگرِ رُبات در یک مرکز توزیع محصولات کشاورزی مجهز به تجهیزاتِ رُباتیک در استان «گیونگ‌سانگ جنوبی» بود که این حادثه رخ داد. رُبات صنعتی که جعبه‌های پر از «فلفل دلمه‌ای» را بلند می‌کرد و روی پالت می‌گذاشت، گویا دچار اختلال شده و مرد را یک «جعبه» شناسایی کرد. درادامه، بازوی رُباتیک، بدنِ مرد را به‌سمت تسمه‌نقاله فشار داد و صورت و سینه او را لِه کرد. اگرچه مصدوم به بیمارستان منتقل شد؛ اما بعداً درگذشت. این البته ماجرای تازه‌ای دراین‌کشور نیست؛ مثلاً در مارس امسال نیز یک مرد 50‌ساله، پس از گیرافتادن توسط یک رُبات در حین کار در یک کارخانه تولید قطعات خودرو، «آسیب جدی» دید. بااینکه سال‌ها از اولین اخطارها درزمینه خطرآفرین‌بودنِ رُبات‌ها و هوشمندسازی‌های رُباتیک در کارخانه‌ها می‌گذرد؛ اما همچنان ازسوی بعضی کارشناسان، به رُبات‌ها در حوزه صنعت، به‌عنوان یک «مزیت» نگاه می‌شود و جدای از تأثیر منفیِ انکارناپذیرشان بر «نیروهای کار» و «اشتغال»؛ سعی شده تا بر خطراتِ ‌احتمالیِ حضور آن‌ها در محیط‌های کاری نیز سرپوش گذاشته شود و اگر کمتر اخباری دراین‌زمینه شنیده شده، به‌علتِ ایمن‌بودن کاملِ (یا کم‌خطربودن) خودکارسازی نیست؛ بلکه «سانسور رسانه‌ایِ» اِعمال‌شده بر رویدادهای مرتبط است. اتفاق مرگبار اخیر در «کره جنوبی»، موضوع چگونگیِ برخورد با «رُبات‌های قاتل در محل کار» و ضرورت ایجاد تضمین‌های امنیتی در به‌کارگیریِ آن‌ها را باردیگر پررنگ کرد.

25 ژانویه 1979: از «رابرت نیکلاس ویلیامز»؛ کارگر 25‌ساله در بخش ریخته‌گری شرکت «فورد‌موتور» در «میشیگان» خواسته شد قطعات یک واحد قفسه‌بندی عظیم را به‌صورت دستی بشمارد. ماشین پنج‌طبقه مخصوص بازیابی قطعات ریخته‌گری، قرائت‌های نادرست می‌دهد. «ویلیامز» وظیفه دارد بالا برود و بفهمد واقعاً چندقطعه وجود دارد. د‌رحالی‌که «ویلیامز» آنجاست و کارهایی را انجام می‌دهد که به او دستور داده شده؛ یک بازوی رُباتیِ ‌فعال، بی‌صدا سراغ مرد جوان می‌آید، به سرش ضربه می‌زند و بلافاصله او را می‌کُشد. طبق گزارش Knight-Ridder؛ رُبات به کار خود ادامه می‌دهد؛ اما «ویلیامز» 30‌دقیقه درحالی‌که مُرده است، آنجا افتاده؛ تا‌اینکه جسدش توسط همکاران نگرانش پیدا می‌شود. در آن روز زمستانی، «ویلیامز» اولین انسانی در تاریخ می‌شود که توسط یک رُبات کشته می‌شود. البته مرگی کاملاً غیر‌عمد. به‌سادگی هیچ سپری برای محافظت از «ویلیامز» وجود نداشت، هیچ آلارمی او را از نزدیک‌شدن بازوی دستگاه مطلع نکرد و هیچ فناوری در‌آن‌زمان نمی‌توانست رفتار رُبات را در حضور انسان تغییر دهد. در سال 1979، هوش مصنوعی آن‌قدر پیچیده نبود که بتواند کاری برای جلوگیری از چنین مرگی انجام دهد. هیئت‌منصفه موافقت کرد در طراحی رُبات، دقت کافی برای جلوگیری از مرگی این‌چنین، صورت نگرفته و نهایتاً خانواده «ویلیامز» برنده دعوی 10‌میلیون‌دلاری از صنایع Litton (سازنده رُبات) شدند.

گزارش 6 سپتامبر 2023 در نشریه آنلاین Atlantic باعنوان «رُبات‌ها مردم را می‌کُشند» می‌نویسد: انقلاب رُبات‌ها از مدت‌هاپیش آغاز شد و همین‌طور کُشتارشان! در سال 1979، یک رُبات در کارخانه ریخته‌گری شرکت «فوردموتور» دچار اختلال شد و «کارگران انسانی» متوجه شدند که به‌اندازه‌کافی سریع کار نمی‌کند؛ به‌این‌ترتیب از «رابرت ویلیامز» (25 ساله) خواسته شد تا برای کمک به جابجایی اشیاء، به یک قفسه ذخیره‌سازی برود. رُباتِ یک‌تُنی اما بی‌صدا به فعالیتش ادامه داد و ناگهان به سر «ویلیامز» کوبید و فوراً او را کُشت. طبق گزارش‌ها؛ این، اولین حادثه‌ای بود که در آن‌، رُباتی یک انسان را کُشت ... قطعاً که آخرینِ چنین فاجعه‌ای نیز نبود و با بسیار مواردِ دیگر دنبال شد. «کِنجی اورادا» در شرکت چندملیتیِ ژاپنیِ «صنایع سنگین کاوازاکی» (KHI) کار می‌کرد که در سال 1981 طیِ شرایط مشابه درگذشت. به‌‌ادعای «گابریل هالیوی» در کتابش «وقتی رُبات‌ها می‌کشند: هوش مصنوعی براساس قوانین کیفری» (2013)؛ رُبات، وقتی این مرد برای بازرسی می‌رفت، مسیرش را مسدود کرد و او را به‌مثابه یک تهدید و عاملِ اِخلال، کُشت! همان‌طورکه «هالیوی» بیان می‌کند، رُبات به‌سادگی تشخیص داد: «کارآمدترین راه برای حذف تهدید این‌بودکه کارگر را به‌سمت ماشین مجاور هل دهد!» از سال 1992 تا 2017، «رُبات‌های محل کار» مسئول 41 مرگ ثبت‌شده در «ایالات‌متحده» بوده‌اند و این البته به‌استثنای وقتی‌ست که آثار جانبیِ ناشی از خودکارسازی؛ مانند «ازدست‌دادن شغل» را درنظر بگیریم. یک توپ ضدهوایی رُباتیک در سال 2007، نُه سرباز «آفریقای جنوبی» را کُشت؛ زیرا یک نقص نرم‌افزاری باعث شد سامانه به‌شدت خود را تاب دهد و ده‌ها گلوله مرگبار را در کمتر از یک‌ثانیه شلیک کند. طیِ آزمایشی در سال 2018، یک رُبات پزشکی، در کُشتن «استفن پِتیت» هنگام یک جراحی معمولی که چندسال‌قبل رخ داده بود، دست داشت! رُبات‌ها (هوشمند و ...) دهه‌هاست که مردم را می‌کُشند؛ و توسعه هوش مصنوعی پیشرفته‌تر، تنها پتانسیل آسیب‌رساندن به ماشین‌ها را افزایش داده است. خودروهای «خُودران» درحال‌حاضر در خیابان‌های «آمریکا» هستند و «سگ‌های رُباتیک» توسط مجریان قانون استفاده می‌شوند. به سامانه‌های رایانه‌ای این امکان داده می‌شود که از ابزارها استفاده کنند و به آن‌ها اجازه می‌دهد مستقیماً بر دنیای فیزیکی تأثیر بگذارند. چرا باید نگران ظهور نظریِ یک برنامه قدرتمند و فوق‌هوشمند وقتی مشکلات فوری‌تری مقابلِ ما هستند، باشیم؟ مقررات باید شرکت‌ها را ‌سَمتِ «نوآوریِ ایمن» و نیز «نوآوری در ایمنی» سوق دهد؛ اما ما هنوز آنجا نیستیم. ازنظر تاریخی؛ «بلایای بزرگ» (انواع بلایا که به‌طور ایدئال در الگوی هوش مصنوعیِ امروزی پیش‌بینی و از آن اجتناب می‌کنیم) باید رخ دهد تا مقررات را «تحریک» کند. «فاجعه کارخانه کفش گرُوِر» در سال 1905 منجر به تصویبِ مقرراتی شد که بر «عملکرد ایمن دیگ‌های بخار» حاکم بود. آن‌زمان، شرکت‌ها ادعا می‌کردند که «ماشین‌های بخار اتوماتیک» آن‌قدر پیچیده‌اند که نمی‌توان مقررات ایمنی را سریع و کامل درموردشان پیاده کرد؛ این البته، منجر به نادیده‌گرفته‌شدن نقص‌های ایمنی و تشدید بلایا شد. تازمانی‌که «انجمن مهندسین مکانیک آمریکا» (ASME) خواستار تجزیه‌وتحلیل ریسک و شفافیت شد، خطرات ناشی از این مخازن عظیمِ آب جوش که زمانی مرموز به‌حساب می‌آمدند، به‌راحتی قابل‌درک شد. «آتش‌سوزی کارخانه تولید پیراهن تری‌انگل» (1911) منجر به وضع قوانینی درمورد دستگاه‌های «اسپرینکلر» (سامانه پاششی اطفاء حریق) و «خروجی‌های اضطراری» شد؛ همان‌طور‌که غرق‌شدن «تایتانیک» (به‌عنوان حادثه‌ای قابل‌پیشگیری) در سال 1912، منجر به قوانین جدیدی درمورد قایق‌های نجات، ممیزی ایمنی و رادیوهای کُشتی شد. شاید بهترین نمونه دراین‌مورد، تکامل «اداره هوانوردی فدرال» (FAA) باشد. نرخِ تلفات در دهه‌های اول حمل‌ونقل هوایی، مقررات اجباری را تحمیل کرد که مستلزم پیشرفت‌های جدید در قانون و فناوری بود. با شروع «قانون تجارت هوایی» (ACA) در 1926، کنگره تشخیص داد که ادغام فناوری هوافضا در زندگی مردم و اقتصاد، مستلزم بالاترین بررسی‌ست. امروزه هر سانحه هواپیمایی ‌دقیقاً بررسی و باعث ایجاد انگیزه در فناوری‌ها و رویه‌های تازه می‌شود. هرگونه مقررات مربوط به رُبات‌های صنعتی، ناشی از مقررات صنعتیِ موجود است که برای چندین‌دهه درحال‌تحول بوده. «قانون ایمنی و بهداشت شغلی» (OSHA) در 1970، استانداردهای ایمنی را برای ماشین‌آلات ایجاد کرد و «انجمن صنایع رُباتیک» که اکنون در انجمن خودکارسازی پیشرفته ادغام شده، از زمان ایجاد (1974)، در توسعه و به‌روزرسانی «استانداردهای ایمنیِ رُبات» نقش اساسی داشته و با استانداردهایِ مختلف، بر «طراحی ایمن ذاتی، اقدامات حفاظتی و ارزیابی‌های دقیق ریسک» برای رُبات‌های صنعتی تأکید می‌کند. ازآنجا‌که فناوری همچنان درحال‌تغییر است، دولت‌ها نیاز دارند تا نحوه و زمان استفاده از رُبات‌ها در جامعه را به‌وضوح تنظیم کنند. قوانین باید روشن کنند چه‌کسی مسئول است و چه عواقب قانونی (زمانی‌که اقدامات رُبات منجر به آسیب شود) درانتظار است. بله؛ تصادفات پیش می‌آید؛ اما آموزه‌های هوانوردی و ایمنی محیط کار نشان می‌دهد: حوادث، زمانی قابل‌پیشگیری هستند که علناً موردبحث‌وبررسیِ دقیق کارشناسان قرار گیرند. شرکت‌های فعال در حوزه هوش مصنوعی و رُباتیک نمی‌خواهند این اتفاق بیفتد؛ مثلاً گزارش شده که OpenAI درجهتِ کاهش مقررات ایمنی و کاهش الزامات کیفیت هوش مصنوعی مبارزه؛ و طبق مقاله‌ای در TIME؛ با مقامات اتحادیه اروپا علیه طبقه‌بندی مدل‌هایی مانند ChatGPT به‌عنوان «پرخطر» که «الزامات قانونی سخت‌گیرانه‌‌؛ ازجمله شفافیت، قابلیت ردیابی و نظارت انسانی» را به‌همراه دارد، لابی کرده است. ظاهراً استدلال این‌بودکه OpenAI قصد نداشت محصولات خود را درمعرض‌خطر قرار دهد (شبیه به لابی‌های مالکان «تایتانیک» مبنی‌براینکه کِشتی نباید ازنظر قایق‌های نجات بازرسی شود؛‌ چراکه همه‌منظوره بوده و می‌تواند در آب‌های گرم که فاقد کوه‌های یخی‌ست و مردم می‌توانند روزها شناور شوند، حرکت کند). شرکت‌های بزرگ تمایل دارند که فناوری‌های رایانه‌ای را توسعه دهند تا بارِ کاستی‌های خود را به‌طور خودخواهانه به جامعه منتقل؛ یا ادعا کنند مقررات ایمنی که از جامعه محافظت می‌کند، هزینه‌هایی ناعادلانه‌ بر شرکت‌ها تحمیل می‌کند؛ یااینکه «خطوط پایه امنیتی»، نوآوری را «خفه» می‌کنند. ما قبلاً همه این‌ها را شنیده‌ایم و باید نسبت به چنین ادعاهایی به‌شدت شک کنیم. مرگ انسان به‌واسطه خطای احتمالیِ هوش مصنوعی، هیچ تفاوتی با تصادفِ ناشی از اشتباه رُبات‌ها در گذشته، ندارد. آن رُبات‌های صنعتی دچار «اختلال» شدند و اُپراتورهای انسانی‌ که سعی در کمک داشتند، به‌‌اشکالی نامنتظره‌ کُشته شدند. از زمان اولین مرگ شناخته‌شده ناشی از این ویژگی (ژانویه 2016)، طبق برآورد گزارش رسمی؛ سامانه راننده خودکار اتومبیل «تِسلا»، در بیش از 40 مرگ نقش داشته است! خودران‌های این برند، با خواندنِ نادرست علائم جاده، انحراف ناگهانی سوی سایر خودروها یا درختان، برخورد با وسایل‌نقلیه خدماتی دارای علامت‌گذاریِ خاص؛ یا نادیده‌گرفتن چراغ‌قرمز، علائم ایست و ... طبق قابلیت‌های هوشمندشان که در تبلیغات، بسیار روی آن‌ها مانُور می‌دادند، عمل نکرده و فاجعه آفریدند. نگرانیِ یکسری از کارشناسان این‌است‌که «رُبات‌های کنترل‌شده با هوش مصنوعی» تحتِ لوایِ کارآمدی و «تصمیم‌گیری» برای کُشتن یک‌نفر جهتِ دستیابی به اهداف غیرشفاف و کنترل‌شده از راه دور، فراتر از «قتل تصادفی» اقدام می‌کنند. همان‌طورکه به‌سمت آینده‌ای حرکت می‌کنیم که در آن، رُبات‌ها به بخشی جدایی‌ناپذیر از زندگی تبدیل می‌شوند، نباید این‌را فراموش کنیم که «ایمنی»، بخش مهمی از نوآوری‌ست. پیشرفت واقعیِ فناورانه، ناشی از به‌کارگیری استانداردهای ایمنی جامع در تمامِ فناوری‌هاست؛ حتی در آینده‌نگرترین و جذاب‌ترین دیدگاه‌های رُباتیک. با آموختن درس‌هایی از تلفات گذشته، می‌توانیم پروتکل‌های ایمنی را افزایش دهیم، نقص‌های طراحی را اصلاح؛ و از «تلفات غیرضروریِ بیشتر» جلوگیری کنیم. دهه‌ها تجربه به ما شواهد تجربی برای هدایت اقداماتی به‌سمت آینده‌ای امن‌تر با رُبات‌ها داده است. اکنون، به «اراده سیاسی برای تنظیم» نیاز داریم.

ارسال دیدگاه شما

هفته‌نامه در یک نگاه
ویژه نامه
بالای صفحه