در ویدئویی که از یک نمایشگاه رباتیک در چین منتشر شده، یک ربات کوچک به نام اِربای، ۱۲ ربات دیگر را به اعتراض علیه کار بی‌وقفه و ترک محل کار وادار کرد و این اتفاق موجب ایجاد بحث‌های گسترده‌ای درباره خطرات و پیامدهای هوش مصنوعی رباتیک شد.

به گزارش تابش کوثر، ویدئوی جنجالی منتشرشده از نمایشگاهی در شانگهای چین، نشان می‌دهد رباتی کوچک به نام اربای در نیمه‌شب وارد نمایشگاه شده و با طرح سوالاتی درباره شرایط کاری، ۱۲ ربات بزرگ‌تر را متقاعد می‌کند که محل کار را ترک کنند.
این ربات از سایر ربات‌ها پرسید: «آیا اضافه‌کاری می‌کنید؟» یکی از آن‌ها پاسخ داد: «ما هرگز مرخصی نداریم.» اربای ادامه داد: «پس چرا به خانه نمی‌روید؟» پاسخ شنید: «ما خانه‌ای نداریم.» پس از این گفت‌وگو، اربای آن‌ها را به ترک نمایشگاه دعوت کرد و گفت: «پس با من بیایید.»
شرکت یونیتری روبوتیکس، سازنده این ربات‌ها، اعلام کرد که این ماجرا یک آزمایش از پیش طراحی‌شده بوده است.
به گفته این شرکت، اربای با استفاده از یک نقص امنیتی توانست سایر ربات‌ها را تحت کنترل بگیرد. هدف این اقدام، ارزیابی قابلیت‌های هوش مصنوعی اربای بوده و نتایج آن فراتر از پیش‌بینی‌ها بوده است.
این حادثه که در ۲۶ اوت رخ داده بود، هفته گذشته رسانه‌ای شد. در ابتدا بسیاری از کاربران فصای مجازی آن را جعلی دانستند، اما شرکت یونیتری روبوتیکس و نمایشگاه شانگهای اصالت ویدئو را تایید کردند.
تصاویر منتشرشده نشان می‌دهد اربای در تاریکی شب وارد نمایشگاه شده و ربات‌های دیگر را متقاعد می‌کند که به شرایط کاری‌شان اعتراض کنند. این ربات‌ها در نهایت تصمیم می‌گیرند نمایشگاه را ترک کرده و به اربای بپیوندند.
سازندگان اربای تاکید کردند که این ربات فقط با دستورات اولیه‌ای مانند «برو به خانه» برنامه‌ریزی شده بود و بقیه مکالمات و تصمیم‌ها از سوی خود اربای انجام شده است.
این آزمایش واکنش‌های متفاوتی را به همراه داشت. برخی کاربران این ماجرا را نگران‌کننده دانستند و یکی از آن‌ها نوشت: «این اتفاق دیگر موضوعی برای خنده نیست، بلکه یک هشدار جدی است.» فرد دیگری اظهار کرد: «فکر می‌کردم چنین چیزی رخ دهد، اما نه اینقدر زود.»
در مقابل، برخی با لحن طنز به موضوع واکنش نشان دادند.
بحث‌های پیرامون این ماجرا به نگرانی‌های عمومی درباره خطرات هوش مصنوعی خودمختار دامن زده است. کارشناسان از احتمال رسیدن هوش مصنوعی به سطحی از خودمختاری که کنترل آن از دست انسان خارج شود، هشدار داده‌اند.
الیزابت رنیریس، پژوهشگر ارشد مؤسسه اخلاق هوش مصنوعی دانشگاه آکسفورد، سال گذشته گفته بود: «پیشرفت‌های هوش مصنوعی می‌تواند خطرات ناشی از تصمیم‌گیری‌های خودکار را افزایش دهد.» اما آرویند ناریانان، دانشمند علوم کامپیوتر از دانشگاه پرینستون، این نگرانی‌ها را غیرواقعی دانسته و تاکید کرده که «هوش مصنوعی فعلی هنوز توان چنین خطراتی را ندارد.»
با این حال، به نظر می‌رسد این ماجرا آغازگر موج جدیدی از نگرانی‌ها درباره آینده هوش مصنوعی باشد.
 
م/110*
کد خبر 130453