گوگل بند اخلاقی «عدم توسعه فناوری‌های مضر» را حذف کرد

گوگل بخشی از اصول هوش مصنوعی خود را که توسعه فناوری‌های مضر، ازجمله سلاح‌ها، را منع می‌کرد، حذف کرده است. این اقدام نگرانی‌هایی را درباره جهت‌گیری آینده این شرکت در حوزه فناوری‌های نظامی برانگیخته است.

به گزارش تابش کوثر، شرکت آلفابت، مالک گوگل، بخش مهمی از اصول هوش مصنوعی خود را که مشخص می‌کرد این شرکت چه کاربردهایی را دنبال نخواهد کرد، از وب‌سایت خود حذف کرده است.
بر اساس تصاویری که بلومبرگ مشاهده کرده، این بخش شامل بندی با عنوان «کاربردهایی که دنبال نخواهیم کرد» بوده است که در آن به «فناوری‌هایی که باعث آسیب کلی می‌شوند یا احتمال آسیب‌رسانی دارند»، ازجمله تسلیحات، اشاره شده بود. این بخش اکنون دیگر در صفحه اصول هوش مصنوعی گوگل قابل مشاهده نیست.
گوگل در یک پست وبلاگی که روز سه‌شنبه منتشر کرد، نوشت: «ما معتقدیم که دموکراسی‌ها باید در توسعه هوش مصنوعی پیشرو باشند، هدایت‌شده توسط ارزش‌های اساسی مانند آزادی، برابری و احترام به حقوق بشر. همچنین بر این باوریم که شرکت‌ها، دولت‌ها و سازمان‌هایی که این ارزش‌ها را به اشتراک می‌گذارند، باید برای ایجاد هوش مصنوعی که از مردم محافظت کند، رشد جهانی را ترویج دهد و امنیت ملی را حمایت کند، با یکدیگر همکاری کنند.»
حذف این بند، نگرانی‌هایی را در مورد نوع پروژه‌هایی که گوگل ممکن است در آینده دنبال کند، ایجاد کرده است. مارگارت میچل، یکی از محققان سابق هوش مصنوعی گوگل، در واکنش به این تغییر گفت: «حذف این بخش به معنای از بین بردن تلاش‌های بسیاری از افرادی است که در حوزه اخلاق هوش مصنوعی و فعالیت‌های مدنی در گوگل کار کرده‌اند. اما مشکل بزرگ‌تر این است که اکنون احتمال دارد گوگل به‌طور مستقیم روی فناوری‌هایی کار کند که می‌توانند منجر به کشتن انسان‌ها شوند.»
گوگل هنوز به درخواست‌ها برای توضیح در مورد برنامه‌های مشخص خود در این زمینه پاسخی نداده است.
م/110*

کد خبر 140402

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha