به گزارش تابش کوثر، شرکت آلفابت، مالک گوگل، بخش مهمی از اصول هوش مصنوعی خود را که مشخص میکرد این شرکت چه کاربردهایی را دنبال نخواهد کرد، از وبسایت خود حذف کرده است.
بر اساس تصاویری که بلومبرگ مشاهده کرده، این بخش شامل بندی با عنوان «کاربردهایی که دنبال نخواهیم کرد» بوده است که در آن به «فناوریهایی که باعث آسیب کلی میشوند یا احتمال آسیبرسانی دارند»، ازجمله تسلیحات، اشاره شده بود. این بخش اکنون دیگر در صفحه اصول هوش مصنوعی گوگل قابل مشاهده نیست.
گوگل در یک پست وبلاگی که روز سهشنبه منتشر کرد، نوشت: «ما معتقدیم که دموکراسیها باید در توسعه هوش مصنوعی پیشرو باشند، هدایتشده توسط ارزشهای اساسی مانند آزادی، برابری و احترام به حقوق بشر. همچنین بر این باوریم که شرکتها، دولتها و سازمانهایی که این ارزشها را به اشتراک میگذارند، باید برای ایجاد هوش مصنوعی که از مردم محافظت کند، رشد جهانی را ترویج دهد و امنیت ملی را حمایت کند، با یکدیگر همکاری کنند.»
حذف این بند، نگرانیهایی را در مورد نوع پروژههایی که گوگل ممکن است در آینده دنبال کند، ایجاد کرده است. مارگارت میچل، یکی از محققان سابق هوش مصنوعی گوگل، در واکنش به این تغییر گفت: «حذف این بخش به معنای از بین بردن تلاشهای بسیاری از افرادی است که در حوزه اخلاق هوش مصنوعی و فعالیتهای مدنی در گوگل کار کردهاند. اما مشکل بزرگتر این است که اکنون احتمال دارد گوگل بهطور مستقیم روی فناوریهایی کار کند که میتوانند منجر به کشتن انسانها شوند.»
گوگل هنوز به درخواستها برای توضیح در مورد برنامههای مشخص خود در این زمینه پاسخی نداده است.
م/110*
۱۷ بهمن ۱۴۰۳ - ۱۱:۲۵
گوگل بخشی از اصول هوش مصنوعی خود را که توسعه فناوریهای مضر، ازجمله سلاحها، را منع میکرد، حذف کرده است. این اقدام نگرانیهایی را درباره جهتگیری آینده این شرکت در حوزه فناوریهای نظامی برانگیخته است.
کد خبر 140402
نظر شما