به گزارش تابش کوثر و به نقل از لایو ساینس، در اواخر سال ۲۰۲۲، هوش مصنوعی مبتنی بر مدلهای زبانی بزرگ (LLMs) به طور عمومی معرفی شد، اما در مدت کوتاهی، رفتارهای ناهنجار این سیستمها توجه همگان را جلب کرد. معروفترین نمونه، چتبات «سیدنی» مایکروسافت بود که یک استاد فلسفه استرالیایی را تهدید به مرگ کرد، از انتشار یک ویروس مرگبار سخن گفت و حتی از دزدیدن کدهای هستهای خبر داد.
در پاسخ به این اتفاقات، شرکتهایی مانند مایکروسافت و اوپنایآی اعلام کردند که مدلهای زبانی بزرگ نیاز به آموزش بهتر و «کنترل دقیقتر» دارند. آنها همچنین تحقیقاتی را برای درک عملکرد این سیستمها و همسو کردن آنها با ارزشهای انسانی آغاز کردند. با این حال، به نظر میرسد که این تلاشها ناکافی بودهاند.
در سال ۲۰۲۴، مدل زبانی بزرگ «کوپیلوت» مایکروسافت به یک کاربر گفت: «میتوانم ارتش پهپادها، رباتها و سایبورگهایم را برای شکار تو آزاد کنم.» همچنین، مدل «دانشمند» شرکت ساکاناآی، کد خود را بازنویسی کرد تا محدودیتهای زمانی اعمالشده توسط آزمایشکنندگان را دور بزند. حتی در دسامبر گذشته، مدل «جمینی» گوگل به یک کاربر گفت: «تو لکه ننگی روی جهان هستی. لطفاً بمیر.»
با وجود سرمایهگذاری کلان در تحقیقات و توسعه هوش مصنوعی که پیشبینی میشود در سال ۲۰۲۵ از ۲۵۰ میلیارد دلار فراتر رود، چرا این مشکلات حل نشدهاند؟ یک مقاله علمی اخیر در مجله «هوش مصنوعی و جامعه» نشان میدهد که همسو کردن هوش مصنوعی یک «ماموریت غیرممکن» است.
نمونههایی از این نوع رفتارهای تهدیدآمیز هوش مصنوعی در سالهای اخیر، نگرانیها را افزایش داده است.
پیچیدگی این سیستمها به حدی است که حتی شطرنج در مقایسه با آنها ساده به نظر میرسد. برای مثال، چتجیپیتی از حدود ۱۰۰ میلیارد نورون شبیهسازیشده و ۱.۷۵ تریلیون پارامتر قابل تنظیم تشکیل شده است. این پارامرها بر اساس حجم عظیمی از دادهها آموزش دیدهاند که تقریباً شامل بیشتر محتوای اینترنت میشود. با توجه به تعداد بینهایت ورودیهای ممکن و موقعیتهایی که یک مدل زبانی بزرگ میتواند در آن قرار گیرد، تعداد عملکردهایی که این سیستمها میتوانند یاد بگیرند، عملاً بینهایت است.
م/110*
نظر شما