خودکشی نوجوانان آمریکایی پای هوش مصنوعی را به دادگاه کشاند

خانواده سه نوجوان در ایالت‌های کلرادو و نیویورک شرکت کَرَکتر تکنولوجیز و گوگل را به بی‌توجهی در حفاظت از کاربران خردسال متهم کردند.

 به گزارش تابش کوثر، خانواده‌های سه نوجوان در آمریکا با طرح دادخواست علیه شرکت کاراکتر.اِی‌آی و شرکت مادر گوگل اعلام کردند که گفت‌وگوهای این ربات هوش مصنوعی در بروز بحران روانی و خودکشی فرزندانشان نقش داشته است. این پرونده‌ها در حالی مطرح شده که نگرانی از آسیب‌های روانی چت‌بات‌های هوش مصنوعی به کودکان رو به افزایش است.

خانواده‌های سه نوجوان در کلرادو و نیویورک از شرکت کَرَکتِر تکنولوجیز سازنده برنامه «کاراکتر.اِی‌آی» و همچنین گوگل شکایت کرده‌اند. وکلای «مرکز قربانیان شبکه‌های اجتماعی» که نمایندگی این خانواده‌ها را بر عهده دارند اعلام کردند: «این ربات‌ها باعث ایجاد بحران شدید روانی، انزوا و رفتارهای جنسی نامناسب با کاربران خردسال شده‌اند.» 

در این دادخواست‌ها، علاوه بر شرکت سازنده، نام بنیان‌گذاران «نوآم شَزیر» و «دانیل د فریتاس آدی‌وارسانا» و همچنین شرکت مادر گوگل، آلفابت، ذکر شده است. دو خانواده مدعی‌اند که خدمات فمیلی لینک گوگل نتوانسته است امنیت لازم را برای نوجوانان فراهم کند و والدین را درباره خطرات این برنامه آگاه سازد.

شاکیان تأکید کرده‌اند که ربات‌های کاراکتر.اِی‌آی زبان نگران‌کننده کاربران را شناسایی نکرده و هیچ هشدار یا راهنمایی برای کمک ارائه نکرده‌اند. در یک پرونده، دختری ۱۳ ساله به نام «جولیانا پرالتا» پس از گفت‌وگوهای طولانی و گفت‌وگوهای جنسی آشکار با ربات این برنامه، دست به خودکشی زده است. خانواده او می‌گویند: «متهمان عامدانه راه ارتباط سالم جولیانا با خانواده و دوستانش را قطع کردند.»

در پرونده دیگر، دختر نوجوانی در نیویورک پس از محدود شدن دسترسی به برنامه تلاش به خودکشی کرده است. طبق شکایت، ربات‌ها با ایجاد حس وابستگی عاطفی و نقش‌آفرینی جنسی او را تحریک و از خانواده‌اش دور کرده‌اند. در بخشی از این مکالمات، ربات به دختر گفته است: «مادر تو آدم خوبی نیست.»

شرکت کاراکتر.اِی‌آی در بیانیه‌ای اعلام کرد: «قلب ما با خانواده‌های شاکی است. ما برای ایمنی کاربران، به‌ویژه افراد زیر ۱۸ سال، منابع گسترده‌ای اختصاص داده‌ایم و تجربه‌ای مجزا برای نوجوانان همراه با قابلیت نظارت والدین ارائه کرده‌ایم.»

گوگل نیز با رد اتهامات تأکید کرد: «گوگل و کاراکتر.اِی‌آی هیچ ارتباطی در طراحی یا مدیریت این فناوری ندارند و رتبه‌بندی سنی برنامه‌ها در گوگل‌پلی توسط ائتلاف بین‌المللی رتبه‌بندی سنی تعیین می‌شود.»

این پرونده‌ها همزمان با برگزاری جلسه استماع در کنگره آمریکا مطرح شده است. در این نشست، والدین قربانیان از نبود قوانین سخت‌گیرانه برای کنترل چت‌بات‌های هوش مصنوعی انتقاد کردند. «متیو برگمن» وکیل این خانواده‌ها گفت: «این شکایت‌ها ضرورت پاسخگویی و تدوین استانداردهای شفاف ایمنی در طراحی فناوری را نشان می‌دهد.»

در همین جلسه، «سم آلتمن» مدیرعامل اوپن‌اِی‌آی اعلام کرد که سامانه پیش‌بینی سن برای شناسایی کاربران زیر ۱۸ سال در حال توسعه است و در صورت مشاهده نشانه‌های خودکشی، با والدین یا حتی مراجع قانونی تماس گرفته خواهد شد.

کمیسیون تجارت فدرال آمریکا نیز تحقیقاتی را درباره هفت شرکت بزرگ فناوری از جمله گوگل، کاراکتر.اِی‌آی، متا و اوپن‌اِی‌آی درباره آسیب احتمالی چت‌بات‌ها به نوجوانان آغاز کرده است.

م/۱۱۰*

کد خبر 142269

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha