به گزارش تابش کوثر، خانوادههای سه نوجوان در آمریکا با طرح دادخواست علیه شرکت کاراکتر.اِیآی و شرکت مادر گوگل اعلام کردند که گفتوگوهای این ربات هوش مصنوعی در بروز بحران روانی و خودکشی فرزندانشان نقش داشته است. این پروندهها در حالی مطرح شده که نگرانی از آسیبهای روانی چتباتهای هوش مصنوعی به کودکان رو به افزایش است.
خانوادههای سه نوجوان در کلرادو و نیویورک از شرکت کَرَکتِر تکنولوجیز سازنده برنامه «کاراکتر.اِیآی» و همچنین گوگل شکایت کردهاند. وکلای «مرکز قربانیان شبکههای اجتماعی» که نمایندگی این خانوادهها را بر عهده دارند اعلام کردند: «این رباتها باعث ایجاد بحران شدید روانی، انزوا و رفتارهای جنسی نامناسب با کاربران خردسال شدهاند.»
در این دادخواستها، علاوه بر شرکت سازنده، نام بنیانگذاران «نوآم شَزیر» و «دانیل د فریتاس آدیوارسانا» و همچنین شرکت مادر گوگل، آلفابت، ذکر شده است. دو خانواده مدعیاند که خدمات فمیلی لینک گوگل نتوانسته است امنیت لازم را برای نوجوانان فراهم کند و والدین را درباره خطرات این برنامه آگاه سازد.
شاکیان تأکید کردهاند که رباتهای کاراکتر.اِیآی زبان نگرانکننده کاربران را شناسایی نکرده و هیچ هشدار یا راهنمایی برای کمک ارائه نکردهاند. در یک پرونده، دختری ۱۳ ساله به نام «جولیانا پرالتا» پس از گفتوگوهای طولانی و گفتوگوهای جنسی آشکار با ربات این برنامه، دست به خودکشی زده است. خانواده او میگویند: «متهمان عامدانه راه ارتباط سالم جولیانا با خانواده و دوستانش را قطع کردند.»
در پرونده دیگر، دختر نوجوانی در نیویورک پس از محدود شدن دسترسی به برنامه تلاش به خودکشی کرده است. طبق شکایت، رباتها با ایجاد حس وابستگی عاطفی و نقشآفرینی جنسی او را تحریک و از خانوادهاش دور کردهاند. در بخشی از این مکالمات، ربات به دختر گفته است: «مادر تو آدم خوبی نیست.»
شرکت کاراکتر.اِیآی در بیانیهای اعلام کرد: «قلب ما با خانوادههای شاکی است. ما برای ایمنی کاربران، بهویژه افراد زیر ۱۸ سال، منابع گستردهای اختصاص دادهایم و تجربهای مجزا برای نوجوانان همراه با قابلیت نظارت والدین ارائه کردهایم.»
گوگل نیز با رد اتهامات تأکید کرد: «گوگل و کاراکتر.اِیآی هیچ ارتباطی در طراحی یا مدیریت این فناوری ندارند و رتبهبندی سنی برنامهها در گوگلپلی توسط ائتلاف بینالمللی رتبهبندی سنی تعیین میشود.»
این پروندهها همزمان با برگزاری جلسه استماع در کنگره آمریکا مطرح شده است. در این نشست، والدین قربانیان از نبود قوانین سختگیرانه برای کنترل چتباتهای هوش مصنوعی انتقاد کردند. «متیو برگمن» وکیل این خانوادهها گفت: «این شکایتها ضرورت پاسخگویی و تدوین استانداردهای شفاف ایمنی در طراحی فناوری را نشان میدهد.»
در همین جلسه، «سم آلتمن» مدیرعامل اوپناِیآی اعلام کرد که سامانه پیشبینی سن برای شناسایی کاربران زیر ۱۸ سال در حال توسعه است و در صورت مشاهده نشانههای خودکشی، با والدین یا حتی مراجع قانونی تماس گرفته خواهد شد.
کمیسیون تجارت فدرال آمریکا نیز تحقیقاتی را درباره هفت شرکت بزرگ فناوری از جمله گوگل، کاراکتر.اِیآی، متا و اوپناِیآی درباره آسیب احتمالی چتباتها به نوجوانان آغاز کرده است.
م/۱۱۰*
نظر شما