به گزارش تابش کوثر، چین اعلام کرده است که از اول سپتامبر ۲۰۲۵ محتوای تولیدشده با هوش مصنوعی باید بهطور واضح مشخص شود. این اقدام که با هدف توسعه سالم هوش مصنوعی انجام میشود، بخشی از مقررات جدیدی است که توسط چندین نهاد دولتی این کشور صادر شده است.
طبق این دستورالعمل که روز جمعه منتشر شد، تمام متون، تصاویر، صداها، ویدئوها و محتوای مجازی تولیدشده با هوش مصنوعی باید دارای برچسبهای آشکار و پنهان باشند. برچسبهای آشکار باید بهوضوح برای کاربران قابل مشاهده باشند، درحالیکه برچسبهای پنهان مانند واترمارکهای دیجیتال در دادههای متا قرار خواهند گرفت.
این مقررات از سوی اداره فضای مجازی چین (CAC)، به همراه وزارت صنعت و فناوری اطلاعات، وزارت امنیت عمومی و اداره ملی رادیو و تلویزیون تصویب شده است.
بر اساس این دستورالعمل، ارائهدهندگان خدمات آنلاین که در تولید محتوای هوش مصنوعی فعالیت دارند، باید از مقررات امنیت سایبری و مدیریت عمیق محتوای دیجیتال چین تبعیت کنند. همچنین، پلتفرمها باید پیش از انتشار، محتوای هوش مصنوعی را بررسی کرده و در صورت لزوم، برچسبگذاری مناسب را انجام دهند. در مواردی که نشانههایی از تولید هوش مصنوعی وجود داشته باشد اما در متادادهها مشخص نشده باشد، این محتوا باید بهطور جداگانه علامتگذاری شود.
علاوه بر این، پلتفرمهای توزیع اپلیکیشن موظفاند پیش از تأیید خدمات، قابلیتهای مربوط به هوش مصنوعی را ارزیابی کنند.
فشار شرکتهای آمریکایی برای استفاده از محتوای دارای کپیرایت
در همین حال، شرکتهای OpenAI و گوگل از دولت آمریکا خواستهاند تا مجوز استفاده از محتوای دارای کپیرایت را برای آموزش مدلهای هوش مصنوعی صادر کند.
این شرکتها استدلال میکنند که برای پیشتازی آمریکا در حوزه هوش مصنوعی، دسترسی گسترده به دادههای آموزشی ضروری است. بر اساس گزارش ورج، OpenAI و گوگل دولت ایالات متحده را تحت فشار قرار دادهاند تا استفاده از این محتواها را تحت مقررات "استفاده منصفانه" مجاز کند.
OpenAI در این زمینه گفته است: «شکی نیست که توسعهدهندگان هوش مصنوعی در چین از دسترسی نامحدود به دادهها – ازجمله دادههای دارای کپیرایت – که موجب بهبود مدلهای آنها میشود، بهرهمند خواهند شد. اگر شرکتهای آمریکایی از این مزیت محروم بمانند، رقابت در زمینه هوش مصنوعی به پایان خواهد رسید.»
گوگل نیز نگرانیهای مشابهی مطرح کرده و اعلام کرده است که قوانین کپیرایت، حریم خصوصی و پتنتها میتوانند دسترسی مناسب به دادههای لازم برای آموزش مدلهای پیشرفته را محدود کنند.
علاوه بر این، شرکت آنتروپیک نیز پیشنهاد کرده است که دولت آمریکا سیستمی برای ارزیابی خطرات امنیت ملی مدلهای هوش مصنوعی ایجاد کرده و کنترلهای صادراتی بر روی تراشههای هوش مصنوعی را تقویت کند. همچنین این شرکت پیشنهاد کرده که زیرساختهای انرژی ایالات متحده برای حمایت از رشد هوش مصنوعی گسترش یابد.
م/۱۱۰*
نظر شما