شفاف‌سازی خطرات هوش مصنوعی با لایحه SB 53

سناتور اسکات وینر از ایالت کالیفرنیا با ارائه لایحه SB 53 به دنبال شفاف‌سازی خطرات هوش مصنوعی و بالا بردن سطح اطلاع‌رسانی درباره ریسک‌های ناشی از مدل‌های پیشرفته AI است. این لایحه پس از وتوی طرح گسترده‌تر سال گذشته (SB 1047) اکنون بر الزام گزارش‌های ایمنی شرکت‌های بزرگ متمرکز شده و شانس بالاتری برای تصویب در برابر امضای فرماندار دارد.

تلاش یک سناتور آمریکایی برای شفاف سازی خطرات
تلاش یک سناتور آمریکایی برای شفاف سازی خطرات

الزامات لایحه SB 53 برای شفاف‌سازی خطرات هوش مصنوعی

طبق متن لایحه، شرکت‌های هوش مصنوعی با درآمد سالانه بیش از ۵۰۰ میلیون دلار (نظیر OpenAI، گوگل و Anthropic) موظف می‌شوند گزارش‌هایی شامل موارد زیر منتشر کنند:

  • تشریح خطرات هوش مصنوعی در حوزه‌هایی مانند تولید سلاح‌های شیمیایی، حملات سایبری و تهدید مستقیم جان انسان‌ها
  • پروتکل‌های ایمنی و تست‌های پیش از استقرار مدل در محیط‌های واقعی
  • نتایج آزمایش‌های نفوذپذیری و سازوکارهای کنترل دسترسی به کد منبع

این گزارش‌ها باید به‌روزرسانی دوره‌ای (سالانه یا پس از هر نسخه جدید) داشته باشند تا روند شفاف‌سازی خطرات هوش مصنوعی پیوسته حفظ شود.


مسیرهای امن گزارشگری و پروژه CalCompute

لایحه SB 53 علاوه بر انتشار گزارش‌های ایمنی، دو ابزار حمایتی کلیدی دارد:

  • حمایت از افشاگران داخل شرکت‌ها برای گزارش‌گری بدون ترس از تلافی
  • ایجاد پروژه CalCompute: زیرساخت رایانش ابری عمومی برای پژوهشگران مستقل و دانشگاهی، به منظور بررسی بی‌طرف خطرات هوش مصنوعی

این دو اقدام، بستر همکاری میان بخش خصوصی، آکادمیا و دولت ایالتی را تقویت کرده و امکان تحلیل مستقل مدل‌ها را فراهم می‌کند.


نظرات شرکت‌ها درباره SB 53 متفاوت است. Anthropic و متا از آن استقبال کرده‌اند، اما OpenAI خواستار تدوین قوانین ایمنی در سطح فدرال شده است تا از تشتت حوزه‌های قضایی جلوگیری شود. با این حال، وینر معتقد است که شفاف‌سازی خطرات هوش مصنوعی نباید معطل بررسی‌های فدرال بماند و کالیفرنیا می‌تواند الگوی قانون‌گذاری ایمن را پیش از سایر ایالات ترسیم کند.

مجله اینترنتی ساتیا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *