این میتواند آچاری را برای روند رو به رشد عناصر هوش مصنوعی در برنامههای اجتماعی ایجاد کند.
امروز، جاش هاولی، سناتور جمهوری خواه و ریچارد بلومنتال، سناتور دموکرات قانونی را معرفی کرد که به طور مؤثری از حمایت های بخش 230 برای شرکت های رسانه های اجتماعی در رابطه با محتوای تولید شده توسط هوش مصنوعی خارج می شود، که به این معنی است که پلتفرم ها می توانند مسئول انتشار مطالب مضر ایجاد شده از طریق ابزارهای هوش مصنوعی باشند.
طبق وب سایت Hawley:
“این قانون جدید دو حزبی روشن میکند که مصونیت بخش 230 در مورد ادعاهای مبتنی بر هوش مصنوعی مولد اعمال نمیشود و تضمین میکند که مصرفکنندگان ابزارهای مورد نیاز خود را برای محافظت از خود در برابر محتوای مضر تولید شده توسط آخرین پیشرفتهای فناوری هوش مصنوعی در اختیار دارند. برای مثال، «دیپفیکهای» تولید شده توسط هوش مصنوعی – تصاویر دروغین واقعی از افراد واقعی – در حال افزایش است. مردم عادی اکنون می توانند برای گفتن چیزهایی که هرگز نگفته اند یا کارهایی را انجام دهند که هرگز نخواهند گفت، عواقب ویرانگر زندگی را متحمل شوند. شرکت هایی که در این روند شریک هستند باید در دادگاه پاسخگو باشند.»
بخش 230 از ارائهدهندگان رسانههای اجتماعی در برابر مسئولیتهای قانونی در مورد محتوایی که کاربران در پلتفرمهای خود به اشتراک میگذارند محافظت میکند، با توضیح اینکه خود پلتفرمها ناشر یا خالق اطلاعات ارائهشده توسط کاربران نیستند. این تضمین میکند که شرکتهای رسانههای اجتماعی میتوانند سخنرانی آزاد و بازتری را تسهیل کنند – اگرچه بسیاری از سالها در حال حاضر استدلال میکنند که این دیگر بر اساس روشی که پلتفرمهای اجتماعی به طور انتخابی محتوای کاربر را تقویت و توزیع میکنند، قابل اجرا نیست.
تاکنون، هیچ یک از چالشهای مربوط به حمایتهای بخش 230، بر اساس تفسیر بهروز، در دادگاه مطرح نشده است. اما با این فشار جدید، سناتورهای آمریکایی به دنبال این هستند که از موج مولد هوش مصنوعی قبل از اینکه به یک روند بزرگتر تبدیل شود، پیشی بگیرند، که می تواند منجر به اطلاعات غلط گسترده و جعلی در سراسر برنامه های اجتماعی شود.
آنچه در متن فعلی لایحه کمتر مشخص است این است که این دقیقاً چه معنایی از نظر مسئولیت دارد. به عنوان مثال، اگر کاربری بخواهد تصویری را در DALL-E یا Midjourney ایجاد کند، سپس آن را در توییتر به اشتراک بگذارد، آیا توییتر مسئول آن خواهد بود یا سازندگان برنامههای هوش مصنوعی مولد که تصویر از آنجا منشا گرفته است؟
ویژگیهای موجود در اینجا میتواند بر انواع ابزارهایی که پلتفرمهای اجتماعی باید ایجاد کنند، تأثیر بگذارد، زیرا اسنپچت، تیکتاک، لینکدین، اینستاگرام و فیسبوک در حال حاضر با گزینههای یکپارچه هوش مصنوعی مولد آزمایش میکنند که کاربران را قادر میسازد چنین محتوایی را در هر برنامه ایجاد و توزیع کنند.
اگر قانون مربوط به توزیع باشد، هر اپلیکیشن اجتماعی باید فرآیندهای تشخیص و شفافیت خود را برای رسیدگی به این موارد به روز کند، در حالی که اگر مربوط به ایجاد باشد، میتواند آنها را در مسیر توسعه خود در حوزه هوش مصنوعی متوقف کند.
به نظر می رسد تصویب چنین لایحه ای بر اساس ملاحظات مختلف و تکامل ابزارهای هوش مصنوعی مولد برای سناتورها دشوار باشد. اما در هر صورت، این فشار افزایش نگرانی در میان دولتها و گروههای نظارتی را در مورد تأثیر بالقوه هوش مصنوعی مولد، و اینکه چگونه میتوانند چنین حرکتی را کنترل کنند، برجسته میکند.
از این نظر، احتمالاً میتوانید انتظار کشمکشهای حقوقی بیشتری بر سر مقررات هوش مصنوعی داشته باشید، زیرا ما با رویکردهای جدید برای مدیریت نحوه استفاده از این محتوا دست و پنجه نرم میکنیم.
این همچنین به حق نسخه برداری، مالکیت و ملاحظات مختلف دیگر در مورد محتوای هوش مصنوعی مربوط می شود که توسط قوانین فعلی پوشش داده نمی شود.
بهروزرسانی نشدن قوانین بهموقع برای برآورده کردن این الزامات در حال تحول، خطرات ذاتی دارد – با این حال، در عین حال، مقررات واکنشی میتواند مانع توسعه و پیشرفت کند.