لایحه پیشنهادی پلتفرم‌های اجتماعی را مسئول قانونی برای توزیع محتوای تولید شده توسط هوش مصنوعی می‌داند

لایحه پیشنهادی پلتفرم‌های اجتماعی را مسئول قانونی برای توزیع محتوای تولید شده توسط هوش مصنوعی می‌داند

این می‌تواند آچاری را برای روند رو به رشد عناصر هوش مصنوعی در برنامه‌های اجتماعی ایجاد کند.

امروز، جاش هاولی، سناتور جمهوری خواه و ریچارد بلومنتال، سناتور دموکرات قانونی را معرفی کرد که به طور مؤثری از حمایت های بخش 230 برای شرکت های رسانه های اجتماعی در رابطه با محتوای تولید شده توسط هوش مصنوعی خارج می شود، که به این معنی است که پلتفرم ها می توانند مسئول انتشار مطالب مضر ایجاد شده از طریق ابزارهای هوش مصنوعی باشند.

طبق وب سایت Hawley:

این قانون جدید دو حزبی روشن می‌کند که مصونیت بخش 230 در مورد ادعاهای مبتنی بر هوش مصنوعی مولد اعمال نمی‌شود و تضمین می‌کند که مصرف‌کنندگان ابزارهای مورد نیاز خود را برای محافظت از خود در برابر محتوای مضر تولید شده توسط آخرین پیشرفت‌های فناوری هوش مصنوعی در اختیار دارند. برای مثال، «دیپ‌فیک‌های» تولید شده توسط هوش مصنوعی – تصاویر دروغین واقعی از افراد واقعی – در حال افزایش است. مردم عادی اکنون می توانند برای گفتن چیزهایی که هرگز نگفته اند یا کارهایی را انجام دهند که هرگز نخواهند گفت، عواقب ویرانگر زندگی را متحمل شوند. شرکت هایی که در این روند شریک هستند باید در دادگاه پاسخگو باشند.»

بخش 230 از ارائه‌دهندگان رسانه‌های اجتماعی در برابر مسئولیت‌های قانونی در مورد محتوایی که کاربران در پلتفرم‌های خود به اشتراک می‌گذارند محافظت می‌کند، با توضیح اینکه خود پلتفرم‌ها ناشر یا خالق اطلاعات ارائه‌شده توسط کاربران نیستند. این تضمین می‌کند که شرکت‌های رسانه‌های اجتماعی می‌توانند سخنرانی آزاد و بازتری را تسهیل کنند – اگرچه بسیاری از سال‌ها در حال حاضر استدلال می‌کنند که این دیگر بر اساس روشی که پلت‌فرم‌های اجتماعی به طور انتخابی محتوای کاربر را تقویت و توزیع می‌کنند، قابل اجرا نیست.

تاکنون، هیچ یک از چالش‌های مربوط به حمایت‌های بخش 230، بر اساس تفسیر به‌روز، در دادگاه مطرح نشده است. اما با این فشار جدید، سناتورهای آمریکایی به دنبال این هستند که از موج مولد هوش مصنوعی قبل از اینکه به یک روند بزرگتر تبدیل شود، پیشی بگیرند، که می تواند منجر به اطلاعات غلط گسترده و جعلی در سراسر برنامه های اجتماعی شود.

آنچه در متن فعلی لایحه کمتر مشخص است این است که این دقیقاً چه معنایی از نظر مسئولیت دارد. به عنوان مثال، اگر کاربری بخواهد تصویری را در DALL-E یا Midjourney ایجاد کند، سپس آن را در توییتر به اشتراک بگذارد، آیا توییتر مسئول آن خواهد بود یا سازندگان برنامه‌های هوش مصنوعی مولد که تصویر از آنجا منشا گرفته است؟

ویژگی‌های موجود در اینجا می‌تواند بر انواع ابزارهایی که پلتفرم‌های اجتماعی باید ایجاد کنند، تأثیر بگذارد، زیرا اسنپ‌چت، تیک‌تاک، لینکدین، اینستاگرام و فیس‌بوک در حال حاضر با گزینه‌های یکپارچه هوش مصنوعی مولد آزمایش می‌کنند که کاربران را قادر می‌سازد چنین محتوایی را در هر برنامه ایجاد و توزیع کنند.

اگر قانون مربوط به توزیع باشد، هر اپلیکیشن اجتماعی باید فرآیندهای تشخیص و شفافیت خود را برای رسیدگی به این موارد به روز کند، در حالی که اگر مربوط به ایجاد باشد، می‌تواند آن‌ها را در مسیر توسعه خود در حوزه هوش مصنوعی متوقف کند.

به نظر می رسد تصویب چنین لایحه ای بر اساس ملاحظات مختلف و تکامل ابزارهای هوش مصنوعی مولد برای سناتورها دشوار باشد. اما در هر صورت، این فشار افزایش نگرانی در میان دولت‌ها و گروه‌های نظارتی را در مورد تأثیر بالقوه هوش مصنوعی مولد، و اینکه چگونه می‌توانند چنین حرکتی را کنترل کنند، برجسته می‌کند.

از این نظر، احتمالاً می‌توانید انتظار کشمکش‌های حقوقی بیشتری بر سر مقررات هوش مصنوعی داشته باشید، زیرا ما با رویکردهای جدید برای مدیریت نحوه استفاده از این محتوا دست و پنجه نرم می‌کنیم.

این همچنین به حق نسخه برداری، مالکیت و ملاحظات مختلف دیگر در مورد محتوای هوش مصنوعی مربوط می شود که توسط قوانین فعلی پوشش داده نمی شود.

به‌روزرسانی نشدن قوانین به‌موقع برای برآورده کردن این الزامات در حال تحول، خطرات ذاتی دارد – با این حال، در عین حال، مقررات واکنشی می‌تواند مانع توسعه و پیشرفت کند.

Related Posts

نتیجه‌ای پیدا نشد.

برای نوشتن دیدگاه باید وارد بشوید.
فهرست