همانطور که ابزارهای مولد هوش مصنوعی همچنان در حال گسترش هستند، سؤالات بیشتری در مورد خطرات این فرآیندها مطرح می شود و چه اقدامات نظارتی می تواند برای محافظت از افراد در برابر نقض حق چاپ، اطلاعات نادرست، افترا و موارد دیگر اجرا شود.
و در حالی که مقررات گستردهتر دولتی گام ایدهآل خواهد بود، اما به همکاری جهانی نیز نیاز دارد، که همانطور که در برنامههای کاربردی رسانههای دیجیتال گذشته دیدهایم، با توجه به رویکردها و نظرات متفاوت در مورد مسئولیتها و اقدامات مورد نیاز، ایجاد آن دشوار است.
به این ترتیب، به احتمال زیاد گروههای صنعتی کوچکتر و شرکتهای منفرد، اقدامات و قوانین کنترلی را به منظور کاهش خطرات مرتبط با ابزارهای هوش مصنوعی مولد اجرا میکنند.
به همین دلیل است که این میتواند گام مهمی باشد – امروز متا و مایکروسافت که اکنون سرمایهگذار کلیدی در OpenAI است، هر دو قرارداد مشارکت در هوش مصنوعی (PAI) را امضا کردهاند. روش های مسئول برای رسانه های مصنوعی ابتکار، که هدف آن ایجاد توافقنامه صنعتی در شیوههای مسئولانه در توسعه، ایجاد و به اشتراک گذاری رسانه ایجاد شده از طریق هوش مصنوعی مولد.
طبق PAI:
“اولین چارچوب در نوع خود در ماه فوریه توسط PAI راهاندازی شد و با حمایت گروهی از شرکای راهاندازی از جمله Adobe، BBC، CBC/Radio-Canada، Bumble، OpenAI، TikTok، WITNESS و استارتآپهای رسانه مصنوعی Synthesia، D. -ID، و سخنگو. شرکای چارچوب اواخر این ماه در انجمن شرکای PAI در سال 2023 گرد هم میآیند تا درباره اجرای چارچوب از طریق مطالعات موردی بحث کنند و توصیههای عملی بیشتری برای حوزه هوش مصنوعی و یکپارچگی رسانه ایجاد کنند.
PAI میگوید که این گروه همچنین تلاش خواهد کرد تا راهنماییهای خود را در مورد افشای رسانههای مصنوعی مسئول روشن کند، در حالی که به پیامدهای فنی، قانونی و اجتماعی توصیههای پیرامون شفافیت نیز رسیدگی خواهد کرد.
همانطور که اشاره شد، این یک حوزه اهمیت به سرعت در حال افزایش است، که سناتورهای ایالات متحده اکنون نیز به دنبال آن هستند تا قبل از اینکه بیش از حد بزرگ شود برای تنظیم آن، در رأس آن قرار گیرند.
اوایل امروز، جاش هاولی، سناتور جمهوری خواه و ریچارد بلومنتال، سناتور دموکرات قانون جدید معرفی کرد که بخش 230 حمایتها را برای شرکتهای رسانههای اجتماعی که اشتراکگذاری محتوای تولید شده توسط هوش مصنوعی را تسهیل میکنند، حذف میکند، به این معنی که خود پلتفرمها میتوانند مسئول انتشار مطالب مضر ایجاد شده از طریق ابزارهای هوش مصنوعی باشند.
هنوز در این لایحه کارهای زیادی باید انجام شود و تصویب آن دشوار خواهد بود. اما این واقعیت که حتی پیشنهاد میشود، بر نگرانیهای فزاینده مقامات نظارتی، به ویژه در مورد کفایت قوانین موجود برای پوشش خروجیهای هوش مصنوعی مولد تأکید میکند.
PAI تنها گروهی نیست که برای ایجاد دستورالعمل های هوش مصنوعی کار می کند. گوگل قبلاً “اصول هوش مصنوعی مسئول” خود را منتشر کرده است، در حالی که LinkedIn و Meta نیز قوانین راهنمایی خود را در مورد استفاده از آن به اشتراک گذاشته اند، که دو مورد اخیر احتمالاً منعکس کننده بسیاری از مواردی است که این گروه جدید با آنها همسو خواهد شد. هر دو (به طور مؤثر) این چارچوب را امضا کردند.
این یک حوزه مهم است که باید در نظر گرفته شود، و مانند اطلاعات نادرست در برنامه های اجتماعی، واقعاً نباید به یک شرکت واحد، و یک مدیر منفرد خلاصه شود و تماس هایی را در مورد آنچه که قابل قبول است و یا غیرقابل قبول است برقرار کند، به همین دلیل است که گروه های صنعتی مانند این مواردی را پیشنهاد می کنند. امید به اجماع و اجرای گسترده تر.
اما با وجود این، مدتی طول می کشد – و ما حتی خطرات کامل مرتبط با هوش مصنوعی مولد را هنوز نمی دانیم. هرچه بیشتر مورد استفاده قرار گیرد، چالشهای بیشتری ایجاد میشود و به مرور زمان، برای مقابله با سوءاستفادههای احتمالی و مبارزه با افزایش هرزنامهها و ناخواستههایی که از طریق سوء استفاده از چنین سیستمهایی تولید میشوند، به قوانین تطبیقی نیاز خواهیم داشت.