متا و مایکروسافت به چارچوب جدیدی در زمینه استفاده مسئولانه از هوش مصنوعی می پیوندند

متا و مایکروسافت به چارچوب جدیدی در زمینه استفاده مسئولانه از هوش مصنوعی می پیوندند

همانطور که ابزارهای مولد هوش مصنوعی همچنان در حال گسترش هستند، سؤالات بیشتری در مورد خطرات این فرآیندها مطرح می شود و چه اقدامات نظارتی می تواند برای محافظت از افراد در برابر نقض حق چاپ، اطلاعات نادرست، افترا و موارد دیگر اجرا شود.

و در حالی که مقررات گسترده‌تر دولتی گام ایده‌آل خواهد بود، اما به همکاری جهانی نیز نیاز دارد، که همانطور که در برنامه‌های کاربردی رسانه‌های دیجیتال گذشته دیده‌ایم، با توجه به رویکردها و نظرات متفاوت در مورد مسئولیت‌ها و اقدامات مورد نیاز، ایجاد آن دشوار است.

به این ترتیب، به احتمال زیاد گروه‌های صنعتی کوچکتر و شرکت‌های منفرد، اقدامات و قوانین کنترلی را به منظور کاهش خطرات مرتبط با ابزارهای هوش مصنوعی مولد اجرا می‌کنند.

به همین دلیل است که این می‌تواند گام مهمی باشد – امروز متا و مایکروسافت که اکنون سرمایه‌گذار کلیدی در OpenAI است، هر دو قرارداد مشارکت در هوش مصنوعی (PAI) را امضا کرده‌اند. روش های مسئول برای رسانه های مصنوعی ابتکار، که هدف آن ایجاد توافقنامه صنعتی در شیوه‌های مسئولانه در توسعه، ایجاد و به اشتراک گذاری رسانه ایجاد شده از طریق هوش مصنوعی مولد.

طبق PAI:

اولین چارچوب در نوع خود در ماه فوریه توسط PAI راه‌اندازی شد و با حمایت گروهی از شرکای راه‌اندازی از جمله Adobe، BBC، CBC/Radio-Canada، Bumble، OpenAI، TikTok، WITNESS و استارت‌آپ‌های رسانه مصنوعی Synthesia، D. -ID، و سخنگو. شرکای چارچوب اواخر این ماه در انجمن شرکای PAI در سال 2023 گرد هم می‌آیند تا درباره اجرای چارچوب از طریق مطالعات موردی بحث کنند و توصیه‌های عملی بیشتری برای حوزه هوش مصنوعی و یکپارچگی رسانه ایجاد کنند.

PAI می‌گوید که این گروه همچنین تلاش خواهد کرد تا راهنمایی‌های خود را در مورد افشای رسانه‌های مصنوعی مسئول روشن کند، در حالی که به پیامدهای فنی، قانونی و اجتماعی توصیه‌های پیرامون شفافیت نیز رسیدگی خواهد کرد.

همانطور که اشاره شد، این یک حوزه اهمیت به سرعت در حال افزایش است، که سناتورهای ایالات متحده اکنون نیز به دنبال آن هستند تا قبل از اینکه بیش از حد بزرگ شود برای تنظیم آن، در رأس آن قرار گیرند.

اوایل امروز، جاش هاولی، سناتور جمهوری خواه و ریچارد بلومنتال، سناتور دموکرات قانون جدید معرفی کرد که بخش 230 حمایت‌ها را برای شرکت‌های رسانه‌های اجتماعی که اشتراک‌گذاری محتوای تولید شده توسط هوش مصنوعی را تسهیل می‌کنند، حذف می‌کند، به این معنی که خود پلتفرم‌ها می‌توانند مسئول انتشار مطالب مضر ایجاد شده از طریق ابزارهای هوش مصنوعی باشند.

هنوز در این لایحه کارهای زیادی باید انجام شود و تصویب آن دشوار خواهد بود. اما این واقعیت که حتی پیشنهاد می‌شود، بر نگرانی‌های فزاینده مقامات نظارتی، به ویژه در مورد کفایت قوانین موجود برای پوشش خروجی‌های هوش مصنوعی مولد تأکید می‌کند.

PAI تنها گروهی نیست که برای ایجاد دستورالعمل های هوش مصنوعی کار می کند. گوگل قبلاً “اصول هوش مصنوعی مسئول” خود را منتشر کرده است، در حالی که LinkedIn و Meta نیز قوانین راهنمایی خود را در مورد استفاده از آن به اشتراک گذاشته اند، که دو مورد اخیر احتمالاً منعکس کننده بسیاری از مواردی است که این گروه جدید با آنها همسو خواهد شد. هر دو (به طور مؤثر) این چارچوب را امضا کردند.

این یک حوزه مهم است که باید در نظر گرفته شود، و مانند اطلاعات نادرست در برنامه های اجتماعی، واقعاً نباید به یک شرکت واحد، و یک مدیر منفرد خلاصه شود و تماس هایی را در مورد آنچه که قابل قبول است و یا غیرقابل قبول است برقرار کند، به همین دلیل است که گروه های صنعتی مانند این مواردی را پیشنهاد می کنند. امید به اجماع و اجرای گسترده تر.

اما با وجود این، مدتی طول می کشد – و ما حتی خطرات کامل مرتبط با هوش مصنوعی مولد را هنوز نمی دانیم. هرچه بیشتر مورد استفاده قرار گیرد، چالش‌های بیشتری ایجاد می‌شود و به مرور زمان، برای مقابله با سوءاستفاده‌های احتمالی و مبارزه با افزایش هرزنامه‌ها و ناخواسته‌هایی که از طریق سوء استفاده از چنین سیستم‌هایی تولید می‌شوند، به قوانین تطبیقی ​​نیاز خواهیم داشت.

Related Posts

نتیجه‌ای پیدا نشد.

برای نوشتن دیدگاه باید وارد بشوید.
فهرست