متا اصول صنعت جدیدی را برای توسعه هوش مصنوعی پیشنهاد می کند

متا اصول صنعت جدیدی را برای توسعه هوش مصنوعی پیشنهاد می کند

همانطور که مدل‌های هوش مصنوعی به سرعت پیشرفت می‌کنند و توسعه‌دهندگان بیشتر و بیشتری به دنبال ورود به حوزه هوش مصنوعی هستند، خطرات تکامل هوش مصنوعی نیز افزایش می‌یابد، در رابطه با سوء استفاده، اطلاعات نادرست، و بدتر از آن – سیستم‌های هوش مصنوعی که ممکن است فراتر از درک انسان باشد و فراتر از آن باشد. هر کسی می توانست پیش بینی کند

مقیاس نگرانی در این زمینه می تواند به طور قابل توجهی تغییر کند، و امروز، نیک کلگ، رئیس امور جهانی متا، نظری را از طریق فایننشال تایمز به اشتراک گذاشته است که خواستار همکاری بیشتر صنعت و شفافیت در توسعه هوش مصنوعی به منظور مدیریت بهتر این موارد است. مشکلات بالقوه.

طبق گفته کلگ:

بدترین هشدارها در مورد هوش مصنوعی در واقع در مورد یک جهش تکنولوژیکی – یا چندین جهش است. بین کاربردهای سبک چت بات مدل‌های زبان بزرگ امروزی و مدل‌های مرزی بزرگ که از نظر تئوری قادر به هوش فوق‌العاده علمی تخیلی هستند، تفاوت‌هایی وجود دارد. اما ما هنوز در کوهپایه ها هستیم و در مورد خطراتی که ممکن است در قله کوه پیدا کنیم بحث می کنیم. اگر و زمانی که این پیشرفت‌ها قابل قبول‌تر شوند، ممکن است نیاز به پاسخ متفاوتی داشته باشند. اما زمان برای توسعه فناوری و نرده‌های محافظ وجود دارد.»

اساساً، استدلال کلگ این است که ما باید همین الان، در مراحل اولیه توسعه هوش مصنوعی، قوانین گسترده تری را ایجاد کنیم تا آسیب احتمالی تغییرات بعدی را کاهش دهیم.

به منظور انجام این کار، کلگ مجموعه جدیدی از اصول مورد توافق را برای توسعه هوش مصنوعی پیشنهاد کرده است که بر شفافیت و همکاری بیشتر بین تمام پروژه های هوش مصنوعی تمرکز دارد.

تمرکز اصلی بر شفافیت و ارائه بینش بیشتر در مورد نحوه عملکرد پروژه های هوش مصنوعی است.

در متا، ما اخیراً 22 «کارت سیستم» را برای فیس‌بوک و اینستاگرام منتشر کرده‌ایم که به افراد بینشی در مورد هوش مصنوعی در پس نحوه رتبه‌بندی و توصیه محتوا به روشی که نیازی به دانش فنی عمیق ندارد، می‌دهد.

کلگ پیشنهاد می‌کند که همه پروژه‌های هوش مصنوعی بینش مشابهی را به اشتراک بگذارند – که در تضاد با هنجارهای صنعت محرمانه در چنین توسعه‌ای است.

متا همچنین از توسعه‌دهندگان می‌خواهد که به پروژه «مشارکت در هوش مصنوعی» که متا یکی از اعضای موسس آن است، همراه با آمازون، گوگل، مایکروسافت و آی‌بی‌ام بپیوندند.

ما در چارچوب آن برای اقدام جمعی در مورد رسانه های مصنوعی شرکت می کنیم، گام مهمی در حصول اطمینان از ایجاد نرده های محافظ حول محتوای تولید شده توسط هوش مصنوعی.

ایده این است که، از طریق همکاری، و بینش مشترک، این رهبران توسعه هوش مصنوعی می توانند قوانین و رویکردهای بهتری برای پیشرفت هوش مصنوعی ایجاد کنند، که به کاهش آسیب های احتمالی قبل از رسیدن به عموم کمک می کند.

کلگ همچنین تست استرس اضافی را برای تمام سیستم های هوش مصنوعی پیشنهاد می کند تا نگرانی های بالقوه را بهتر تشخیص دهد. و منبع باز تمام کارهای توسعه هوش مصنوعی، بنابراین دیگران می توانند در اشاره به نقص های احتمالی کمک کنند.

یک فرض اشتباه این است که انتشار کد منبع یا وزن مدل، سیستم ها را آسیب پذیرتر می کند. برعکس، توسعه‌دهندگان و محققان خارجی می‌توانند مشکلاتی را که تیم‌ها را در داخل سیلوهای شرکت نگه می‌دارد، شناسایی کنند. محققانی که مدل زبان بزرگ متا، BlenderBot 2 را آزمایش کردند، دریافتند که می‌تواند برای به خاطر سپردن اطلاعات نادرست فریب داده شود. در نتیجه، BlenderBot 3 در برابر آن مقاوم‌تر بود.

این یک حوزه مهم تمرکز است زیرا ما به مراحل بعدی ابزارهای هوش مصنوعی پیش می رویم، اما من همچنین شک دارم که بتوان هر نوع مشارکت صنعتی را برای ایجاد شفافیت کامل در پروژه های هوش مصنوعی ایجاد کرد.

پروژه ها در بسیاری از کشورها در حال انجام خواهند بود و بسیاری از آنها کمتر برای همکاری یا به اشتراک گذاری اطلاعات باز خواهند بود، در حالی که توسعه دهندگان هوش مصنوعی رقیب مایلند اسرار خود را نزدیک نگه دارند تا بتوانند در رقابت برتری داشته باشند. از این نظر، منطقی است که متا بخواهد یک سطح تفاهم گسترده‌تری ایجاد کند تا بتواند با پروژه‌های مرتبط همگام شود، اما ممکن است برای پروژه‌های کوچک‌تر اشتراک‌گذاری مشابهی با ارزش نباشد.

به خصوص با توجه به تاریخچه توسعه کپی متا.

ایلان ماسک که اخیراً به دشمن شماره یک زاکربرگ تبدیل شده است، همچنین در حال توسعه مدل های هوش مصنوعی خود است که به ادعای او عاری از تعصب سیاسی خواهد بود و من شک دارم که او علاقه مند باشد که این توسعه را با این اصول هماهنگ کند.

اما نکته اساسی مهم است – خطرات بزرگی در توسعه هوش مصنوعی وجود دارد، و می‌توان آنها را از طریق همکاری گسترده‌تر کاهش داد، و کارشناسان بیشتری می‌توانند قبل از اینکه چنین شوند، ایرادات و مشکلات بالقوه را ببینند.

منطقاً این منطقی است. اما از نظر عملی، فروش آن در چندین جبهه سخت خواهد بود.

می‌توانید مقاله نیک کلگ در مورد مقررات هوش مصنوعی را اینجا بخوانید.

Related Posts

نتیجه‌ای پیدا نشد.

برای نوشتن دیدگاه باید وارد بشوید.
فهرست