همانطور که مدلهای هوش مصنوعی به سرعت پیشرفت میکنند و توسعهدهندگان بیشتر و بیشتری به دنبال ورود به حوزه هوش مصنوعی هستند، خطرات تکامل هوش مصنوعی نیز افزایش مییابد، در رابطه با سوء استفاده، اطلاعات نادرست، و بدتر از آن – سیستمهای هوش مصنوعی که ممکن است فراتر از درک انسان باشد و فراتر از آن باشد. هر کسی می توانست پیش بینی کند
مقیاس نگرانی در این زمینه می تواند به طور قابل توجهی تغییر کند، و امروز، نیک کلگ، رئیس امور جهانی متا، نظری را از طریق فایننشال تایمز به اشتراک گذاشته است که خواستار همکاری بیشتر صنعت و شفافیت در توسعه هوش مصنوعی به منظور مدیریت بهتر این موارد است. مشکلات بالقوه.
طبق گفته کلگ:
“بدترین هشدارها در مورد هوش مصنوعی در واقع در مورد یک جهش تکنولوژیکی – یا چندین جهش است. بین کاربردهای سبک چت بات مدلهای زبان بزرگ امروزی و مدلهای مرزی بزرگ که از نظر تئوری قادر به هوش فوقالعاده علمی تخیلی هستند، تفاوتهایی وجود دارد. اما ما هنوز در کوهپایه ها هستیم و در مورد خطراتی که ممکن است در قله کوه پیدا کنیم بحث می کنیم. اگر و زمانی که این پیشرفتها قابل قبولتر شوند، ممکن است نیاز به پاسخ متفاوتی داشته باشند. اما زمان برای توسعه فناوری و نردههای محافظ وجود دارد.»
اساساً، استدلال کلگ این است که ما باید همین الان، در مراحل اولیه توسعه هوش مصنوعی، قوانین گسترده تری را ایجاد کنیم تا آسیب احتمالی تغییرات بعدی را کاهش دهیم.
به منظور انجام این کار، کلگ مجموعه جدیدی از اصول مورد توافق را برای توسعه هوش مصنوعی پیشنهاد کرده است که بر شفافیت و همکاری بیشتر بین تمام پروژه های هوش مصنوعی تمرکز دارد.
تمرکز اصلی بر شفافیت و ارائه بینش بیشتر در مورد نحوه عملکرد پروژه های هوش مصنوعی است.
“در متا، ما اخیراً 22 «کارت سیستم» را برای فیسبوک و اینستاگرام منتشر کردهایم که به افراد بینشی در مورد هوش مصنوعی در پس نحوه رتبهبندی و توصیه محتوا به روشی که نیازی به دانش فنی عمیق ندارد، میدهد.
کلگ پیشنهاد میکند که همه پروژههای هوش مصنوعی بینش مشابهی را به اشتراک بگذارند – که در تضاد با هنجارهای صنعت محرمانه در چنین توسعهای است.
متا همچنین از توسعهدهندگان میخواهد که به پروژه «مشارکت در هوش مصنوعی» که متا یکی از اعضای موسس آن است، همراه با آمازون، گوگل، مایکروسافت و آیبیام بپیوندند.
ما در چارچوب آن برای اقدام جمعی در مورد رسانه های مصنوعی شرکت می کنیم، گام مهمی در حصول اطمینان از ایجاد نرده های محافظ حول محتوای تولید شده توسط هوش مصنوعی.
ایده این است که، از طریق همکاری، و بینش مشترک، این رهبران توسعه هوش مصنوعی می توانند قوانین و رویکردهای بهتری برای پیشرفت هوش مصنوعی ایجاد کنند، که به کاهش آسیب های احتمالی قبل از رسیدن به عموم کمک می کند.
کلگ همچنین تست استرس اضافی را برای تمام سیستم های هوش مصنوعی پیشنهاد می کند تا نگرانی های بالقوه را بهتر تشخیص دهد. و منبع باز تمام کارهای توسعه هوش مصنوعی، بنابراین دیگران می توانند در اشاره به نقص های احتمالی کمک کنند.
“یک فرض اشتباه این است که انتشار کد منبع یا وزن مدل، سیستم ها را آسیب پذیرتر می کند. برعکس، توسعهدهندگان و محققان خارجی میتوانند مشکلاتی را که تیمها را در داخل سیلوهای شرکت نگه میدارد، شناسایی کنند. محققانی که مدل زبان بزرگ متا، BlenderBot 2 را آزمایش کردند، دریافتند که میتواند برای به خاطر سپردن اطلاعات نادرست فریب داده شود. در نتیجه، BlenderBot 3 در برابر آن مقاومتر بود.
این یک حوزه مهم تمرکز است زیرا ما به مراحل بعدی ابزارهای هوش مصنوعی پیش می رویم، اما من همچنین شک دارم که بتوان هر نوع مشارکت صنعتی را برای ایجاد شفافیت کامل در پروژه های هوش مصنوعی ایجاد کرد.
پروژه ها در بسیاری از کشورها در حال انجام خواهند بود و بسیاری از آنها کمتر برای همکاری یا به اشتراک گذاری اطلاعات باز خواهند بود، در حالی که توسعه دهندگان هوش مصنوعی رقیب مایلند اسرار خود را نزدیک نگه دارند تا بتوانند در رقابت برتری داشته باشند. از این نظر، منطقی است که متا بخواهد یک سطح تفاهم گستردهتری ایجاد کند تا بتواند با پروژههای مرتبط همگام شود، اما ممکن است برای پروژههای کوچکتر اشتراکگذاری مشابهی با ارزش نباشد.
به خصوص با توجه به تاریخچه توسعه کپی متا.
ایلان ماسک که اخیراً به دشمن شماره یک زاکربرگ تبدیل شده است، همچنین در حال توسعه مدل های هوش مصنوعی خود است که به ادعای او عاری از تعصب سیاسی خواهد بود و من شک دارم که او علاقه مند باشد که این توسعه را با این اصول هماهنگ کند.
اما نکته اساسی مهم است – خطرات بزرگی در توسعه هوش مصنوعی وجود دارد، و میتوان آنها را از طریق همکاری گستردهتر کاهش داد، و کارشناسان بیشتری میتوانند قبل از اینکه چنین شوند، ایرادات و مشکلات بالقوه را ببینند.
منطقاً این منطقی است. اما از نظر عملی، فروش آن در چندین جبهه سخت خواهد بود.
میتوانید مقاله نیک کلگ در مورد مقررات هوش مصنوعی را اینجا بخوانید.