اگر هنوز با جدیدترین ابزارهای هوش مصنوعی مولد آشنا نشده اید، احتمالاً باید شروع به بررسی آنها کنید، زیرا آنها در حال تبدیل شدن به عنصر بسیار بزرگتری در نحوه اتصال ما، در طیف وسیعی از عناصر در حال تکامل هستند.
امروز OpenAI GPT-4 را منتشر کرد که تکرار بعدی مدل هوش مصنوعی است که ChatGPT بر اساس آن ساخته شده است.
OpenAI می گوید که GPT-4 می تواند دست یابدعملکرد در سطح انسانی در طیف وسیعی از وظایف.
به عنوان مثال، یک آزمون وکالت شبیه سازی شده را با امتیازی در حدود 10 درصد از شرکت کنندگان برتر قبول می کند. در مقابل، امتیاز GPT-3.5 حدود 10 درصد پایین بود. ما 6 ماه را به طور مکرر برای هماهنگ کردن GPT-4 با استفاده از درسهایی از برنامه تست رقیب خود و همچنین ChatGPT صرف کردهایم که منجر به بهترین نتایج (هرچند دور از ایدهآل بودن) در مورد واقعی بودن، هدایت پذیری و امتناع از بیرون رفتن از نردههای محافظ شد.”
این نردههای محافظ مهم هستند، زیرا ChatGPT، در حالی که یک دستاورد فنی شگفتانگیز است، اغلب کاربران را با ارائه اطلاعات جعلی، ساختگی (“توهم”) یا مغرضانه به سمتی اشتباه سوق داده است.
یک نمونه اخیر از نقصهای این سیستم در اسنپ چت، از طریق سیستم جدید «هوش مصنوعی من» که بر روی همان کد پشتیبان ChatGPT ساخته شده است، نشان داده شد.
برخی از کاربران دریافتهاند که این سیستم میتواند اطلاعات نامناسبی را برای کاربران جوان فراهم کند، از جمله توصیههایی در مورد مصرف الکل و مواد مخدر، و نحوه پنهان کردن این اطلاعات از والدینتان.
نردههای محافظ بهبودیافته در برابر چنین مواردی محافظت میکنند، اگرچه هنوز خطرات ذاتی در استفاده از سیستمهای هوش مصنوعی وجود دارد که پاسخهایی را بر اساس طیف وسیعی از ورودیها ایجاد میکنند و از آن پاسخها «یادگیری» میکنند. با گذشت زمان، هیچ کس به طور قطع نمی داند که چه معنایی برای توسعه سیستم خواهد داشت – به همین دلیل است که برخی مانند گوگل نسبت به عرضه گسترده ابزارهای مولد هوش مصنوعی تا زمانی که مفاهیم کامل درک شوند هشدار داده اند.
اما حتی گوگل هم اکنون در حال پیشرفت است. تحت فشار مایکروسافت که به دنبال ادغام ChatGPT در همه برنامه های خود است، گوگل همچنین اعلام کرده است که هوش مصنوعی مولد را به Gmail، Docs و موارد دیگر اضافه خواهد کرد. در همان زمان، مایکروسافت اخیراً یکی از تیمهای کلیدی خود را که روی اخلاق هوش مصنوعی کار میکرد، کنار گذاشت – که با توجه به گسترش سریع استفاده از چنین ابزارهایی، به نظر بهترین زمانبندی نیست.
این ممکن است نشانه ای از زمان باشد، زیرا سرعت پذیرش، از نقطه نظر تجاری، بیشتر از نگرانی های مربوط به مقررات و استفاده مسئولانه از فناوری است. و ما قبلاً می دانیم که چگونه این اتفاق می افتد – قبل از اینکه متا و دیگران متوجه آسیب های احتمالی ناشی از چنین اطلاعاتی شوند، رسانه های اجتماعی نیز شاهد پذیرش سریع و توزیع گسترده داده های کاربران بودند.
به نظر میرسد که این درسها کنار گذاشته شدهاند و ارزش فوری بار دیگر در اولویت قرار گرفته است. و از آنجایی که ابزارهای بیشتری به بازار می آیند و ادغام بیشتر API های هوش مصنوعی در برنامه ها رایج می شود، به هر طریقی، احتمالاً در آینده نزدیک با حداقل برخی از این ابزارها تعامل خواهید داشت.
این برای کار، شغل شما چه معنایی دارد – هوش مصنوعی چگونه بر کاری که انجام میدهید تأثیر میگذارد و روند شما را بهبود میبخشد یا تغییر میدهد؟ باز هم، ما نمی دانیم، اما همانطور که مدل های هوش مصنوعی تکامل می یابند، ارزش آن را دارد که آنها را در جایی که می توانید آزمایش کنید، تا درک بهتری از نحوه اعمال آنها در زمینه های مختلف و آنچه می توانند برای گردش کار شما انجام دهند، داشته باشید.
قبلاً توضیح دادهایم که چگونه ChatGPT اصلی میتواند توسط بازاریابان رسانههای اجتماعی استفاده شود، و این نسخه بهبودیافته فقط بر این اساس است. GPT-4 همچنین میتواند با ورودیهای بصری کار کند، که توجه دیگری به فرآیند شما میافزاید.
اما مثل همیشه، باید مراقب باشید و اطمینان حاصل کنید که از محدودیت ها آگاه هستید.
طبق OpenAI:
GPT-4 با وجود قابلیت هایش، محدودیت هایی مشابه مدل های قبلی GPT دارد. مهمتر از همه، هنوز کاملاً قابل اعتماد نیست (واقعیت ها را “توهم” می کند و خطاهای استدلالی ایجاد می کند). هنگام استفاده از خروجیهای مدل زبان، بهویژه در زمینههای پرمخاطب، با پروتکل دقیق (مانند بررسی انسانی، ایجاد زمینه با زمینه اضافی، یا اجتناب از استفادههای پرمخاطره) که با نیازهای یک مورد خاص مطابقت دارد، باید دقت زیادی کرد. .”
ابزارهای هوش مصنوعی مکمل هستند و در حالی که خروجیهای آنها به سرعت در حال بهبود است، باید اطمینان حاصل کنید که زمینه کامل آنچه را که تولید میکنند را درک میکنید، به خصوص در رابطه با برنامههای حرفهای.
اما دوباره، آنها می آیند – ابزارهای هوش مصنوعی بیشتری در مکان های بیشتری ظاهر می شوند، و شما به زودی از آنها، به شکلی، در فرآیند روزانه خود استفاده خواهید کرد. این میتواند شما را تنبلتر کند، به چنین سیستمهایی وابستهتر شوید و تمایل بیشتری به اعتماد به ورودیهای آنها داشته باشید. اما مراقب باشید و از آنها در یک جریان مدیریت شده استفاده کنید – در غیر این صورت ممکن است متوجه شوید که به سرعت اعتبار خود را از دست می دهید.