تعدیل محتوا در حال حاضر موضوع داغ محافل رسانههای اجتماعی است، زیرا ایلان ماسک به اصلاح توییتر میپردازد، در حالی که همزمان اقدامات نظارتی گذشته را منتشر میکند تا نشان دهد که چگونه برنامههای رسانههای اجتماعی قدرت زیادی برای کنترل برخی بحثها به دست آوردهاند.
اما علیرغم اینکه ماسک نقصهای درک شده در فرآیند را برجسته میکند، اکنون این سوال مطرح میشود که چگونه آن را برطرف میکنید؟ اگر نمی توان به تصمیمات محتوا به طور مؤثر در دستان تیم های کوچکی از مدیرانی که خود پلتفرم ها را بر عهده دارند اعتماد کرد، پس راه حل چیست؟
آزمایش متا با گروهی از کارشناسان خارجی، به طور کلی موفقیتآمیز بوده است، اما حتی در آن زمان، هیئت نظارت آن نمیتواند در مورد هر تصمیم محتوایی قضاوت کند، و متا به دلیل سانسور و سوگیری، علیرغم این ابزار جایگزین، همچنان مورد انتقاد شدید قرار میگیرد. درخواست تجدید نظر
در برخی از سطوح، برخی از عناصر تصمیمگیری ناگزیر بر مدیریت پلتفرم میافتد، مگر اینکه بتوان مسیر دیگری را تصور کرد.
آیا فیدهای جایگزین، بر اساس ترجیحات شخصی، می تواند راه دیگری برای رسیدگی به چنین مواردی باشد؟
برخی از پلتفرم ها در حال بررسی این موضوع هستند. طبق گزارش واشنگتن پست، TikTok در حال حاضر در حال بررسی مفهومی است که آن را «سطوح محتوا» مینامد تا از نمایش محتوای «بالغ» در فیدهای بینندگان جوانتر جلوگیری کند.
TikTok به طور فزاینده ای در این زمینه مورد بررسی قرار گرفته است، به ویژه در رابطه با روندهای چالش خطرناک، که شاهد کشته شدن برخی از جوانان در نتیجه شرکت در اقدامات خطرناک بوده است.
ایلان ماسک همچنین رویکرد کنترل محتوای مشابهی را به عنوان بخشی از دیدگاه گستردهتر خود برای توییتر 2.0 مطرح کرده است.
نکته خوبیه
این که بتوانید نسخه ای از توییتر را که می خواهید انتخاب کنید، احتمالاً بهتر است، همانطور که برای رتبه بندی بلوغ فیلم بهتر است.
رتبهبندی خود توییت را میتوان خود انتخاب کرد، سپس با بازخورد کاربر تغییر داد.
— ایلان ماسک (@elonmusk) 29 اکتبر 2022
در نوع ماسک، کاربران توییتهای خود را هنگام آپلود کردن، خود طبقهبندی میکنند و خوانندگان میتوانند رتبهبندی بلوغ خود را نیز اعمال کنند تا به انتقال محتوای بالقوه مضر به یک دسته جداگانه کمک کنند.
نتیجه نهایی در هر دو مورد به این معنی است که کاربران می توانند از سطوح مختلف تجربه در برنامه – از “ایمن” که نظرات و بحث های شدیدتر را فیلتر می کند تا “فیلتر نشده” را انتخاب کنند (ماسک احتمالاً می رود. با “هاردکور”)، که تجربه کامل را به شما می دهد.
که از نظر تئوری جالب به نظر می رسد – اما در واقعیت، آیا کاربران در واقع توییت های خود را خود طبقه بندی می کنند و آیا آنها این رتبه بندی ها را به اندازه کافی درست می گیرند تا آن را به گزینه ای مناسب برای این نوع فیلتر تبدیل کنند؟
البته، این پلتفرم میتواند مجازاتهایی را برای طبقهبندی نکردن یا طبقهبندی صحیح توییتهای شما اعمال کند. شاید، برای متخلفان مکرر، همه توییتهای آنها بهطور خودکار در بخشبندی شدیدتر فیلتر میشوند، در حالی که دیگران میتوانند با نمایش محتوای خود در هر دو یا همه جریانها، حداکثر دسترسی مخاطبان را به دست آورند.
برای انتخاب یک طبقه بندی در فرآیند ترکیب، به کار دستی بیشتری برای کاربران نیاز دارد، اما شاید این می تواند برخی از نگرانی ها را کاهش دهد؟
اما باز هم، این هنوز مانع استفاده از پلتفرمهای اجتماعی برای تقویت سخنان نفرتانگیز و تحریک جنبشهای خطرناک نمیشود.
در بیشتر مواردی که توییتر یا سایر برنامههای اجتماعی برای سانسور کاربران منتقل شدهاند، به دلیل تهدید آسیب بوده است، نه به این دلیل که مردم لزوماً از نظرات ارائهشده آزرده خاطر میشوند.
برای مثال، زمانی که دونالد ترامپ، رئیس جمهور سابق آمریکا این پست را منتشر کرد:

نگرانی این بود که مردم از اظهارنظر او “وقتی غارت شروع می شود، تیراندازی شروع می شود” مورد آزار و اذیت مردم قرار گیرند، نگرانی بیشتر این بود که حامیان ترامپ بتوانند این موضوع را اساساً مجوزی برای کشتن در نظر بگیرند و رئیس جمهور عملاً تأیید کرد. استفاده از نیروی مرگبار برای جلوگیری از غارتگران.
پلتفرمهای اجتماعی، منطقاً نمیخواهند از ابزارهایشان برای گسترش آسیبهای احتمالی به این طریق استفاده شود، و از این نظر، خودسانسوری یا انتخاب رتبه بلوغ برای پستهای شما، این مشکل کلیدی را حل نخواهد کرد. فقط چنین نظراتی را از کاربرانی که ترجیح می دهند آن را نبینند پنهان کنید.
به عبارت دیگر، این بیشتر مبهم است تا بهبود امنیت – اما به نظر می رسد بسیاری معتقدند که مشکل اصلی این نیست که مردم می گویند و می خواهند چنین چیزهایی را آنلاین بگویند، بلکه این است که دیگران از چنین چیزهایی آزرده می شوند.
موضوع این نیست، و در حالی که پنهان کردن مطالب بالقوه توهینآمیز میتواند ارزشی در کاهش قرار گرفتن در معرض، به ویژه در مورد TikTok، برای مخاطبان جوانتر داشته باشد، اما هنوز نمیتواند مانع از استفاده مردم از پتانسیل دسترسی گسترده برنامههای اجتماعی برای گسترش نفرت شود. و فراخوان های خطرناک برای اقدام، که در واقع می تواند منجر به آسیب در دنیای واقعی شود.
در اصل، این یک پیشنهاد تکه تکه است، کاهش مسئولیت که در برخی موارد تأثیری خواهد داشت، اما مسئولیت اصلی پلتفرمهای اجتماعی را بررسی نمیکند تا اطمینان حاصل شود که ابزارها و سیستمهایی که ایجاد کردهاند برای خطرناک استفاده نمیشوند. هدف
زیرا هستند و خواهند بود. پلتفرم های اجتماعی برای دامن زدن به ناآرامی های مدنی، قیام های سیاسی، شورش ها، کودتاهای نظامی و غیره استفاده شده است.
همین هفته، اقدام قانونی جدیدی علیه متا به دلیل اجازه دادن بهانتشار پستهای خشونتآمیز و نفرتانگیز در اتیوپی در فیسبوک و شعلهور کردن جنگ داخلی خونین این کشور‘. این دعوی قضایی برای غرامت 2 میلیارد دلاری برای قربانیان خشونت های ناشی از آن شکایت کرده است.
این فقط در مورد نظرات سیاسی نیست که شما با آنها مخالف هستید، پلتفرم های رسانه های اجتماعی می توانند برای تحریک جنبش های واقعی و خطرناک استفاده شوند.
در چنین مواردی، هیچ مقداری از خودگواهی به احتمال زیاد کمکی نخواهد کرد – همیشه مسئولیتی بر عهده پلتفرمها برای تنظیم قوانین خواهد بود تا اطمینان حاصل شود که این نوع از بدترین سناریوها مورد توجه قرار میگیرند.
این یا قوانین باید در سطح بالاتری توسط دولت ها و سازمان هایی که برای اندازه گیری تأثیر آن طراحی شده اند تنظیم شوند و بر اساس آن عمل کنند.
اما در نهایت، موضوع اصلی در اینجا در مورد پلتفرمهای اجتماعی نیست که به مردم اجازه میدهند آنچه را که میخواهند بگویند و آنچه را دوست دارند به اشتراک بگذارند، همانطور که بسیاری از مدافعان «آزادی بیان» برای آن تلاش میکنند. در برخی سطوح، همیشه محدودیتهایی وجود خواهد داشت، همیشه نردههای محافظ وجود خواهد داشت، و گاهی اوقات، با توجه به پتانسیل تقویت پستهای اجتماعی، ممکن است فراتر از قوانین کشور باشد.
هیچ پاسخ آسانی وجود ندارد، اما واگذاری آن به اراده مردم احتمالاً وضعیت بهتری را در همه جبهه ها به همراه نخواهد داشت.