آیا خود طبقه‌بندی پست‌های اجتماعی مشکلات کلیدی در تعدیل گفتار آنلاین را بهبود می‌بخشد؟

آیا خود طبقه‌بندی پست‌های اجتماعی مشکلات کلیدی در تعدیل گفتار آنلاین را بهبود می‌بخشد؟

تعدیل محتوا در حال حاضر موضوع داغ محافل رسانه‌های اجتماعی است، زیرا ایلان ماسک به اصلاح توییتر می‌پردازد، در حالی که همزمان اقدامات نظارتی گذشته را منتشر می‌کند تا نشان دهد که چگونه برنامه‌های رسانه‌های اجتماعی قدرت زیادی برای کنترل برخی بحث‌ها به دست آورده‌اند.

اما علی‌رغم اینکه ماسک نقص‌های درک شده در فرآیند را برجسته می‌کند، اکنون این سوال مطرح می‌شود که چگونه آن را برطرف می‌کنید؟ اگر نمی توان به تصمیمات محتوا به طور مؤثر در دستان تیم های کوچکی از مدیرانی که خود پلتفرم ها را بر عهده دارند اعتماد کرد، پس راه حل چیست؟

آزمایش متا با گروهی از کارشناسان خارجی، به طور کلی موفقیت‌آمیز بوده است، اما حتی در آن زمان، هیئت نظارت آن نمی‌تواند در مورد هر تصمیم محتوایی قضاوت کند، و متا به دلیل سانسور و سوگیری، علی‌رغم این ابزار جایگزین، همچنان مورد انتقاد شدید قرار می‌گیرد. درخواست تجدید نظر

در برخی از سطوح، برخی از عناصر تصمیم‌گیری ناگزیر بر مدیریت پلتفرم می‌افتد، مگر اینکه بتوان مسیر دیگری را تصور کرد.

آیا فیدهای جایگزین، بر اساس ترجیحات شخصی، می تواند راه دیگری برای رسیدگی به چنین مواردی باشد؟

برخی از پلتفرم ها در حال بررسی این موضوع هستند. طبق گزارش واشنگتن پست، TikTok در حال حاضر در حال بررسی مفهومی است که آن را «سطوح محتوا» می‌نامد تا از نمایش محتوای «بالغ» در فیدهای بینندگان جوان‌تر جلوگیری کند.

TikTok به طور فزاینده ای در این زمینه مورد بررسی قرار گرفته است، به ویژه در رابطه با روندهای چالش خطرناک، که شاهد کشته شدن برخی از جوانان در نتیجه شرکت در اقدامات خطرناک بوده است.

ایلان ماسک همچنین رویکرد کنترل محتوای مشابهی را به عنوان بخشی از دیدگاه گسترده‌تر خود برای توییتر 2.0 مطرح کرده است.

در نوع ماسک، کاربران توییت‌های خود را هنگام آپلود کردن، خود طبقه‌بندی می‌کنند و خوانندگان می‌توانند رتبه‌بندی بلوغ خود را نیز اعمال کنند تا به انتقال محتوای بالقوه مضر به یک دسته جداگانه کمک کنند.

نتیجه نهایی در هر دو مورد به این معنی است که کاربران می توانند از سطوح مختلف تجربه در برنامه – از “ایمن” که نظرات و بحث های شدیدتر را فیلتر می کند تا “فیلتر نشده” را انتخاب کنند (ماسک احتمالاً می رود. با “هاردکور”)، که تجربه کامل را به شما می دهد.

که از نظر تئوری جالب به نظر می رسد – اما در واقعیت، آیا کاربران در واقع توییت های خود را خود طبقه بندی می کنند و آیا آنها این رتبه بندی ها را به اندازه کافی درست می گیرند تا آن را به گزینه ای مناسب برای این نوع فیلتر تبدیل کنند؟

البته، این پلتفرم می‌تواند مجازات‌هایی را برای طبقه‌بندی نکردن یا طبقه‌بندی صحیح توییت‌های شما اعمال کند. شاید، برای متخلفان مکرر، همه توییت‌های آن‌ها به‌طور خودکار در بخش‌بندی شدیدتر فیلتر می‌شوند، در حالی که دیگران می‌توانند با نمایش محتوای خود در هر دو یا همه جریان‌ها، حداکثر دسترسی مخاطبان را به دست آورند.

برای انتخاب یک طبقه بندی در فرآیند ترکیب، به کار دستی بیشتری برای کاربران نیاز دارد، اما شاید این می تواند برخی از نگرانی ها را کاهش دهد؟

اما باز هم، این هنوز مانع استفاده از پلتفرم‌های اجتماعی برای تقویت سخنان نفرت‌انگیز و تحریک جنبش‌های خطرناک نمی‌شود.

در بیشتر مواردی که توییتر یا سایر برنامه‌های اجتماعی برای سانسور کاربران منتقل شده‌اند، به دلیل تهدید آسیب بوده است، نه به این دلیل که مردم لزوماً از نظرات ارائه‌شده آزرده خاطر می‌شوند.

برای مثال، زمانی که دونالد ترامپ، رئیس جمهور سابق آمریکا این پست را منتشر کرد:

توییتی از دونالد ترامپ

نگرانی این بود که مردم از اظهارنظر او “وقتی غارت شروع می شود، تیراندازی شروع می شود” مورد آزار و اذیت مردم قرار گیرند، نگرانی بیشتر این بود که حامیان ترامپ بتوانند این موضوع را اساساً مجوزی برای کشتن در نظر بگیرند و رئیس جمهور عملاً تأیید کرد. استفاده از نیروی مرگبار برای جلوگیری از غارتگران.

پلتفرم‌های اجتماعی، منطقاً نمی‌خواهند از ابزارهایشان برای گسترش آسیب‌های احتمالی به این طریق استفاده شود، و از این نظر، خودسانسوری یا انتخاب رتبه بلوغ برای پست‌های شما، این مشکل کلیدی را حل نخواهد کرد. فقط چنین نظراتی را از کاربرانی که ترجیح می دهند آن را نبینند پنهان کنید.

به عبارت دیگر، این بیشتر مبهم است تا بهبود امنیت – اما به نظر می رسد بسیاری معتقدند که مشکل اصلی این نیست که مردم می گویند و می خواهند چنین چیزهایی را آنلاین بگویند، بلکه این است که دیگران از چنین چیزهایی آزرده می شوند.

موضوع این نیست، و در حالی که پنهان کردن مطالب بالقوه توهین‌آمیز می‌تواند ارزشی در کاهش قرار گرفتن در معرض، به ویژه در مورد TikTok، برای مخاطبان جوان‌تر داشته باشد، اما هنوز نمی‌تواند مانع از استفاده مردم از پتانسیل دسترسی گسترده برنامه‌های اجتماعی برای گسترش نفرت شود. و فراخوان های خطرناک برای اقدام، که در واقع می تواند منجر به آسیب در دنیای واقعی شود.

در اصل، این یک پیشنهاد تکه تکه است، کاهش مسئولیت که در برخی موارد تأثیری خواهد داشت، اما مسئولیت اصلی پلتفرم‌های اجتماعی را بررسی نمی‌کند تا اطمینان حاصل شود که ابزارها و سیستم‌هایی که ایجاد کرده‌اند برای خطرناک استفاده نمی‌شوند. هدف

زیرا هستند و خواهند بود. پلتفرم های اجتماعی برای دامن زدن به ناآرامی های مدنی، قیام های سیاسی، شورش ها، کودتاهای نظامی و غیره استفاده شده است.

همین هفته، اقدام قانونی جدیدی علیه متا به دلیل اجازه دادن بهانتشار پست‌های خشونت‌آمیز و نفرت‌انگیز در اتیوپی در فیس‌بوک و شعله‌ور کردن جنگ داخلی خونین این کشور‘. این دعوی قضایی برای غرامت 2 میلیارد دلاری برای قربانیان خشونت های ناشی از آن شکایت کرده است.

این فقط در مورد نظرات سیاسی نیست که شما با آنها مخالف هستید، پلتفرم های رسانه های اجتماعی می توانند برای تحریک جنبش های واقعی و خطرناک استفاده شوند.

در چنین مواردی، هیچ مقداری از خودگواهی به احتمال زیاد کمکی نخواهد کرد – همیشه مسئولیتی بر عهده پلتفرم‌ها برای تنظیم قوانین خواهد بود تا اطمینان حاصل شود که این نوع از بدترین سناریوها مورد توجه قرار می‌گیرند.

این یا قوانین باید در سطح بالاتری توسط دولت ها و سازمان هایی که برای اندازه گیری تأثیر آن طراحی شده اند تنظیم شوند و بر اساس آن عمل کنند.

اما در نهایت، موضوع اصلی در اینجا در مورد پلتفرم‌های اجتماعی نیست که به مردم اجازه می‌دهند آنچه را که می‌خواهند بگویند و آنچه را دوست دارند به اشتراک بگذارند، همانطور که بسیاری از مدافعان «آزادی بیان» برای آن تلاش می‌کنند. در برخی سطوح، همیشه محدودیت‌هایی وجود خواهد داشت، همیشه نرده‌های محافظ وجود خواهد داشت، و گاهی اوقات، با توجه به پتانسیل تقویت پست‌های اجتماعی، ممکن است فراتر از قوانین کشور باشد.

هیچ پاسخ آسانی وجود ندارد، اما واگذاری آن به اراده مردم احتمالاً وضعیت بهتری را در همه جبهه ها به همراه نخواهد داشت.

Related Posts

نتیجه‌ای پیدا نشد.

برای نوشتن دیدگاه باید وارد بشوید.
فهرست