۰ نفر

پلتفرم یا کاربر؛ مسئول محتوا کیست؟

۵ آبان ۱۳۹۹، ۱۵:۰۱
کد خبر: 476727
پلتفرم یا کاربر؛ مسئول محتوا کیست؟

بحث حکم اخیر درباره یکی از سایت‌های کشور حالا جنجالی شده است، اما ماجرای مسئولیت محتوا در پلتفرم‌ها مدت‌هاست در جهان ادامه دارد.

به گزارش اقتصادآنلاین به نقل از همشهری، پس از آنکه روابط عمومی آپارات اعلام کرد مدیرعامل این پلتفرم به‌خاطر بارگذاری یک ویدئو از سوی کاربری در دادگاه بدوی به 10سال حبس محکوم شد، بار دیگر بحث در مورد یک موضوع داغ شده است. آیا پلتفرم مسئول محتوای بارگذاری‌شده یا پست‌شده از سوی کاربر است یا مسئولیت محتوا بر عهده کاربر است.

براساس ماده23 قانون جرایم رایانه‌ای «ارائه‌دهندگان خدمات میزبانی موظفند به محض دریافت دستور کارگروه (کمیته) تعیین مصادیق مذکور در ماده فوق یا مقام قضایی رسیدگی‌کننده به پرونده مبنی بر وجود محتوای مجرمانه در سامانه‌های‎ رایانه‎ای خود از ادامه دسترسی به آن ممانعت به عمل آورند. چنانچه عمدا از اجرای دستور کارگروه (کمیته) یا مقام قضایی خودداری کنند، منحل خواهند شد.» این قانون همچنین مجازاتی را در 3مرحله از جریمه نقدی تا تعطیلی موقت پلتفرم از یک تا 3سال درنظر گرفته است. ظاهرا آپارات هم با استناد به این ماده قانونی به رأی صادره اعتراض کرده است.

همچنین محمدجواد آذری جهرمی، وزیر ارتباطات چندی پیش در یک برنامه تلویزیونی با لحنی منتقدانه به همین موضوع اشاره کرده بود. مضمون حرف او این بود که اگر یک کاربر محتوایی مجرمانه را در یک پلتفرم قرار دهد، مدیر پلتفرم از سوی مراجع قضایی احضار می‌شود.

با این حال، به‌نظر می‌رسد آنچه باعث صدور رأی علیه مدیرعامل آپارات شده است، استناد به اظهارات عوامل تهیه این ویدئو و مواد دیگری از قانون جرایم رایانه‌ای است. عوامل تولید ویدئو می‌گویند خود آپارات این ویدئو را درحالی‌که حدود 100بازدید داشته به صفحه اول پلتفرم می‌برد و پس از آنکه 7هزار بار دیده می‌شود، مورد اعتراض مردم قرار می‌گیرد. به این ترتیب دادسرای ارشاد عوامل تولید این ویدئو را احضار می‌کند و از آنها در این‌باره توضیح می‌خواهند. روزنامه  برای روشن‌شدن موضوع، با مدیرعامل آپارات تماس گرفت، اما او از گفت‌وگو درباره این موضوع امتناع کرد.

پشتیبانی از پلتفرم‌ها در دنیا

قبل از هرچیز باید به این نکته توجه کرد که مسئولیت پلتفرم‌ها در برابر محتوای ارسال‌شده از سوی کاربران، موضوعی جهانی است. اگرچه ماده230 قانون حفظ حرمت ارتباطات (CDA) از پلتفرم‌های آمریکایی در این موضوع حمایت می‌کند، اما امکان احضار آنها از سوی مراجع مرتبط همیشه محتمل است. بر این اساس، چندی پیش کنگره آمریکا به احضار مدیران گوگل، فیس‌بوک و توییتر رأی داد تا در مورد سیاست‌های این شرکت‌ها درباره محتوای منتشر‌شده در این پلتفرم‌ها به پرسش‌های سناتورها پاسخ دهند. این احضار پس از نخستین مناظره 2کاندیدای ریاست‌جمهوری آمریکا و پخش‌شدن اظهارات آنها در اینترنت و شبکه‌های اجتماعی صورت گرفت. اتحادیه اروپا هم به‌تازگی تصمیم گرفته که فشار بر رسانه‌های اجتماعی را افزایش دهد و آنها را برابر مطالب منتشر‌شده پاسخگوتر از پیش کند. به همین منظور احتمالا این اتحادیه تا پایان سال‌جاری میلادی «قانون سرویس‌های دیجیتال» را ارائه می‌کند که براساس آن، مسئولیت و تعهد رسانه‌های اجتماعی در برابر محتوایی که بر بستر پلتفر‌م‌شان منتشر می‌شود، افزایش خواهد یافت. اتحادیه اروپا در سال2018 با شرکت‌های فناوری به توافقی دست یافت که شبکه‌های اجتماعی بتوانند بر حسب قوانین خودتنظیمی این شرکت‌ها، محتوای فیک، نامناسب و غیرقانونی را از پلتفرم‌هایشان حذف کنند. اما ظاهرا این اتحادیه به این نتیجه رسیده که صرف تکیه به این قوانین خودتنظیمی، تضمینی برای پاسخگو بودن پلتفرم‌ها نیست، از این‌رو تلاش می‌کند که «قانون سرویس‌های دیجیتال» را به تصویب برساند.

مسئولیت پلتفرم‌ها

یکی از تکالیف پلتفرم‌ها مسئولیت اجتماعی آنهاست. به همین‌خاطر بسیاری از پلتفرم‌ها مانند توییتر یا فیس‌بوک با استفاده از برچسب‌هایی، مشخص می‌کنند که محتوای منتشر‌شده می‌تواند نادرست باشد.

یکی از راهکارهایی که پلتفرم‌ها برای نظارت بر انبوه محتواهای منتشر‌شده می‌توانند به‌کار بگیرند، استفاده از سیستم‌های هوش مصنوعی برای حذف محتوای مجرمانه است.

پلتفرم‌هایی مانند آپارات یا یوتیوب همواره می‌توانند به‌عنوان ابزاری دوگانه درنظر گرفته شوند. درحالی‌که یوتیوب اکنون به‌عنوان بزرگ‌ترین دانشنامه ویدئویی جهان سرشار از محتوای آموزشی در همه حوزه‌هاست، با این حال می‌توان ویدئوهایی را هم پیدا کرد که به سلامت روان گــروه‌های مختلف اجتماعی آسیب می‌زند.