طبق یک گزارش جدید، کمیسیون اروپا میتواند این هفته پیشنویس قانونی را منتشر کند که شرکتهای فناوری مانند اپل و گوگل را ملزم میکند تا پلتفرمهای خود را برای تصاویر غیرقانونی سوء استفاده جنسی از کودکان، موسوم به CSAM، بهتر کنترل کنند.
این قانون شرکت های فناوری را ملزم می کند تا تصاویر را شناسایی، حذف و به مجریان قانون گزارش دهند.
پیشنویس قانون اتحادیه اروپا قرار است شرکتهای فناوری را مجبور به حذف و گزارش CSAM کند
همانطور که با نشت قانون پیشنهادی مشخص شد که سیاسی بهدستآمده، EC فکر میکند که اقدامات داوطلبانه برای مهار مواد سوء استفاده جنسی از کودکان (CSAM) که برخی از شرکتهای دیجیتال به کار گرفتهاند «اثبات کافی نبوده است».
بنابراین کمیسیون می خواهد چنین مطالب اجباری را شناسایی، حذف و گزارش کند.
گروههایی که شرکتهای فناوری و سازمانهای حقوق کودک را نمایندگی میکنند، پس از ماهها لابیگری، منتظرند تا ببینند قوانین پیشنهادی این قانون چقدر سختگیرانه خواهد بود.
همچنین، یک سوال در مورد نحوه عملکرد قوانین بدون نیاز به اسکن تمام محتوای کاربر توسط شرکت های فناوری وجود دارد. دیوان دادگستری اتحادیه اروپا در سال 2016 آن را غیرقانونی تشخیص داد.
علاوه بر این، گروههای حفظ حریم خصوصی و شرکتهای فناوری نگران هستند که اقدام قانونی اتحادیه اروپا میتواند منجر به ایجاد دربهای پشتی برای سرویسهای پیامرسانی رمزگذاریشده سرتاسر، خارج از کنترل پلتفرم میزبانی شود.
یلوا یوهانسون، کمیسر امور داخلی اتحادیه اروپا گفته است که راه حل های فنی برای یافتن محتوای غیرقانونی و در عین حال ایمن نگه داشتن مکالمات وجود دارد، اما کارشناسان امنیت سایبری با این نظر مخالف هستند.
الا یاکوبوسکا به پولیتیکو گفت: اتحادیه اروپا نباید چیزهایی را پیشنهاد کند که از نظر فناوری غیرممکن است. Jakubowska یک مشاور سیاست در حقوق دیجیتال اروپا (EDRI) است، شبکه ای متشکل از 45 سازمان غیر دولتی (NGO).
یاکوبوفسکا گفت: «این ایده که همه صدها میلیون نفر در اتحادیه اروپا ارتباطات خصوصی صمیمی خود را داشته باشند، جایی که آنها انتظار منطقی دارند که خصوصی باشد، به جای آن به شکلی بی رویه و به طور کلی 24/7 اسکن شود، بی سابقه است. . .
اعضای پارلمان اروپا در مورد این موضوع نظرات متفاوتی دارند. موریتز کورنر، عضو پارلمان اروپا، مرکز نوسازی اروپا، گفت سیاسی پیشنهاد EC به این معنی است که “حریم خصوصی مکاتبات دیجیتال مرده است.”
Debate طرح های بحث برانگیز اسکن CSAM اپل را به یاد می آورد
این بحث مناقشات سال گذشته را در مورد طرح اپل برای جستجوی CSAM در آیفون و آیپد به یاد می آورد.
در آگوست 2021، اپل گفت که مجموعه ای از ویژگی های جدید ایمنی کودکان را برنامه ریزی کرده است، از جمله اسکن کتابخانه های iCloud Photos کاربران برای CSAM و هشدار ارتباطات به کودکان و والدین آنها هنگام دریافت یا ارسال عکس های غیراخلاقی جنسی. ویژگی ارتباطی در حال حاضر در پلتفرم iMessage اپل فعال است. اپل اسکن CSAM را اجرا نکرده است.
برنامه های اپل – به ویژه اسکن CSAM – انتقاد محققان امنیتی، بنیاد Electronic Frontier (EFF)، رئیس سابق امنیت فیس بوک، سیاستمداران، گروه های سیاست، محققان دانشگاه و حتی برخی از کارمندان اپل را برانگیخت. اسکن به عنوان نوعی نظارت مورد تمسخر قرار گرفت و اثربخشی آن در شناسایی تصاویر نیز زیر سوال رفت.
پس از تلاش اولیه برای اطمینان دادن به منتقدان، عرضه CSAM را به تاخیر بیندازید.
اپل گفت که تصمیمش برای تأخیر «براساس بازخورد مشتریان، گروههای مدافع، محققان و دیگران است… ما تصمیم گرفتهایم در ماههای آینده زمان بیشتری را برای جمعآوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگیهای بسیار مهم ایمنی کودکان اختصاص دهیم».
در دسامبر 2021، اپل بی سر و صدا تمام اشاره های CSAM را از صفحه وب ایمنی کودک خود حذف کرد. اما کوپرتینو گفت که برنامههایش برای شناسایی CSAM از سپتامبر تغییر نکرده است و نشان میدهد که هنوز هم ممکن است در راه باشد.
مانی ربات
خرید اپل ایدی
خرید اکانت تیندر
بدون دیدگاه