ปกติแล้ว Apple เป็นแบรนด์ที่ใส่ใจในด้านความเป็นส่วนตัวของผู้ใช้งานมาก ๆ แบรนด์นึง เพราะแทบจะไม่มีการเข้ามายุ่งวุ่นสายกับข้อมูลอะไรของลูกค้าเลย…แต่หลังจากนี้ Apple อาจต้องขอยกเว้นนโยบายความเป็นส่วนตัวบางข้อของลูกค้าเพื่อแลกกับสิ่งที่ดีกว่า เพราะกำลังจะมีการอัปเดตอุปกรณ์ iOS และ iPadOS เพื่อใส่ซอฟท์แวร์ที่ใช้ในการสแกนรูปภาพหรือวิดีโอที่เก็บไว้บน iCloud ว่ามีสื่อลามกที่เกี่ยวข้องกับการล่วงละเมิดทางเพศเด็กอยู่ด้วยหรือไม่ ระบบตรวจจับภาพเกี่ยวกับการละเมิดทางเพศเด็ก Apple ออกมาประกาศบนหน้าเว็บไซต์ของตัวเองอย่างเป็นทางการแล้วว่าจะใช้เทคโนโลยีในการตรวจจับสื่อลามกที่เป็นการล่วงละเมิดทางเพศเด็กสำหรับอุปกรณ์ iOS และ iPadOS โดยเป็นซอฟท์แวร์ที่จะสามารถสแกนและตรวจจับ CSAM หรือ Child Sexual Abuse Material (วัตถุหรือสิ่งแสดงการล่วงละเมิดทางเพศเด็ก) ที่อยู่ในอุปกรณ์อย่าง iPhone หรือ iPad ซึ่งการสแกนดังกล่าวจะสแกนไฟล์ Media ในอุปกรณ์ iOS / iPadOS ที่กำลังจะอัปโหลดไปใส่ iCloud เท่านั้น ไม่ได้ไปไล่สแกนไฟล์ทั้งหมดในระบบ iCloud นะครับ เมื่อซอฟท์แวร์ดังกล่าวสแกนเจอรูปภาพหรือวิดีโอที่น่าจะเกี่ยวข้องหรือเป็น CSAM แล้ว จะมีการแจ้งเตือนไปทาง Apple เพื่อถอดรหัสไฟล์ให้พนักงานที่เป็นมนุษย์จริง ๆ ตรวจสอบอีกรอบว่ามันเป็นสื่อเกี่ยวกับการละเมิดทางเพศเด็กซึ่งผิดกฎหมายจริงรึเปล่า และหากพบว่าเข้าข่ายก็จะแจ้งเตือนไปยังทางการเพื่อเข้ามาตรวจสอบอีกที โดย … Continue reading Apple เตรียมใส่ระบบสแกนภาพการล่วงละเมิดทางเพศเด็กใน iCloud และระบบตรวจจับภาพโป๊ใน Mesages ของ iPhone และ iPad
Copy and paste this URL into your WordPress site to embed
Copy and paste this code into your site to embed