Apple ยกเลิกระบบตรวจจับภาพล่วงละเมิดทางเพศเด็กบน iCloud เพราะมองถึงความเป็นส่วนตัวของลูกค้าเป็นหลัก
![Apple ยกเลิกระบบตรวจจับภาพล่วงละเมิดทางเพศเด็กบน iCloud เพราะมองถึงความเป็นส่วนตัวของลูกค้าเป็นหลัก](https://images.droidsans.com/wp-content/uploads/2022/12/317501015_2482190421931325_933041248763664103_n.jpg)
หลังจาก Apple เคยออกมายืนยันว่าจะเพิ่มระบบสำหรับตรวจจับวัตถุหรือภาพที่แสดงการล่วงละเมิดทางเพศเด็ก CSAM บนรูปภาพที่ถูกอัปโหลดเข้าสู่ iCloud ทั้งบน iPhone , iPad เพื่อตรวจสอบว่าเนื้อหาดังกล่าวมีการล่วงละเมิดทางเพศเด็กหรือไม่ ซึ่งล่าสุด Apple ได้ยุติแผนการนี้ลงแล้วค่ะ เนื่องจากห่วงถึงความปลอดภัยของลูกค้าเป็นหลักในการเข้าถึงข้อมูล โดยจะหาวิธีอื่นเพิ่มเติมเพื่อปกป้องเด็ก ๆ แทน