หลังจาก Apple เคยออกมายืนยันว่าจะเพิ่มระบบสำหรับตรวจจับวัตถุหรือภาพที่แสดงการล่วงละเมิดทางเพศเด็ก CSAM บนรูปภาพที่ถูกอัปโหลดเข้าสู่ iCloud ทั้งบน iPhone , iPad  เพื่อตรวจสอบว่าเนื้อหาดังกล่าวมีการล่วงละเมิดทางเพศเด็กหรือไม่ ซึ่งล่าสุด Apple ได้ยุติแผนการนี้ลงแล้วค่ะ เนื่องจากห่วงถึงความปลอดภัยของลูกค้าเป็นหลักในการเข้าถึงข้อมูล โดยจะหาวิธีอื่นเพิ่มเติมเพื่อปกป้องเด็ก ๆ แทน

Apple ได้ยุติการพัฒนาเทคโนโลยีการตรวจหาสื่อที่มีการล่วงละเมิดทางเพศต่อเด็ก (CSAM) ในขณะที่เก็บไว้ในอุปกรณ์ของผู้ใช้ตามรายงานของ The Wall Street Journal  โดยตอนแรก  Apple จะอัปเดตให้ใน iOS 15 และ iPadOS 15  ภายในสิ้นปี 2021 

ซึ่งการทำงานของ CSAM เป็นระบบที่สามารถสแกนภาพที่ถูกอัปโหลดขึ้นไปใน iCloud เพื่อตรวจสอบว่าเนื้อหาดังกล่าวมีการล่วงละเมิดทางเพศเด็กหรือไม่ มันมีความแมนยำสูงมากค่ะ ในการตรวจสอบ Apple ถึงกับบอกว่ามีโอกาสผิดพลาดเพียงหนึ่งในล้านล้านเท่านั้น! 

แต่ล่าสุดก็ได้ยุติลงเนื่องมองเห็นถึงความปลอดภัยของลูกค้าเป็นหลัก ทาง Craig Federighi รองประธานฝ่ายซอฟต์แวร์ของ Apple กล่าวว่า การล่วงละเมิดทางเพศเด็กสามารถยุติได้ก่อนที่มันจะเกิดขึ้น.. “ในท้ายที่สุดแล้ว การรักษาข้อมูลของลูกค้าให้ปลอดภัยมีนัยยะสำคัญต่อความปลอดภัยของเราในวงกว้างมากขึ้น”  

ทาง Apple จึงพยายามหาแนวทางใหม่ในการปกป้องเด็ก ๆ โดยใช้การเข้ารหัสแบบ end-to-end เพื่อรวมการสำรองข้อมูลโทรศัพท์และเพิ่มฟีเจอร์ใหม่อื่น ๆ ที่มุ่งเน้นการรักษาความเป็นส่วนตัวและความปลอดภัยมากขึ้นในขณะที่ใช้ iMessage สำหรับข้อมูลที่จัดเก็บไว้ใน iCloud นั่นเองค่ะ เพราะหากมีอะไรผิดพลาดข้อมูลของลูกค้าอาจได้รับผลกระทบทางการเมือง หรือมิจฉาชีพอาจแฝงเข้ามาได้  นี่ก็เป็นอีกโครงการที่เราต้องมารอดูกันค่ะ ว่าในอนาคต Apple จะจัดการให้ออกมาเป็นรูปเป็นร่างยังไงบ้าง

ที่มา : theverge