ปกติแล้ว Apple เป็นแบรนด์ที่ใส่ใจในด้านความเป็นส่วนตัวของผู้ใช้งานมาก ๆ แบรนด์นึง เพราะแทบจะไม่มีการเข้ามายุ่งวุ่นสายกับข้อมูลอะไรของลูกค้าเลย…แต่หลังจากนี้ Apple อาจต้องขอยกเว้นนโยบายความเป็นส่วนตัวบางข้อของลูกค้าเพื่อแลกกับสิ่งที่ดีกว่า เพราะกำลังจะมีการอัปเดตอุปกรณ์ iOS และ iPadOS เพื่อใส่ซอฟท์แวร์ที่ใช้ในการสแกนรูปภาพหรือวิดีโอที่เก็บไว้บน iCloud ว่ามีสื่อลามกที่เกี่ยวข้องกับการล่วงละเมิดทางเพศเด็กอยู่ด้วยหรือไม่

ระบบตรวจจับภาพเกี่ยวกับการละเมิดทางเพศเด็ก

Apple ออกมาประกาศบนหน้าเว็บไซต์ของตัวเองอย่างเป็นทางการแล้วว่าจะใช้เทคโนโลยีในการตรวจจับสื่อลามกที่เป็นการล่วงละเมิดทางเพศเด็กสำหรับอุปกรณ์ iOS และ iPadOS โดยเป็นซอฟท์แวร์ที่จะสามารถสแกนและตรวจจับ CSAM หรือ Child Sexual Abuse Material (วัตถุหรือสิ่งแสดงการล่วงละเมิดทางเพศเด็ก) ที่อยู่ในอุปกรณ์อย่าง iPhone หรือ iPad ซึ่งการสแกนดังกล่าวจะสแกนไฟล์ Media ในอุปกรณ์ iOS / iPadOS ที่กำลังจะอัปโหลดไปใส่ iCloud เท่านั้น ไม่ได้ไปไล่สแกนไฟล์ทั้งหมดในระบบ iCloud นะครับ

เมื่อซอฟท์แวร์ดังกล่าวสแกนเจอรูปภาพหรือวิดีโอที่น่าจะเกี่ยวข้องหรือเป็น CSAM แล้ว จะมีการแจ้งเตือนไปทาง Apple เพื่อถอดรหัสไฟล์ให้พนักงานที่เป็นมนุษย์จริง ๆ ตรวจสอบอีกรอบว่ามันเป็นสื่อเกี่ยวกับการละเมิดทางเพศเด็กซึ่งผิดกฎหมายจริงรึเปล่า และหากพบว่าเข้าข่ายก็จะแจ้งเตือนไปยังทางการเพื่อเข้ามาตรวจสอบอีกที โดย Apple เคลมว่าเทคโนโลยีตรวจจับ CSAM มีความแม่นยำสูงมาก อาจเกิดความผิดพลาดในการตรวจจับน้อยสุด ๆ แค่หนึ่งในล้านล้านครั้งต่อปีเท่านั้น

แอป Messages เพิ่มฟีเจอร์ตรวจจับภาพไม่เหมาะสมที่ถูกส่งมา

และไม่ใช่แค่การจะตรวจจับ CSAM เท่านั้น แต่แอปแชท Messages ยังจะใส่ระบบตรวจจับสื่อที่ไม่เหมาะสมกับอายุของผู้ใช้งาน iPhone กับ iPad ด้วย เมื่อระบบตรวจพบว่ามีการส่งภาพโป๊อนาจารเข้ามาที่อุปกรณ์ของผู้ใช้ที่ยังเป็นเยาวชนอยู่ ภาพจะถูกเบลอไว้ก่อน และจะมีแจ้งเตือนเด้งขึ้นมาถามว่าต้องการดูภาพนี้จริง ๆ รึเปล่า ซึ่งหากว่าผู้ใช้ยังยืนยันจะขอดู ก็จะมีการแจ้งเตือนไปยังอุปกรณ์ของผู้ปกครองด้วย ว่าลูกกำลังจะดูภาพที่ไม่เหมาะสม

Siri และ Search เพิ่มฟีเจอร์แนะนำถึงความไม่ถูกต้องของ CSAM

นอกจากนี้ Apple ยังจะอัปเดตเพื่อจำกัดการค้นหาข้อมูลเกี่ยวกับ CSAM จาก Siri และ Seach ด้วยการแจ้งเตือนผู้ใช้งานที่ต้องการหาข้อมูลเหล่านั้นว่ามันเป็นเรื่องที่ไม่ถูกต้องพร้อมกับแนะนำวิธีแก้ปัญหาต่อไป และสำหรับผู้ที่ต้องการรายงานข้อมูลเกี่ยวกับการละเมิดทางเพศเด็กก็สามารถถาม Siri เพื่อขอวิธีแจ้งความได้เลย

ฟีเจอร์สำหรับการตรวจจับและป้องกันการล่วงละเมิดทางเพศเด็กเหล่านี้ จะเริ่มปล่อยอัปเดตให้กับอุปกรณ์ที่ใช้ iOS 15, iPadOS 15, WatchOS 8 และ macOS Monterey ในช่วงปลายปีนี้ครับ

 

ที่มา : AndroidAuthority, Apple