Apple ขอเบรกระบบตรวจจับภาพโป๊เด็กใน iPhone และ iPad หลังมีเสียงวิจารณ์เรื่องความเป็นส่วนตัว

จากที่มีข่าวออกมาตั้งแต่ต้นเดือนสิงหาคมว่าทาง Apple จะใส่ซอฟท์แวร์สำหรับตรวจจับ CSAM หรือ Child Sexual Abuse Material (วัตถุหรือสิ่งแสดงการล่วงละเมิดทางเพศเด็ก) ที่อยู่ในอุปกรณ์อย่าง iPhone หรือ iPad โดยนึกถึงความปลอดภัยของเยาวชนเป็นหลัก และเมื่อมีข่าวนี้ออกมาปุ๊บ ก็แน่นอนว่าต้องมีเสียงวิพากษ์วิจารณ์เกี่ยวกับความเป็นส่วนตัวของผู้ใช้งานกันให้พรึ่บ จนล่าสุดทาง Apple ก็เลยต้องขอเบรกนโยบายดังกล่าวเพื่อพิจารณาเพิ่มเติมอีกครั้งนึง ในตอนแรก Apple จะใส่ระบบตรวจจับ CSAM ผ่านการอัปเดต iOS 15, iPadOS 15, WatchOS 8 และ macOS Monterey ในช่วงปลายปีนี้ ซึ่งระบบดังกล่าวจะตรวจจับสื่อลามกที่เป็นการล่วงละเมิดทางเพศเด็กสำหรับอุปกรณ์ iOS และ iPadOS โดยใช้ซอฟท์แวร์ที่จะสามารถสแกนและตรวจจับ CSAM หรือ Child Sexual Abuse Material (วัตถุหรือสิ่งแสดงการล่วงละเมิดทางเพศเด็ก) ที่อยู่ในอุปกรณ์อย่าง iPhone หรือ iPad ซึ่งการสแกนดังกล่าวจะสแกนไฟล์ Media ในอุปกรณ์ iOS … Continue reading Apple ขอเบรกระบบตรวจจับภาพโป๊เด็กใน iPhone และ iPad หลังมีเสียงวิจารณ์เรื่องความเป็นส่วนตัว