Apple ขอเบรกระบบตรวจจับภาพโป๊เด็กใน iPhone และ iPad หลังมีเสียงวิจารณ์เรื่องความเป็นส่วนตัว

จากที่มีข่าวออกมาตั้งแต่ต้นเดือนสิงหาคมว่าทาง Apple จะใส่ซอฟท์แวร์สำหรับตรวจจับ CSAM หรือ Child Sexual Abuse Material (วัตถุหรือสิ่งแสดงการล่วงละเมิดทางเพศเด็ก) ที่อยู่ในอุปกรณ์อย่าง iPhone หรือ iPad โดยนึกถึงความปลอดภัยของเยาวชนเป็นหลัก และเมื่อมีข่าวนี้ออกมาปุ๊บ ก็แน่นอนว่าต้องมีเสียงวิพากษ์วิจารณ์เกี่ยวกับความเป็นส่วนตัวของผู้ใช้งานกันให้พรึ่บ จนล่าสุดทาง Apple ก็เลยต้องขอเบรกนโยบายดังกล่าวเพื่อพิจารณาเพิ่มเติมอีกครั้งนึง