fbpx
News

Apple เตรียมใส่ระบบสแกนภาพการล่วงละเมิดทางเพศเด็กใน iCloud และระบบตรวจจับภาพโป๊ใน Mesages ของ iPhone และ iPad

ปกติแล้ว Apple เป็นแบรนด์ที่ใส่ใจในด้านความเป็นส่วนตัวของผู้ใช้งานมาก ๆ แบรนด์นึง เพราะแทบจะไม่มีการเข้ามายุ่งวุ่นสายกับข้อมูลอะไรของลูกค้าเลย…แต่หลังจากนี้ Apple อาจต้องขอยกเว้นนโยบายความเป็นส่วนตัวบางข้อของลูกค้าเพื่อแลกกับสิ่งที่ดีกว่า เพราะกำลังจะมีการอัปเดตอุปกรณ์ iOS และ iPadOS เพื่อใส่ซอฟท์แวร์ที่ใช้ในการสแกนรูปภาพหรือวิดีโอที่เก็บไว้บน iCloud ว่ามีสื่อลามกที่เกี่ยวข้องกับการล่วงละเมิดทางเพศเด็กอยู่ด้วยหรือไม่

ระบบตรวจจับภาพเกี่ยวกับการละเมิดทางเพศเด็ก

Apple ออกมาประกาศบนหน้าเว็บไซต์ของตัวเองอย่างเป็นทางการแล้วว่าจะใช้เทคโนโลยีในการตรวจจับสื่อลามกที่เป็นการล่วงละเมิดทางเพศเด็กสำหรับอุปกรณ์ iOS และ iPadOS โดยเป็นซอฟท์แวร์ที่จะสามารถสแกนและตรวจจับ CSAM หรือ Child Sexual Abuse Material (วัตถุหรือสิ่งแสดงการล่วงละเมิดทางเพศเด็ก) ที่อยู่ในอุปกรณ์อย่าง iPhone หรือ iPad ซึ่งการสแกนดังกล่าวจะสแกนไฟล์ Media ในอุปกรณ์ iOS / iPadOS ที่กำลังจะอัปโหลดไปใส่ iCloud เท่านั้น ไม่ได้ไปไล่สแกนไฟล์ทั้งหมดในระบบ iCloud นะครับ

เมื่อซอฟท์แวร์ดังกล่าวสแกนเจอรูปภาพหรือวิดีโอที่น่าจะเกี่ยวข้องหรือเป็น CSAM แล้ว จะมีการแจ้งเตือนไปทาง Apple เพื่อถอดรหัสไฟล์ให้พนักงานที่เป็นมนุษย์จริง ๆ ตรวจสอบอีกรอบว่ามันเป็นสื่อเกี่ยวกับการละเมิดทางเพศเด็กซึ่งผิดกฎหมายจริงรึเปล่า และหากพบว่าเข้าข่ายก็จะแจ้งเตือนไปยังทางการเพื่อเข้ามาตรวจสอบอีกที โดย Apple เคลมว่าเทคโนโลยีตรวจจับ CSAM มีความแม่นยำสูงมาก อาจเกิดความผิดพลาดในการตรวจจับน้อยสุด ๆ แค่หนึ่งในล้านล้านครั้งต่อปีเท่านั้น

แอป Messages เพิ่มฟีเจอร์ตรวจจับภาพไม่เหมาะสมที่ถูกส่งมา

และไม่ใช่แค่การจะตรวจจับ CSAM เท่านั้น แต่แอปแชท Messages ยังจะใส่ระบบตรวจจับสื่อที่ไม่เหมาะสมกับอายุของผู้ใช้งาน iPhone กับ iPad ด้วย เมื่อระบบตรวจพบว่ามีการส่งภาพโป๊อนาจารเข้ามาที่อุปกรณ์ของผู้ใช้ที่ยังเป็นเยาวชนอยู่ ภาพจะถูกเบลอไว้ก่อน และจะมีแจ้งเตือนเด้งขึ้นมาถามว่าต้องการดูภาพนี้จริง ๆ รึเปล่า ซึ่งหากว่าผู้ใช้ยังยืนยันจะขอดู ก็จะมีการแจ้งเตือนไปยังอุปกรณ์ของผู้ปกครองด้วย ว่าลูกกำลังจะดูภาพที่ไม่เหมาะสม

Siri และ Search เพิ่มฟีเจอร์แนะนำถึงความไม่ถูกต้องของ CSAM

นอกจากนี้ Apple ยังจะอัปเดตเพื่อจำกัดการค้นหาข้อมูลเกี่ยวกับ CSAM จาก Siri และ Seach ด้วยการแจ้งเตือนผู้ใช้งานที่ต้องการหาข้อมูลเหล่านั้นว่ามันเป็นเรื่องที่ไม่ถูกต้องพร้อมกับแนะนำวิธีแก้ปัญหาต่อไป และสำหรับผู้ที่ต้องการรายงานข้อมูลเกี่ยวกับการละเมิดทางเพศเด็กก็สามารถถาม Siri เพื่อขอวิธีแจ้งความได้เลย

ฟีเจอร์สำหรับการตรวจจับและป้องกันการล่วงละเมิดทางเพศเด็กเหล่านี้ จะเริ่มปล่อยอัปเดตให้กับอุปกรณ์ที่ใช้ iOS 15, iPadOS 15, WatchOS 8 และ macOS Monterey ในช่วงปลายปีนี้ครับ

 

ที่มา : AndroidAuthority, Apple

9 Comments

  1. hurikain

    hurikain Post on August 6, 2021 at 1:43 pm

    #1029179

    ผมว่า แบบนี้ก็จะหลายเป็นเรื่องไม่ส่วนตัวทุกเรื่องต่อไปครับ

  2. Barbatos

    Barbatos Post on August 6, 2021 at 2:17 pm

    #1029181

    ถือว่าเป็นการละเมิดสิทธิส่วนบุคคลด้วยไหมเนี่ย

  3. Avatar

    khaosoith Post on August 6, 2021 at 2:52 pm

    #1029183

    * Features available in the U.S. ทำไมไม่แปลด้วยครับ ในที่มา ที่ * ทุกฟีเจอร์ มีเขียนไว้ใต้ล่างสุด ทำไมไม่แปลครับ

    หรือเพราะเป็นเว็บที่อริกับยี่ห้อนี้อยู่แล้วถึงไม่แปลส่วนนี้กันครับ?

    • Avatar

      boatheng Post on August 6, 2021 at 3:03 pm

      #1029184

      ถ้าแปล คุณจะเข้ามาดูเหรอครับ ^^"

    • Xyanyde

      Xyanyde Post on August 6, 2021 at 3:08 pm

      #1029186

      เว็บนี้ไปเป็นอริกับ Apple ตอนไหนเหรอครับ???

    • Avatar

      Putthabhumi Poonsawas Post on August 6, 2021 at 5:52 pm

      #1029188

      ผมว่าเว็ปนี้ลงข่าว Apple เร็วและละเอียดมากๆเลยในไทย ไปดูเว็ปที่เน้น Apple ซิ ข่าวไม่ค่อยมีหรอก มีแต่ขายของ ไม่อยากเอ่ยชื่อ คือจะขายของก็ไม่แปลกหรอกเพราะหาเงิน หาผู้สนับสนุน แต่ข่าวน้อยเกินที่จะเสพ

  4. Avatar

    khaosoith Post on August 6, 2021 at 3:38 pm

    #1029187

    สงสัยผมใช้คำหนักไปหน่อย ขอโทษที
    เอาเป็นว่าแก้ไขแล้วก็ตามดูตามปกติ ติดตามเว็บประจำอยู่แล้ว แค่ไม่ค่อยได้คอมเมนต์

    • pureblackheart

      pureblackheart Post on August 7, 2021 at 2:06 pm

      #1029199

      แก้ไขยังไงเหรอครับ ผมไม่เห็นว่ามีการเพิ่มข้อความ "ฟีเจอร์นี้เฉพาะ us" ลงไปในบทความเลยนะครับ

      แต่เอาจริงๆ ใจร่มๆ คุยกันดีๆ ก็ได้ครับ บทความต้นทางของ android authority ไม่ระบุ แต่ทาง apple ระบุ บางทีคนเรียบเรียงอาจจะไม่ได้เข้าไปดูจาก apple ก็เป็นไปได้ครับ ปรับคำพูดหน่อยเป็น "ผมเห็นในเว็บ apple ระบุว่า Features available in the U.S ใส่เพิ่มในบทความก็ดีนะครับ คนจะได้ไม่ตกใจกัน"

  5. nutartworks

    nutartworks Post on August 8, 2021 at 2:09 am

    #1029210

    กำลังคิดว่าเค้าตรวจยังไงว่าในวิดีโอนั้นคือเด็ก ดูจากอะไร หน้าตาหรืออวัยวะที่แสดงความเป็นเด็ก? แล้วถ้าไม่เห็นหน้าล่ะ หรือถ้าบางคนแว็กซ์ล่ะ ยิ่งแอปเปิ้ลบอกแม่นยำมาก ถ้าขนาดนั้นได้แปลว่า AI ต้องเจ๋งสุดๆ เลยนะ ถ้าพัฒนาให้ถูกทาง สามารถใช้หาบุคคลในสื่อได้เลย แบบในหนังอะ

Leave a Reply

To Top