จากข่าวที่มีผู้ใช้งาน Google ในประเทศไทยโดนตำรวจเข้าตรวจค้นสื่อลามกอนาจารเด็กถึงบ้าน เนื่องจากมีคลิปที่เข้าข่ายอยู่ใน Google Drive ของตัวเอง ทำให้หลายคนอาจสงสัยว่า…Google แอบเข้ามาดูไฟล์ที่เราเก็บไว้ใน Drive รึเปล่า? หรือว่าใช้วิธีไหนกันแน่ และถ้าหากมีไฟล์เหล่านั้นอยู่จริง ใครจะเป็นคนแจ้งเจ้าหน้าที่ให้มาจัดการ? ซึ่งข้อมูลเหล่านี้ทาง Google ก็ได้ออกมาชี้แจงเอาไว้แล้วครับ

Google บอกว่าทางบริษัทได้พยายามป้องกันการเผยแพร่สื่อลามกอนาจารเด็ก (Child Sexual Abuse Material หรือ CSAM) มาตั้งแต่ช่วงแรก ๆ แล้ว ซึ่งก็ได้มีการลบสื่อประเภทนี้ออกไปจากแพลตฟอร์มของ Google มากมาย และไม่ใช่แค่ลบทิ้งอย่างเดียว แต่ยังได้รายงานไปยังทางการพร้อมกับแบนบัญชีของผู้ใช้งานที่ละเมิดกฎดังกล่าวด้วย

โดย Google มีเป้าหมายว่าจะต้องป้องกันการละเมิดสิทธิเด็กและเยาวชนไปพร้อม ๆ กับลดความผิดพลาดในการตรวจจับสื่อลามกของผู้ใช้งานให้ได้มากที่สุดด้วย นั่นคือเหตุผลที่ Google ออกมาชี้แจงถึงวิธีการตรวจสอบ CSAM ว่ามีขั้นตอนยังไงบ้างนั่นเอง

Google ตรวจจับสื่อลามกอนาจารเด็ก (CSAM) ด้วยวิธีไหน?

Google ใช้เทคโนโลยี Hash Match และ AI ในการตรวจจับสื่อประเภทภาพหรือคลิปวิดีโอบนแพลตฟอร์มที่อาจเข้าข่ายเป็น CSAM และยังได้ทีมที่เป็นผู้เชี่ยวชาญด้านการพิจารณาคอนเท้นต์มาช่วยฝึกฝนระบบ AI ให้สามารถตรวจจับ CSAM ได้อย่างแม่นยำและตรวจจับได้ในปริมาณมาก รวมถึงต้องลดความผิดพลาดให้ต่ำที่สุดด้วย

เทคโนโลยี Hash Match ใช้ตรวจสอบ CSAM ยังไง?

Hash Matching Technology จะใช้ฐานข้อมูลของภาพและวิดีโอ CSAM ที่มีอยู่แล้ว จากนั้นจะเอามาเทียบกับไฟล์ต่าง ๆ ที่ถูกอัปโหลดมาบนแพลตฟอร์มของ Google ถ้าหาก Hash Match ตรวจจับได้ว่าไฟล์เหล่านั้นมีรูปแบบที่คล้ายคลึงกับไฟล์ในฐานข้อมูล ก็จะถูกจัดให้อยู่ในประเภท CSAM

โดย CSAM จากฐานข้อมูลก็ได้มาจากแหล่งที่เชื่อถือได้อย่างเช่น Internet Watch Foundation (IWF), National Center for Missing and Exploited Children (NCMEC) และอื่น ๆ

เทคโนโลยี AI ใช้ตรวจสอบ CSAM ยังไง?

ในขณะที่ Hash Match มีความสามารถในการตรวจสอบคอนเทนต์ที่มีความคล้ายคลึงกับ CSAM ในฐานข้อมูล เทคโนโลยี AI ก็จะเป็นฝ่ายตรวจสอบคอนเทนต์ที่มีรูปแบบแตกต่างออกไปจาก CSAM ในฐานข้อมูล โดย Google จะใช้ระบบ AI ในการตรวจสอบคอนเทนต์ที่มีความละเอียดอ่อนและแยกแยะได้ยากว่าอยู่ในกลุ่ม CSAM รึเปล่า อย่างเช่น คลิปวิดีโอเด็กเล็กแก้ผ้าเล่นอยู่ในอ่างน้ำ หรือเล่นอยู่ที่สนามหลังบ้าน พวกนี้ก็จะไม่ถูกจัดว่าเป็นคอนเทนต์ CSAM ส่วนคอนเทนต์ที่ทาง AI ระบุว่าเข้าข่าย ก็จะถูกตรวจสอบโดยทีมผู้เชี่ยวชาญที่เป็นมนุษย์อีกทีนึงว่ามันใช่จริงหรือไม่

การตรวจจับภาพและวิดีโอ CSAM รูปแบบใหม่ ๆ ที่อยู่นอกเหนือจากฐานข้อมูลนี้ จะทำให้ระบบสามารถตรวจจับรูปแบบและช่วยป้องกันการละเมิดทางเพศเด็กแบบใหม่ ๆ ที่อาจเกิดขึ้นในอนาคตได้ ซึ่ง Google ยังได้แบ่งปันเทคโนโลยี Child Safety Toolkit นี้ ให้กับบริษัทอื่น ๆ รวมถึงองค์กรที่ไม่แสวงหาผลกำไรต่าง ๆ ให้เอาไปใช้ในการตรวจจับ CSAM บนแพลตฟอร์มของตัวเองด้วย

ทีมผู้เชี่ยวชาญด้านการพิจารณาคอนเท้นต์

ทั้ง Hash Match และ AI เป็นเทคโนโลยีที่ Google ใช้เพื่อการตรวจจับ CSAM ในปริมาณมาก แต่ก็อาจจะมีความผิดพลาดเกิดขึ้นได้บ้าง (แม้ว่าจะน้อยมากแต่ก็ยังมีโอกาสผิดพลาดได้อยู่) คราวนี้ก็จะต้องมาอาศัยความสามารถของมนุษย์จริง ๆ กันแล้ว โดยทีมผู้เชี่ยวชาญด้านการพิจารณาคอนเท้นต์ของ Google ก็จะเข้ามาตรวจสอบอีกทีนึงว่าคอนเท้นต์ที่ Hash Match กับ AI ตรวจจับได้นั้น เป็นประเภท CSAM จริงหรือไม่ ซึ่งตรงนี้ทางทีมก็จะใช้ความรู้ด้านกฎหมายการปกป้องคุ้มครองเด็ก และการสืบสวนด้านไซเบอร์ เพื่อแยกแยะคอนเท้นต์ดังกล่าวอีกรอบนึง

การแจ้งเรื่องไปยัง NCMEC และแจ้งทางการเข้าตรวจสอบ

เมื่อทางผู้เชี่ยวชาญด้านการพิจารณาคอนเท้นต์ยืนยันแล้วว่าเป็น CSAM จริง ภาพหรือคลิปวิดีโอดังกล่าวก็จะถูกรายงานไปยัง NCMEC (ศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา) เพื่อประเมินอีกรอบ ซึ่ง NCMEC อาจพิจารณาส่งเรื่องดังกล่าวไปให้ทางการเข้าไปตรวจสอบ และหากทางการต้องสืบสวนลึกลงไปอีก ก็มีสิทธิ์ทางกฎหมายที่จะขอข้อมูลผู้ใช้งานเพิ่มเติมจาก Google ได้ด้วย

มีสื่อลามกอนาจารเด็กอยู่ใน Google Drive / Photos มีสิทธิ์โดนตำรวจเข้าตรวจค้นถึงบ้าน ในไทยโดนหลายรายแล้ว

นโยบายป้องกัน CSAM / สื่อลามกอนาจารเด็ก ของ Google ถือเป็น Global Policy หรือนโยบายสากลที่มีผลกับผู้ใช้งานแพลตฟอร์ม Google ทุกประเทศทั่วโลกนะครับ ไม่ได้จำกัดอยู่แค่เมืองนอกเท่านั้น ตัวอย่างในบ้านเราก็มีให้เห็นกันแล้ว เพราะฉะนั้นใครจะทำอะไรที่มันผิดกฎหมาย ผิดหลักศีลธรรมแบบนี้ก็คิดกันให้ดีนะครับ

 

ที่มา : Google