Google ชี้แจงวิธีการตรวจสอบและแยกแยะสื่อลามกอนาจารเด็ก ที่ถูกอัปโหลดบน Google Drive
จากข่าวที่มีผู้ใช้งาน Google ในประเทศไทยโดนตำรวจเข้าตรวจค้นสื่อลามกอนาจารเด็กถึงบ้าน เนื่องจากมีคลิปที่เข้าข่ายอยู่ใน Google Drive ของตัวเอง ทำให้หลายคนอาจสงสัยว่า…Google แอบเข้ามาดูไฟล์ที่เราเก็บไว้ใน Drive รึเปล่า? หรือว่าใช้วิธีไหนกันแน่ และถ้าหากมีไฟล์เหล่านั้นอยู่จริง ใครจะเป็นคนแจ้งเจ้าหน้าที่ให้มาจัดการ? ซึ่งข้อมูลเหล่านี้ทาง Google ก็ได้ออกมาชี้แจงเอาไว้แล้วครับ Google บอกว่าทางบริษัทได้พยายามป้องกันการเผยแพร่สื่อลามกอนาจารเด็ก (Child Sexual Abuse Material หรือ CSAM) มาตั้งแต่ช่วงแรก ๆ แล้ว ซึ่งก็ได้มีการลบสื่อประเภทนี้ออกไปจากแพลตฟอร์มของ Google มากมาย และไม่ใช่แค่ลบทิ้งอย่างเดียว แต่ยังได้รายงานไปยังทางการพร้อมกับแบนบัญชีของผู้ใช้งานที่ละเมิดกฎดังกล่าวด้วย โดย Google มีเป้าหมายว่าจะต้องป้องกันการละเมิดสิทธิเด็กและเยาวชนไปพร้อม ๆ กับลดความผิดพลาดในการตรวจจับสื่อลามกของผู้ใช้งานให้ได้มากที่สุดด้วย นั่นคือเหตุผลที่ Google ออกมาชี้แจงถึงวิธีการตรวจสอบ CSAM ว่ามีขั้นตอนยังไงบ้างนั่นเอง Google ตรวจจับสื่อลามกอนาจารเด็ก (CSAM) ด้วยวิธีไหน? Google ใช้เทคโนโลยี Hash Match และ AI ในการตรวจจับสื่อประเภทภาพหรือคลิปวิดีโอบนแพลตฟอร์มที่อาจเข้าข่ายเป็น CSAM … Continue reading Google ชี้แจงวิธีการตรวจสอบและแยกแยะสื่อลามกอนาจารเด็ก ที่ถูกอัปโหลดบน Google Drive
Copy and paste this URL into your WordPress site to embed
Copy and paste this code into your site to embed