สำหรับใครที่ได้ใช้วิดีโอคอลบ่อยๆ ก็อาจจะสังเกตได้ว่าเวลาคุยกันแทบจะไม่ได้สบตากับคนที่อยู่ปลายสายเลย เนื่องจากปกติแล้วสายตาของเราจะไปจับอยู่ที่หน้าของผู้ที่อยู่ปลายสายซึ่งเป็นคนละจุดกับกล้องนั่นเอง.. ซึ่งล่าสุด Apple ก็สามารถแก้ปัญหาดังกล่าวได้แล้วใน iOS 13 Beta 3 กับฟีเจอร์ FaceTime Attention Correction ที่จะมาช่วยให้ตาของเราเหมือนกับมองตาของปลายสายอยู่ แม้ว่าเราจะไม่ได้มองกล้องก็ตาม

FaceTime Attention Correction จะสร้างมุมมอง eye contact หรือการสบตาผู้พูดแบบปลอมๆ ขึ้นมา เพื่อให้สายตาเรานั้นจดจ้องอยู่กับคนที่เราคุยด้วยอยู่ตลอดเวลา แม้ว่าเราจะไม่ได้มองกล้องอยู่ โดยวิธีดังกล่าวก็มาจากการทำงานของ ARKit ร่วมกับระบบปรับแต่งภาพนั่นเอง ซึ่งฟีเจอร์ดังดล่าวถูกค้นพบโดยผู้ใช้งานชื่อ Will Sigmon โดยเขาได้ลองทดสอบแล้วกับเพื่อนของเขา Mike Rundle ก่อนจะนำเอาผลลัพธ์จากฟีเจอร์ดังกล่าวมาทวีตลงใน Twitter ส่วนตัวของเขาอีกทีนึง

จากภาพที่ Mike Rundle ได้โพสท์ไว้ จะเห็นว่าภาพทางซ้ายเป็นภาพที่ Mike จ้องไปที่หน้าจอมือถือ แต่ FaceTime Attention Correction จะช่วยปรับแต่งให้ตาของ Mike เหมือนจ้องอยู่ที่ตาของปลายสายจริงๆ ส่วนภาพทางขวาเป็นภาพที่ถ่ายด้วยกล้องหน้าธรรมดา โดยที่ Mike มองไปที่หน้าจออยู่เหมือนกัน แต่ถ้าดูแล้วจะเห็นว่าสายตาของ Mike จะมองต่ำลงมาเนื่องจากหน้าจออยู่ต่ำกว่ากล้องหน้านั่นเอง

(ซ้าย) มองจอ โดยมี FaceTime Correction ช่วยปรับภาพ (ขวา) มองจอโดยไม่มี FaceTime Correction ช่วยปรับภาพ

ตามที่ Mike และ Will ทดลองมา พบว่าฟีเจอร์นี้สามารถใช้ได้แล้วบน iPhone XS และ XS Max (คาดว่า iPhone XR ก็น่าจะใช้ได้ด้วย) ที่รันระบบปฏิบัติการ iOS 13 beta 3 อยู่ และดูเหมือนว่า iPhone X จะไม่สามารถใช้ได้ น่าจะเป็นเพราะสมาร์ทโฟนรุ่นดังกล่าวนั้นไม่มีฟีเจอร์ปรับภาพ HDR แบบ Real-time ในแอปกล้อง และนั่นก็รวมไปถึง iPhone รุ่นอื่นๆ ที่ต่ำกว่า iPhone X ด้วย

ขั้นตอนกระบวนการทำงานของมันก็ค่อนข้างที่จะซับซ้อนพอสมควรเลย โดยฟีเจอร์ตัวนี้จะใช้ความสามารถจาก ARKit ในการช่วยเก็บภาพจุดสำคัญต่างๆ บนใบหน้าของเรา จากนั้นก็ใช้ระบบปรับแต่งภาพเพื่อขยับภาพลูกตาของเราให้โฟกัสไปที่ตาของปลายสายตลอดเวลานั่นเอง.. หรือจะอธิบายแบบบ้านๆ มันจะคล้ายๆ กับฟิลเตอร์ที่ใช้กันบน Snapchat นั่นแหละ

 

ที่มา: phonearena