ทุกคนที่เคยเล่น AR น่าจะเข้าใจกันดีว่าอุปสรรคหลัก ๆ ที่พบเจอเลยคือการวางสิ่งของใน AR มักจะออกมาลอย ๆ ไม่มีความลึกหรือความเสมือนจริงซักเท่าไหร่ แต่ Google ได้พัฒนาระบบ ARCore Depth API ที่ช่วยให้โปรแกรมสามารถจับความตื้นลีกหนาบางของสิ่งของในโลกของความเป็นจริงได้แล้ว  ซึ่งทำให้การวางตำแหน่งใน AR นั้นออกมาได้อย่างสมจริง และ แม่นยำมากขึ้น

ไฮไลท์หลักๆ ของ Code API ตัวนี้ก็คือ ผู้ใช้งานสามารถวางสิ่งของ หรือสัตว์ต่างๆ ที่ถูกจำลองขึ้นจาก ARCore Depth ไว้ข้างหลังพวกกำแพง, โต๊ะ, โซฟา หรืออื่นๆ ได้แบบเนียนสุดๆ อารมณ์ประมาณแบบ จำลองสัตว์ขึ้นมา 1 ตัว จากนั้นก็ให้มันไปแอบซ่อนข้างหลังตู้เสื้อผ้าอะไรทำนองนั้น ซึ่งปกติ ARCore Depth จะไม่สามารถทำแบบนี้ได้ ส่วนมากสัตว์ (หรือสิ่งของอื่นๆ) ที่จำลองขึ้นมา จะลอยฟ้า หรือทำได้มากสุดก็แค่ยืนอยู่ข้างบนวัตถุนั้นๆ เท่านั้น

 

และอีกหนึ่งสิ่งที่ทำให้ Code API ตัวใหม่ของ ARCore Depth มีความว้าวมากๆ ก็คือ ทั้งหมดสามารถทำได้จากกล้อง RGB เพียงตัวเดียวเท่านั้น ไม่ต้องมีหลายกล้อง อีกทั้งยังไม่จำเป็นต้องมีเซ็นเซอร์ Time-of-Flight (ToF) ที่ส่วนมากมักจะมีอยู่บนสมาร์ทโฟนรุ่นเรือธงแพงๆ อีกต่างหาก ทั้งนี้ทาง Google ก็เสริมเอาไว้ว่า หากมือถือรุ่นไหนมีเซ็นเซอร์ ToF ประสบการณ์การใช้งานเจ้าตัว Code API นี้ ก็อาจจะนำมาซึ่งผลลัพธ์ที่ดี และแม่นยำกว่าเดิม

Play video

 

โดยตอนนี้ก็มีค่ายเกมชื่อดังอย่าง Illumix ที่ได้ลองนำ Code API นี้ไปลองปรับใช้งานร่วมกับเกมในเครือของพวกเขา แถม Snapchat อีกหนึ่งแพลตฟอร์มยอดฮิต ก็ไม่น้อยหน้า นำ API ชุดนี้ ไปลองใช้งานร่วมกับฟิลเตอร์ต่างๆ ในแอปของพวกเขาเหมือนกัน งานนี้บอกเลยว่าในอนาคตคงอีกไม่นานที่หลายเกมจะนำเอา Code API นี้มาใส่ ซึ่งจะทำให้เกมสมจริงและสนุกกว่าเดิมขึ้นไม่น้อยเลยทีเดียวครับ

 

ที่มา : GSMarena