นับตั้งแต่การเปิดตัวฟีเจอร์ AI Overviews ฟีเจอร์สรุปคำค้นหาหรือสิ่งที่เราต้องการมาให้คนไทยได้ใช้งานกันสักพักแล้ว ภายในงาน Google I/O 2025 ก็ได้มีการประกาศว่า Google จะขยายขอบเขตในการนำ AI โมเดลอย่าง Gemini มาทำให้ Google Search ฉลาดขึ้นกว่าเดิม เพื่อตอบรับกับความต้องการของผู้ใช้ที่เพิ่มมากขึ้น

จาก AI Overviews สู่ AI in Search

AI Overviews คือฟีเจอร์ที่ช่วยให้การค้นหาข้อมูลบน Google เป็นไปได้อย่างรวดเร็ว ด้วยการดึงข้อมูลจากแต่ละเว็บไซต์มารวมเข้าไว้ด้วยกันแล้วทำเป็นสรุปให้เราอ่าน เช่น ถ้าเราค้นหาว่า “วิธี DIY ห้องเก็บเสียงสำหรับห้องซ้อมดนตรี” AI จะทำการรวมข้อมูลจากแต่ละเว็บไซต์แล้วเรียงวิธีทำมาเป็นลำดับให้ พร้อมเคล็ดลับหรือเทคนิคเพิ่มเติมอื่นๆ และแนบลิงก์เว็บไซต์ต้นฉบับให้เรากดเข้าไปดูเพิ่มเติมได้เองด้วย

ปัจจุบัน AI Overviews ได้ขยายการให้บริการไปมากกว่า 200 ประเทศ/พื้นที่ พร้อมรองรับมากกว่า 40 ภาษา โดยเฉพาะในประเทศใหญ่ๆ อย่างสหรัฐฯ และอินเดีย ที่มีอัตราการกลับมาใช้ Google Search เพื่อค้นหามากขึ้นเรื่อยๆ เมื่อได้ใช้งานหรือพิมพ์คำค้นหาที่เกี่ยวข้องกับ AI Overviews จึงเป็นหนึ่งในสาเหตุหลักของการพัฒนาฟีเจอร์ใหม่ และนำ AI เข้ามาตอบรับความต้องการที่เพิ่มขึ้นของกลุ่มผู้ใช้งาน เริ่มต้นด้วยการนำโมเดลตัวล่าสุดอย่าง Gemini 2.5 มาใช้กับ AI Overviews (เริ่มในสหรัฐอเมริกาก่อน)

ค้นหาข้อมูลแบบใหม่ด้วย AI Mode บน Google Search

AI Mode คือฟีเจอร์ใหม่ที่แตกต่างจากการค้นหาธรรมดา โดยจะเป็นการ ‘ค้นหาด้วย AI แบบเต็มรูปแบบ’ ซึ่งใช้เทคนิคที่เรียกว่า ‘Query fan-out’ สามารถแยกคำค้นหาหรือคำถามของเรา ออกเป็นหัวข้อย่อยหลายร้อยข้อ จากนั้น AI จะส่งคำค้นหาทั้งหมดออกไปพร้อมกันในเวลาเพียงไม่กี่วินาที ช่วยให้ได้คำตอบที่แม่นยำ และครอบคลุมคำถามของเรามากกว่าการค้นหาแบบปกติ รองรับคำค้นหาที่ซับซ้อนกว่าเดิม และยาวมากกว่าเดิม 2-3 เท่า

เช่นเดียวกับ AI Overviews โมเดลอย่าง Gemini 2.5 ก็จะถูกนำมาใส่ไว้ใน AI Mode นี้ด้วยเหมือนกัน ซึ่งจะเปิดให้ผู้ใช้ในสหรัฐอเมริกาทุกคนได้ลองใช้งานกันเป็นประเทศแรก ไม่จำเป็นต้องลงทะเบียนผ่าน Google Labs เหมือนที่ผ่านมา พร้อมกันนั้น Google ยังวางแผนที่จะเปิดตัวความสามารถใหม่ๆ ของ AI Mode เพิ่มเติมอีกในอนาคต ไม่ว่าจะเป็น

Deep Search in AI Mode ค้นหาแบบเจาะลึกละเอียดยิบ

ถ้าการค้นหาด้วย AI Mode เฉยๆ ยังไม่สะใจพอ ความสามารถอย่าง Deep Search จะช่วยให้ได้คำตอบที่ละเอียดและแม่นยำยิ่งกว่าเดิมโดยใช้เทคนิค Query fan-out แบบเดียวกันแต่เพิ่มความเข้มข้นเข้าไปอีก

Deep Search จะทำการวิเคราะห์คำค้นหาหลายร้อยหลายการพร้อมกัน ประมวลผลข้อมูลทั้งหมดที่ได้มาจากหลายแหล่งข้อมูล แล้วนำมาวิเคราะห์ เรียบเรียงพร้อมสรุปออกมาในรูปแบบของรายงาน แนบด้วยรูปภาพประกอบ ตาราง และแหล่งอ้างอิงแบบครบถ้วน ลดระยะเวลาในการค้นคว้าข้อมูลหลายชั่วโมงให้เหลือเพียงแค่ไม่กี่นาที

Search Live ตัวช่วยค้นหาแบบเรียลไทม์

ฟีเจอร์ค้นหาด้วยภาพอย่าง Google Lens ในปัจจุบันมีผู้ใช้งานมากถึง 1.5 พันล้านคน และเพื่อยกระดับประสิทธิภาพของการใช้งานการค้นหาด้วยภาพ (Visual Search) Google ได้หยิบความสามารถโต้ตอบแบบเรียลไทม์ของ Project Astra มาใช้กับการค้นหาจนได้ออกมาเป็นฟีเจอร์ Search Live

Search Live ทำหน้าที่ค้นหาข้อมูล และพูดคุยโต้ตอบกับเราแบบเรียลไทม์อ้างอิงจากสิ่งที่อยู่ในกล้อง ยกตัวอย่างเช่น ‘ทำโปรเจกต์สิ่งประดิษฐ์จากไม้ไอติม แต่ไม่รู้ว่าจะประกอบยังไงให้แข็งแรงที่สุด?’ เพียงแค่เปิดโหมด “Live” แล้วถามสิ่งที่ต้องการ AI จะตอบกลับเราด้วยเสียงเป็นการอธิบายพร้อมคำแนะนำต่างๆ นอกจากนั้นจะดึงลิงก์ของเว็บไซต์ คลิปวิดีโอ ที่ใช้อ้างอิงให้เรากดเข้าไปดูเพิ่มเติมได้ด้วย

ปล่อยให้ Search ทำงานแทนเรา

Google นำความสามารถของ Project Mariner ที่มีความสามารถในการ “ลงมือทำ” ไม่จำกัดแค่การตอบคำถามมาใช้บน AI Mode ของ Google Search ช่วยให้การค้นหาของผู้ใช้เป็น One-stop Service ครบจบในตัว ช่วยประหยัดเวลาในการค้นหาและการทำหลายอย่างไปพร้อมกัน

ยกตัวอย่างการค้นหาเช่น “หาตั๋วคอนเสิร์ต PiXXiE ราคาไม่แพง 2 ใบ รอบวันเสาร์นี้เอาเป็นโซนยืน” AI Mode จะเริ่มทำการค้นหาตามเว็บไซต์ต่างๆ เพื่อวิเคราะห์ตัวเลือกตั๋วคอนเสิร์ตหลายรายการพร้อมราคาและจำนวนที่นั่งที่ดีที่สุดแบบเรียลไทม์ จัดการกรอกข้อมูลให้เสร็จสรรพ จากนั้นจึงจะสรุปเป็นตัวเลือกตั๋วที่ตรงกับความต้องการของเราในแต่ละแบบให้เราเลือก พร้อมนำทางไปยังหน้าเว็บไซต์เพื่อชำระเงินโดยอัตโนมัติ

ผู้ช่วยช็อปปิ้งอัจฉริยะ ลองเสื้อผ้าบนเว็บเพิ่มความมั่นใจก่อนกดซื้อ

ช็อปปิ้งออนไลน์ด้วยพลังของ Gemini กับ Google Shopping Graph ให้การค้นหาสินค้าตรงใจกว่าเดิม เปรียบเทียบราคาหรือความแตกต่างสินค้าแต่ละชิ้นง่ายขึ้น หรือถ้าไม่มั่นใจว่าชุดที่เล็งเอาไว้จะเข้ากับตัวเองหรือเปล่า ก็สามารถใช้ฟีเจอร์ Virtual Try-on กับสินค้าในฐานข้อมูลกว่าพันล้านรายการได้เพียงปลายนิ้ว แค่อัปโหลดรูปภาพเต็มตัวของเราหนึ่งรูป (เบื้องต้นยังเปิดให้ทดลองใช้สำหรับสหรัฐอเมริกาบน Google Labs เท่านั้น)

ฟีเจอร์ชำระเงินแบบใหม่ผ่าน Google Pay จะช่วยให้เราซื้อสินค้าในราคาที่ต้องการได้ง่ายๆ แค่กดปุ่ม “ติดตามราคา (track price)” พร้อมจิ้มตัวเลือกไซส์ สี (หรือตัวเลือกอื่นๆ ของสินค้าที่จะซื้อ) และตั้งงบประมาณสำหรับของชิ้นนั้นๆ ระบบจะทำการแจ้งเตือนให้เมื่อสินค้าที่ว่ามีการลดราคาไปจนถึงเป้าหมายที่เราตั้งไว้ หากต้องการซื้อก็สามารถกดปุ่ม “ซื้อ (Buy for me)” ได้ทันที

ระบบ Search ที่ออกแบบมาให้เข้าใจเรามากกว่าเดิม

เพื่อให้การค้นหาคอยแนะนำผลลัพธ์ที่ตรงใจ และเหมาะสมกับไลฟ์สไตล์ของเรามากขึ้น AI Mode จะคอยให้คำแนะนำที่ออกแบบมาสำหรับเราโดยเฉพาะ (personalized suggestions) โดยอิงจากประวัติการค้นหา และข้อมูลต่างๆ ที่อยู่บนแอปพลิเคชัน Google Service ของเราอย่างเช่น Gmail และ Calendar เป็นต้น เพื่อให้ AI เข้าใจว่าเรามีไลฟ์สไตล์แบบไหน ทำงานหรือจำเป็นต้องใช้ข้อมูลประเภทใดมากที่สุด

ตัวอย่างการค้นหาเช่น “ไปเที่ยวรัชโยธินสุดสัปดาห์นี้ มีอะไรน่าสนุกให้ทำบ้าง แก๊งเราเป็นสายกินและชอบฟังดนตรีสดมาก” จากนั้น AI Mode จะทำการแนะนำร้านอาหารที่มีมีคุฯสมบัติตรงกับความต้องการของเรา ซึ่งอ้างอิงจากการจองร้านหรือประวัติการค้นหาของเราที่ผ่านมา พร้อมกันนั้นยังสามารถแนะนำกิจกรรมหรืองานอีเว้นท์ที่จัดอยู่ใกล้ๆ กับที่พักหรือที่ที่เราจะไปได้ด้วย โดยใช้ข้อมูลจากการจองเที่ยวบินและโรงแรมของเราเอง (สามารถเลือกเปิด-ปิด ได้ตลอดเวลาว่าต้องการให้เชื่อมต่อกับข้อมูลส่วนนี้มั้ย)

เปรียบเทียบข้อมูลที่ซับซ้อนให้อยู่ในรูปแบบกราฟที่เข้าใจง่าย

อีกหนึ่งความสามารถของ AI Mode in Search คือการสรุปข้อมูล และรองรับชุดข้อมูลตัวเลขที่ซับซ้อนเพื่อทำภาพหรือกราฟเปรียบเทียบให้เราดูแบบง่ายๆ ไม่ว่าจะเป็นเรื่องกีฬาหรือการเงิน Search จะดึงข้อมูลแบบเรียลไทม์จาก Google มาสรุปให้เราโดยไม่ต้องวิเคราะห์เองให้ยุ่งยาก เช่น เปรียบเทียบข้อมูลอัตราการชนะ-แพ้ ของทีมที่ชื่นชอบกับทีมอื่นๆ

Gemini in Chrome

อีกหนึ่งสิ่งที่จะไม่พูดถึงก็ไม่ได้คือการมาถึงของ Gemini บน Google Chrome สำหรับผู้ใช้งานแพ็คเกจ Google AI Pro และ Google AI Ultra ที่จะฝังมาในรูปแบบของปุ่มใหม่ปรากฏอยู่ตรง Title Bar มีความสามารถหลักในการอ่าน สรุปหรือเรียบเรียงเนื้อหาจำนวนมากบนหน้าเว็บที่เราดูอยู่ รองรับหน้าต่างสำหรับการถาม-ตอบ และในอนาคต Google มีแผนขยายความสามารถของ Gemini บน Chrome เพิ่มเติม เช่น การทำงานระหว่างแท็บหรือการท่องเว็บแทนผู้ใช้

สำหรับ AI Mode และความสามารถอื่นๆ ที่มาพร้อมกันตามลิสต์ข้างบน จะเริ่มเปิดให้ใช้งานสำหรับกลุ่มผู้ใช้ในสหรัฐอเมริกาเป็นประเทศแรก สำหรับประเทศอื่นๆ คาดว่าอาจจะทยอยเปิดตัวให้ใช้งานไม่เกินภายในสิ้นปี 2025 นี้ครับ

ที่มา: Google

เนื้อหาที่เกี่ยวข้อง