สารบัญ:
เมื่อต้นเดือนที่ผ่านมา Google ได้ประกาศตัวกรองใหม่สำหรับ Google Lens การเพิ่มใหม่เหล่านี้จะช่วยให้เราสามารถ วิเคราะห์สภาพแวดล้อมของเราด้วยโทรศัพท์ของเรา และให้ข้อมูลที่มีค่าแก่เรา เช่น เมนูของร้านอาหารหรืออาหารยอดนิยม เช่น คุณลักษณะเหล่านี้เริ่มเข้าถึงผู้ใช้แม้ว่าจะมีการออกแบบใหม่เล็กน้อย
อินเทอร์เฟซ Google Lens ใหม่สามารถเข้าถึงได้ผ่าน Google Assistant หรือโดยตรงจาก Google Photos ตอนนี้เราสามารถเข้าถึง 5 โหมดใหม่ ที่สามารถเลือกได้โดยใช้การเลื่อนแนวนอนในโหมดใหม่เหล่านี้ เรามีตัวเลือก: อัตโนมัติ การแปล ข้อความ การซื้อ และอาหาร
Google Lens เพิ่มโหมดใหม่ด้วยปัญญาประดิษฐ์เหมือนยี่ห้ออื่น
นี่ไม่ใช่เรื่องใหม่แต่อย่างใดอย่างที่เราได้เห็นกันไปแล้ว การดำเนินการที่คล้ายกันในผู้ช่วยจากบริษัทอื่นๆ เช่น Huawei หรือ Samsungการดำเนินการ ในความเป็นจริงมันคล้ายกันมาก โหมดอัตโนมัติสามารถวิเคราะห์สิ่งที่เราเห็นและระบุได้ แม้ว่าจะไม่ได้แม่นยำที่สุดก็ตาม ในอีกสองโหมดการแปลช่วยให้เราได้รับข้อความในภาษาของเราแบบเรียลไทม์ และโหมดข้อความได้รับการออกแบบเพื่อส่งออกจดหมายจากโลกแห่งความจริงไปยังสมาร์ทโฟนของเราโดยไม่ต้องเขียน
สุดท้ายนี้โหมดการจับจ่ายหรือการกินสามารถวิเคราะห์สินค้าเพิ่มเติมได้โหมดช็อปปิ้งสามารถ จดจำวัตถุผ่านรูปร่าง หรือแม้กระทั่งบาร์โค้ด ตัวเลือกอาหารทำให้เรามีเมนูของร้านอาหารบางแห่ง แม้ว่าธุรกิจนั้นจะต้องเตรียมก่อน
ตัวเลือกเลนส์มีมาก แต่หลายๆ ธุรกิจยังไม่พร้อม
โหมดเหล่านี้ปรากฏในภาพหมุนขนาดเล็กที่ด้านล่างของหน้าจอ และ ไม่ต้องกดปุ่มถ่ายภาพ, Google Lens เริ่มทำงานทันทีที่ตรวจพบวัตถุด้านหน้ากล้อง อีกตัวเลือกที่น่าสนใจของซอฟต์แวร์นี้คือสามารถวิเคราะห์ภาพถ่ายที่เรามีอยู่แล้วในแกลเลอรี และไม่เพียงแต่ภาพที่เราโฟกัสด้วยกล้องเท่านั้น นอกจากนี้ยังสามารถเลือกเฉพาะชิ้นส่วนของภาพและวิเคราะห์ได้ ในกรณีที่ภาพถ่ายทั้งหมดไม่สำคัญ
การออกแบบใหม่ของ Google Lens นี้พร้อมใช้งานสำหรับผู้ที่ใช้ Google 9.91 เบต้า ดูเหมือนว่าจะเป็นเอกสิทธิ์สำหรับโทรศัพท์ Pixel แต่ได้รับการทดสอบในโทรศัพท์ Samsung บางรุ่นแล้ว อีกไม่นานจะพร้อมให้ทุกคนใช้งานตามที่ระบุโดย 9to5Google