สารบัญ:
- นี่คือวิธีการทำงานของอัลกอริทึมของ Google
- การแก้ไขอัตโนมัติโดยคำนึงถึงบริบท
- บางทีเราอาจจะเห็นเทคโนโลยีนี้ใน Pixel
นักวิจัยจาก Google และ MIT ได้พัฒนาอัลกอริทึมที่พยายามแก้ไขข้อบกพร่องของภาพมุมกว้าง
คุณอาจเคยเห็นว่าใบหน้าของคนบางคนดูเหยียด ๆ ถลอกเล็กน้อยหรือรูปถ่ายบิดเบี้ยวไปบ้าง แม้ว่าอาจจะเป็นเพราะฝีมือของช่างภาพเพียงเล็กน้อย แต่ความจริงก็คือการถ่ายภาพด้วยเลนส์มุมกว้างจากอุปกรณ์พกพามักทำให้วัตถุหรือบุคคลที่อยู่ขอบภาพบิดเบี้ยว
มีวิธีการต่างๆที่พยายามแก้ปัญหานี้ แต่จนถึงขณะนี้ไม่มีวิธีใดได้ผลเท่าข้อเสนอใหม่ของ Google แม้ว่าจะดูเหมือนง่ายในการแก้ไข แต่ก็ไม่ได้เนื่องจากต้องมีการแก้ไขในเครื่องที่ซับซ้อนซึ่งไม่ส่งผลกระทบต่อส่วนที่เหลือของวัตถุในภาพถ่าย
นี่คือวิธีการทำงานของอัลกอริทึมของ Google
ตามที่นักวิจัยอธิบายอัลกอริทึมนี้จะตรวจจับใบหน้าและสร้างตาข่ายที่ช่วยให้สามารถย้อนกลับการบิดเบือนประเภทนี้โดยอัตโนมัติเมื่อถ่ายภาพด้วยมุมกว้างดังที่แสดงในภาพ:
เราสามารถบอกความแตกต่างได้เมื่อใช้อัลกอริทึมนี้ในภาพต่อไปนี้ เป็นภาพเซลฟี่ที่ถ่ายด้วยเลนส์มุมกว้างที่มีมุมมอง 97 °
ภาพแรกแสดงการบิดเบี้ยวของใบหน้าและภาพที่สองแสดงให้เห็นว่าอัลกอริทึมฟื้นฟูรูปหน้าให้กลับสู่สภาพเดิมได้อย่างไร
นั่นคือกระบวนการนี้จะทำงานโดยอัตโนมัติเมื่อใช้เลนส์มุมกว้างโดยให้ความช่วยเหลือพิเศษนี้กับใบหน้า แต่ไม่ทำให้ภาพที่เหลือเปลี่ยนแปลง และแน่นอนว่าความเร็วของการแก้ไขอัตโนมัตินี้ (ประมาณ 920 มิลลิวินาที) ทำให้ผู้ใช้ตรวจจับไม่ได้
จากการทดสอบที่พวกเขาทำอัลกอริทึมนี้ทำงานได้สำเร็จในช่วงมุมมอง 70 °ถึง 120 °ซึ่งครอบคลุมความเป็นไปได้เกือบทั้งหมดจากอุปกรณ์มือถือ
เพื่อใช้ประโยชน์จากศักยภาพของอัลกอริทึมนี้ผู้ใช้จะไม่ต้องดำเนินการใด ๆ หรือเปิดใช้งานโหมดกล้องพิเศษใด ๆ ฟังก์ชันนี้จะใช้งานโดยอัตโนมัติเมื่อตรวจพบว่ามีการใช้เลนส์มุมกว้าง
การแก้ไขอัตโนมัติโดยคำนึงถึงบริบท
เราสามารถดูพลวัตของอัลกอริทึมนี้ได้ในวิดีโอต่อไปนี้:
อัลกอริทึมจะแก้ไขโดยอัตโนมัติโดยคำนึงถึงส่วนที่เหลือของวัตถุที่ปรากฏในฉากเพื่อให้แน่ใจว่าบริบททั้งหมดของภาพถ่ายนั้นตรงกัน ผลลัพธ์ที่ได้เป็นธรรมชาติโดยไม่มีรายละเอียดที่แสดงให้เห็นว่าภาพถ่ายได้รับการแก้ไขเลย
ทีมงานที่อยู่เบื้องหลังโครงการนี้ได้แชร์แกลเลอรีรูปภาพบน Flickr ซึ่งแสดงให้เห็นว่าวิธีการต่างๆจัดการกับปัญหานี้อย่างไรเมื่อเทียบกับพลวัตของอัลกอริทึม มีภาพถ่ายมากกว่า 160 ภาพ (เช่นเดียวกับที่คุณเห็นในตอนต้นของบทความ) ที่ช่วยให้เราประเมินผลลัพธ์ได้
บางทีเราอาจจะเห็นเทคโนโลยีนี้ใน Pixel
เราหวังว่าอัลกอริทึมนี้หรือเทคโนโลยีที่ได้รับบางส่วนจะถูกนำไปใช้ใน Pixel รุ่นต่อไปเนื่องจากทีมที่เข้าร่วมในโครงการนี้เป็นพนักงานของ Google
อย่างไรก็ตามในเอกสารที่แชร์นั้นไม่ได้กล่าวถึงเรื่องนี้ แต่อย่างใด การทดสอบอัลกอริทึมครั้งแรกเหล่านี้ประสบความสำเร็จแสดงให้เห็นอีกครั้งว่าศักยภาพของปัญญาประดิษฐ์สามารถปรับปรุงพลวัตของอุปกรณ์เคลื่อนที่และทำให้ชีวิตง่ายขึ้นสำหรับผู้ใช้
เนื่องจากไม่ต้องสงสัยเลยว่าการมีไดนามิกที่คล้ายกันในอุปกรณ์มือถือของเราจะช่วยลดความปวดหัวและเวลาในการพยายามแก้ไขความผิดเพี้ยนเหล่านี้ในภาพถ่ายได้มาก