หุ่นยนต์ไม่ได้ต้องการแค่ “ร่างกาย” แต่ต้องมี “ใบหน้า”
1 min read
หุ่นยนต์ไม่ได้ต้องการแค่ “ร่างกาย” แต่ต้องมี “ใบหน้า”
AheadForm จากจีน กำลังทำให้ AI มองเรา ยิ้มตอบเรา และน่ากลัวกว่าที่คิด
จากเดิมที่หุ่นยนต์ฮิวแมนนอยด์แข่งกันเรื่องเดิน วิ่ง ยกของ หรือทำงานแทนมนุษย์ แต่ AheadForm เลือกเริ่มจากสิ่งที่ยากกว่า นั่นคือ “ใบหน้า” เพราะความไว้ใจของมนุษย์ มักตัดสินกันตั้งแต่สบตาครั้งแรก
นี่อาจเป็นจุดที่นิยายไซไฟอย่าง Ex Machina เริ่มเข้าใกล้โลกจริงมากขึ้นเรื่อย ๆ
AheadForm เป็นบริษัทหุ่นยนต์จากจีน ก่อตั้งโดย Yuhang Hu ผู้จบปริญญาเอกจาก Columbia University ภายใต้การดูแลของ Hod Lipson นักวิจัยหุ่นยนต์ที่ทำงานด้าน self-modeling robots มายาวนาน โดยบริษัทระบุว่ากำลังพัฒนาหุ่นยนต์ฮิวแมนนอยด์ที่เน้น “ศีรษะ” และ “ใบหน้า” เพื่อให้ AI สามารถแสดงอารมณ์ รับรู้สภาพแวดล้อม และโต้ตอบกับมนุษย์ได้เป็นธรรมชาติมากขึ้น
จุดเด่นของ AheadForm คือใบหน้าหุ่นยนต์ที่ใช้ผิวซิลิโคนร่วมกับระบบขับเคลื่อนขนาดเล็กจำนวนมาก เพื่อสร้างการขยับของริมฝีปาก ดวงตา คิ้ว และสีหน้าให้ใกล้เคียงมนุษย์มากที่สุด แนวคิดนี้ต่างจากบริษัทอย่าง Unitree, Figure, Tesla หรือ Boston Dynamics ที่มักเน้น “ร่างกาย” การเดิน การทรงตัว และการทำงานเชิงกายภาพ
แต่ AheadForm มองว่า ปัญหาที่ยากกว่าอาจไม่ใช่การทำให้หุ่นยนต์เดินได้ แต่คือการทำให้มนุษย์ “ไว้ใจ” มันได้
หนึ่งในแนวคิดสำคัญคือการก้าวข้าม “Uncanny Valley” หรือพื้นที่ประหลาดที่หุ่นยนต์ดูเกือบเหมือนมนุษย์ แต่ยังไม่เหมือนพอ จนทำให้คนรู้สึกขนลุกหรือไม่สบายใจ หลายบริษัทจึงเลือกออกแบบหุ่นยนต์ให้ดูเป็นการ์ตูน ดวงตาโต หรือรูปลักษณ์สังเคราะห์ชัดเจน เพื่อไม่ให้ผู้ใช้รู้สึกหลอน
แต่ AheadForm เลือกมอง Uncanny Valley เป็น “ปัญหาทางวิศวกรรม” มากกว่าจะเป็นกำแพงที่ข้ามไม่ได้ ถ้าเพิ่มจุดขยับให้พอ ปรับวัสดุให้ดี และทำให้จังหวะสีหน้าตรงกับมนุษย์มากขึ้น ช่องว่างนี้ก็อาจแคบลงได้
งานวิจัยของ Hu และ Lipson ยังชี้ให้เห็นว่า ใบหน้าและริมฝีปากเป็นส่วนสำคัญของการสื่อสารระหว่างมนุษย์กับหุ่นยนต์ โดยเฉพาะการขยับปากให้สอดคล้องกับเสียงพูด ซึ่งช่วยลดความรู้สึกแข็งทื่อและทำให้การสื่อสารดูเป็นธรรมชาติมากขึ้น
อีกจุดที่น่าสนใจคือ แนวคิด “ให้หุ่นยนต์เรียนรู้ใบหน้าของตัวเอง” ผ่านกล้อง คล้ายกับการให้หุ่นยนต์ทดลองขยับมอเตอร์แต่ละจุด แล้วดูผลลัพธ์บนใบหน้าของตัวเอง เพื่อสร้างแผนที่ภายในว่า ถ้าสั่งมอเตอร์นี้ ขยับแรงเท่านี้ ใบหน้าจะเปลี่ยนอย่างไร แนวทางนี้สอดคล้องกับงานของ Yuhang Hu ที่เน้น self-supervised learning และ vision-based robotic control
AheadForm ยังวางภาพอนาคตไกลกว่าหุ่นยนต์บริการทั่วไป เพราะเว็บไซต์ของบริษัทพูดถึงการทำให้ “ตัวละคร” หรือภาพจากความทรงจำ หน้าจอ และจินตนาการ กลายเป็นสิ่งที่มีตัวตนในโลกจริง ซึ่งเปิดทางไปสู่ธุรกิจใหม่อย่าง “ร่างกายจริงของตัวละครเสมือน” ไม่ว่าจะเป็นเกม อนิเมะ ภาพยนตร์ หรือ IP จากสตูดิโอใหญ่
อย่างไรก็ตาม คำกล่าวอ้างบางส่วนในโพสต์ต้นทาง เช่น ตัวเลขการระดมทุน 28.5 ล้านดอลลาร์ หรือการทำนายรอยยิ้มล่วงหน้า 839 มิลลิวินาที ยังควรระบุว่าเป็นข้อมูลจากโพสต์ไวรัล/แหล่งข่าวรอง ไม่ใช่ข้อมูลที่ยืนยันชัดเจนจากหน้าเว็บทางการของ AheadForm ณ ตอนนี้
แต่ภาพรวมชัดมากว่า เทรนด์หุ่นยนต์กำลังเปลี่ยนจากคำถามว่า
“หุ่นยนต์ทำอะไรได้บ้าง?”
ไปสู่คำถามที่น่ากลัวกว่าเดิมว่า
“เราจะรู้สึกอย่างไร เวลามันมองกลับมาที่เรา?”
และถ้า AheadForm ทำสำเร็จ หุ่นยนต์รุ่นต่อไปอาจไม่ได้ชนะเพราะเดินเก่งที่สุด
แต่อาจชนะเพราะเป็นตัวแรกที่มนุษย์รู้สึกว่า “อยากให้อยู่ใกล้ ๆ” จริง ๆ



ที่มา