VEGA Instrument
SIEMENS WinCC
วิจัยหุ่นยนต์

งานวิจัย: เทคโนโลยีระบบกล้องใหม่ที่ทำให้หุ่นยนต์รู้จักร่างกายตัวเอง

Date Post
31.07.2025
Post Views

Neural Jacobian Fields ซึ่งพัฒนาโดยนักวิจัยจากห้องปฏิบัติการ CSAIL ของ MIT สามารถเรียนรู้การควบคุมหุ่นยนต์ใด ๆ ก็ตามได้ด้วยกล้องเพียงตัวเดียวโดยไม่ต้องใช้เซนเซอร์ใด ๆ เพิ่มเติม

ในห้องทดลองของห้องวิจัยวิทยาการคอมพิวเตอร์และปัญญาประดิษฐ์ (CSAIL) แห่ง MIT มือหุ่นยนต์นิ่ม (Soft Robotic Hand) กำลังค่อย ๆ ขยับงอนิ้วเพื่อหยิบวัตถุชิ้นเล็กอย่างระมัดระวัง สิ่งที่น่าสนใจไม่ใช่การออกแบบกลไกหรือเซ็นเซอร์ที่ฝังอยู่ — อันที่จริงแล้วมือหุ่นยนต์นี้ไม่มีสิ่งที่ระบุมาเหล่านี้เลย แต่ทั้งระบบทำงานโดยอาศัยกล้องเพียงตัวเดียวที่คอยจับตาดูการเคลื่อนไหว และใช้ข้อมูลภาพที่มอเห็นเพื่อควบคุมการเคลื่อนไหวของหุ่นยนต์

ความสามารถนี้เกิดขึ้นจากระบบใหม่ที่นักวิทยาศาสตร์ของ CSAIL พัฒนาขึ้น ซึ่งจะเปลี่ยนมุมมองต่อการควบคุมหุ่นยนต์แบบดั้งเดิม แทนที่จะใช้โมเดลที่ต้องออกแบบด้วยมือทีละขั้นตอนและมีการใช้เซนเซอร์อันซ้บซ้อน ระบบใหม่นี้จึงเปิดทางให้หุ่นยนต์สามารถเรียนรู้ว่าร่างกายของตัวเอง และทำความเข้าใจว่าจะต้องเคลื่อนไหวอย่างไรและจะตอบสนองต่อคำสั่งอย่างไรจึงจะเหมาะสมผ่านการมองเห็นตัวเอง วิธีการนี้เรียกว่า Neural Jacobian Fields (NJF) ซึ่งทำให้หุ่นยนต์สามารถรับรู้ตัวตนร่างกายของตัวเองได้

แนวทางดังกล่าวสะท้อนให้เห็นการเปลี่ยนแปลงจากการเขียนโปรแกรมให้หุ่นยนต์ เป็นการสอนหุ่นยนต์แทน ซึ่งปัจจุบันการให้หุ่นยนต์ทำงานรูปแบบต่าง ๆ ต้องใช้ความรู้ทางวิศวกรรมและการเขียนรหัส ซึ่งทีมวิจัยหวังว่าจะเป็นการแสดงตัวอย่างการทำงานให้หุ่นยนต์ดู และปล่อยให้หุ่นยนต์สามารถทำงานตรงกับเป้าหมายโดยอัตโนมัติ

ความท้าทายสำคัญ คือ ราคาที่เข้าถึงได้ เพราะหุ่นยนต์ที่มีความยืดหยุ่นนั้นไม่ใช่แค่เรื่องของฮาร์ดแวร์ แต่มันขึ้นอยู่กับความสามารถในการควบคุมซึ่งสามารถดำเนินการได้หลายทาง

หุ่นยนต์แบบดั้งเดิมมักถูกออกแบบให้แข็งแรงและพึ่งพาเซนเซอร์จำนวนมาก เพื่อให้สามารถตอบสนองต่อการใช้งาน Digital Twin ได้ง่าย ดังนั้นการลอกเลียนแบบค่าทางคณิตศาสตร์ที่แม่นยำจึงจำเป็นต่อการควบคุม แต่หากหุ่นยนต์มีลักษณะนุ่มนิ่มก็จะเกิดการเปลี่ยนแปลงรูปทรง จนอาจเกิดเป็นรูปร่างประหลาดซึ่งส่งผลให้ในท้ายที่สุดแล้วส่้วนประกอบต่างๆ อาจล้มเหลวในการใช้งานได้ NJF จึงเสนอวิธีคิดที่กลับด้าน โดยแทนที่จะบังคับให้หุ่นยนต์ต้องเข้ากับแบบจำลองที่มนุษย์สร้างขึ้น เปลี่ยนเป็นให้หุ่นยนต์เรียนรู้แบบจำลองของตนเองจากการสังเกตและประมวลผลข้อมูลภาพโดยตรง

‘เรียนรู้’ ผ่านการมอง

การแยกกันระหว่างโมเดล และการออกแบบฮาร์ดแวร์ที่เกิดขึ้น เป็นการขยายพื้นที่ในการออกแบบหุ่นยนต์ออกไปอย่างมาก ในหุ่นยนต์นิ่มที่ได้รับแรงบันดาลใจมากจากความรู้ด้านชีววิทยา นักออกแบบมักจะต้องฝังเซนเซอร์หรือเสริมโครงสร้างบางจุดเพื่อให้โมเดลเกิดขึ้นได้จริง แต่ระบบ NJF แก้ไขข้อจำกัดนั้นออกไป ระบบนี้ไม่ต้องใช้เซนเซอร์ที่ติดตั้งมาในวงจร หรือการปรับดีไซน์เพื่อให้ควบคุมได้ นักออกแบบจึงสามารถสำรวจการเปลี่ยนแปลงรูปร่างได้อย่างอิสระ โดยไม่ต้องกังวลว่าจะสามารถควบคุมมันได้หรือไม่ในภายหลัง

ระบบนี้แสดงให้เห็นถึงความยืดหยุ่นเมื่อใช้กับหุ่นยนต์หลากหลายประเภท ทีมวิจัยได้ทดสอบ NJF กับหุ่นยนต์นิ่มแบบนิวแมติก ที่สามารถหยิบจับสิ่งของได้, หุ่นยนต์มือแข็ง Allegro, แขนหุ่นยนต์ที่พิมพ์ด้วยเครื่องพิมพ์ 3 มิติ และสามารถหมุนแท่นได้โดยไม่ต้องมีเซนเซอร์แบบฝังตัวใด ๆ ระบบสามารถเรียนรู้ได้ทั้งรูปร่างของหุ่นยนต์และการตอบสนองต่อคำสั่งควบคุม โดยอาศัยเพียงการมองเห็นและการเคลื่อนไหวแบบสุ่ม

หัวใจของ NJF คือเครือข่ายประสาทเทียม (Neural Network) ที่เรียนรู้สองแง่มุมหลักของการมีตัวตนทางกายภาพของหุ่นยนต์ นั่นคือ รูปร่างสามมิติ (3D Geometry) และ ความไวต่อสัญญาณควบคุม (Control Sensitivity) โดยระบบนี้ต่อยอดจากเทคนิคที่เรียกว่า Neural Radiance Fields (NeRF) ซึ่งเป็นการสร้างภาพสามมิติจากข้อมูลภาพ โดยแปลงพิกัดในอวกาศให้เป็นค่าแสงและความหนาแน่น NJF ขยายแนวทางนี้โดยไม่เพียงเรียนรู้รูปร่างของหุ่นยนต์เท่านั้น แต่ยังรวมถึง Jacobian field ซึ่งเป็นฟังก์ชันที่ทำนายว่าแต่ละจุดบนร่างกายของหุ่นยนต์จะเคลื่อนไหวอย่างไรเมื่อมีคำสั่งควบคุมส่งเข้ามา

ในการฝึกระบบนี้ หุ่นยนต์จะทำการเคลื่อนไหวแบบสุ่ม ขณะที่มีกล้องหลายตัวบันทึกผลลัพธ์ที่เกิดขึ้น โดยไม่ต้องมีการควบคุมจากมนุษย์หรือข้อมูลล่วงหน้าเกี่ยวกับโครงสร้างของหุ่นยนต์เลย ระบบจะคาดการณ์ความสัมพันธ์ระหว่างสัญญาณควบคุมและการเคลื่อนไหวด้วยตัวเองจากการสังเกต

เมื่อการฝึกเสร็จสิ้น หุ่นยนต์จะสามารถใช้กล้องธรรมดาเพียงตัวเดียวในการควบคุมวงรอบแบบเรียลไทม์ (Real-Time Closed-Loop Control) ได้เลย โดยสามารถประมวลผลได้ประมาณ 12 เฮิร์ตซ์ ซึ่งถือว่าเร็วพอที่จะใช้งานจริงได้มากกว่าซิมูเลเตอร์แบบใช้ฟิสิกส์จำลองทั่วไปที่มักช้าเกินกว่าจะใช้งานกับหุ่นยนต์นิ่มแบบเรียลไทม์ได้

จากการทดลองจำลองในช่วงต้น แม้แต่โครงสร้างเรียบง่ายอย่างนิ้วแบบ 2 มิติ และสไลเดอร์ ก็สามารถเรียนรู้การ Mapping นี้ได้โดยใช้ข้อมูลเพียงไม่กี่ตัวอย่าง โดยระบบจะจำลองว่าแต่ละจุดเปลี่ยนแปลงหรือบิดเบือนอย่างไรเมื่อมีการเคลื่อนไหว ทำให้สามารถสร้างแผนที่ความสามารถในการควบคุม (Dense Controllability Map) ขึ้นมาได้ภายในหุ่นยนต์เอง และโมเดลภายในเปิดโอกาสให้การเคลื่อนที่ทั่วตัวของหุ่นยนต์เกิดขึ้นไดเอย่างง่ายดาย แม้ว่าข้อมูลจะมีสัญญาณรบกวนหรือไม่ครบถ้วนก็ตาม

อนาคตของหุ่นยนต์: นุ่ม ยืดหยุ่น และปรับตัวได้

แวดวงหุ่นยนต์ให้ความสำคัญกับเครื่องจักรที่มีโครงสร้างแข็งแรงและสามารถจำลองพฤติกรรมได้ง่ายมาเป็นเวลายาวนาน เช่นเดียวกับแขนกลในโรงงานอุตสาหกรรม เนื่องจากสามารถควบคุมได้ง่ายและแม่นยำ แต่แนวโน้มของวงการหุ่นยนต์ในปัจจุบันเริ่มเปลี่ยนไปสู่หุ่นยนต์นิ่ม (Soft Robots) ซึ่งได้รับแรงบันดาลใจจากสิ่งมีชีวิตในธรรมชาติ สามารถปรับตัวเข้ากับสิ่งแวดล้อมในโลกแห่งความเป็นจริงได้อย่างลื่นไหลมากขึ้น แม้0tต้องแลกมากับความยากในการจำลองและควบคุม

แม้ในขณะนี้ การฝึก NJF ยังต้องอาศัยกล้องหลายตัวและต้องฝึกใหม่สำหรับหุ่นยนต์แต่ละตัว แต่ทีมวิจัยกำลังมองไปสู่เวอร์ชันที่เข้าถึงง่ายยิ่งขึ้น — ในอนาคต ผู้ใช้งานทั่วไปอาจเพียงถ่ายวิดีโอการเคลื่อนไหวของหุ่นยนต์ด้วยสมาร์ทโฟน (เหมือนเวลาถ่ายรถเช่าก่อนใช้งาน) แล้วใช้วิดีโอนั้นสร้างโมเดลควบคุม โดยไม่ต้องมีความรู้ลึกหรือใช้อุปกรณ์พิเศษใด ๆ

อย่างไรก็ตาม ระบบในปัจจุบันยังไม่สามารถใช้งานข้ามหุ่นยนต์หลายประเภทได้ และยังไม่มีการรับรู้แรงสัมผัส จึงยังไม่เหมาะกับงานที่ต้องการปฏิสัมพันธ์ทางกายภาพสูง เช่น การหยิบจับวัตถุเปราะบาง ทีมวิจัยกำลังพัฒนาแนวทางใหม่เพื่อแก้ข้อจำกัดเหล่านี้ ไม่ว่าจะเป็นการปรับให้ระบบใช้งานได้กับหุ่นยนต์หลายรูปแบบ การจัดการกับภาพที่ถูกบัง (Occlusion) และการให้ระบบเรียนรู้ล่วงหน้าในเชิงพื้นที่และเวลา

ที่มา:
MIT

Logo-Company
Logo-Company
Logo-Company
logo-company
Thossathip Soonsarthorn
"Judge a man by his questions rather than his answers" Voltaire