Image Image Image Image Image Image Image Image Image Image

Kawizara | May 18, 2024

Scroll to top

Top

No Comments

หุ่นยนต์ฆ่าคนในโรงงานโฟล์คสวาเกน

หุ่นยนต์ฆ่าคนในโรงงานโฟล์คสวาเกน
kawizara

เมื่อช่วงสัปดาห์ที่ผ่านมามีข่าวว่าพนักงานวัย 22ปีเสียชีวิตเพราะหุ่นยนต์จนกลายเป็นข่าวใหญ่ไปทั่วโลกนะคะ ซึ่งเหตุการณ์นี้เกิดขึ้นที่โรงงานของบริษัทโฟล์คสวาเกน ประเทศเยอรมัน จากการที่พนักงานเข้าไปตั้งค่าหุ่นยนต์ยนต์แขนกลประกอบชิ้นส่วนรถโฟล์คภายในกรงที่ปกติจะใช้กั้นระหว่างหุ่นยนต์และมนุษษย์แล้วถูกหุ่นยนต์หิ้วร่างขึ้นบดขยี้ลงกับแผ่นโลหะจนเป็นเหตุให้เสียชีวิตในเวลาต่อมา ซึ่งทางบริษัทโฟล์คสวาเกนเองก็ออกมาบอกว่าเรื่องนี้เกิดจากความผิดพลาดของมนุษย์มากกว่าจะเป็นความผิดพลาดของระบบของหุ่นยนต์

แม้หลายๆ คนจะมองว่าเรื่องนี้เป็นอุบัติเหตุที่เกิดจากความประมาทแต่เรื่องนี้ก็สร้างความตื่นตระหนกให้กัผู้คนจำนวนไม่น้อย ทางทีมงานของเว็ปไซต์ popsci.com ได้ไปขอสัมภาษณ์ Ryan Calo อาจารย์ด้านกฎหมายของมหาวิทยาลัยวอชิงตันผู้ที่เคยตีพิมพ์บทความทางวิชาการเกี่ยวกับหุ่นยนต์อย่างเช่น Open Robotics ที่พูดถึงการเข้ามาของหุ่นยนต์ในอนาคต และเรื่องกฎหมายกับหุ่นยนต์ใน Robotics and the Lessons of Cyberlaw

Ryan Calo ชี้ว่าเรื่องนี้ไม่ใช่เรื่องใหม่ที่เพิ่งเกิดขึ้น ในสหรัฐเองมีพนักงานเสียชีวิตจากหุ่นยนต์อุตสาหกรรมแบบนี้ราว 1รายในทุกๆ ปี ซึ่งทางกระทรวงแรงงานก็มีการบันทึกประวัติของคดีแบบนี้มาตั้งแต่ปี 2000 แล้ว ทั้งนี้เราต้องแยกระหว่างอุบัติเหตุกับความผิดพลาดที่เกิดจากหุ่นยนต์จริงๆ อย่างเช่นในกรณีนี้หุ่นยนต์ที่ใช้ในอุตสาหกรรมนั้นถูกออกแบบมาให้ทำอะไรซ้ำๆ ไปเรื่อยๆ ซึ่งพวกมันไม่สามารถแยกออกได้เลยว่าสิ่งที่พวกมันกำลังจับกำลังยกนั้นคือะไร พวกมันบอกความแตกต่างระหว่างแผ่นโลหะหรือมนุษย์ไม่ได้ ดังนั้นจึงเป็นเรื่องปกติที่แต่ละโรงงานจะต้องจัดเขตอันตรายเพื่อไม่ให้มนุษย์เข้าไปยุ่มย่ามในบริเวณที่เครื่องจักรกำลังทำงานเพื่อไม่ให้เกิดอุบัติเหตุขึ้น ซึ่งทางแก้ของปัญหานี้นั้นอาจจะเป็นการตัดคนออกจากลูปการทำงานของหุ่นยนต์ไปเลย

แต่ทั้งนี้ในงานเขียนของเขาเองก็เคยพูดถึง “emergent behavior” หรือการที่หุ่นยนต์สามารถแสดงพฤติกรรมที่เราไม่คาดคิดขึ้นมาได้เอง ซึ่งนั่นก็อาจจะเป็นความผิดพลาดที่น่ากลัวไม่ใช่น้อย ยกตัวอย่างเช่นอัลกอริทึ่มในการใช้แท็กภาพของ Google ที่ล่าสุดมีข่าวว่าไปแท็กภาพคนผิวดำเป็นกอลิล่า เป็นต้น ความผิดพลาดเช่นนี้ไม่ได้เป็นความผิดพลาดที่ผู้โพสภาพหรือคนที่อยู่ในภาพ แต่กลับเป็นที่ตัวระบบเองและแน่นอนว่าทาง Google ก็คาดไม่ถึงว่าจะเกิดการแท็กภาพที่ผิดพลาดเช่นนี้

แม้การใช้งานจะหุ่นยนต์อาจเกิดข้อผิดพลาดขึ้นได้แต่ส่วนมากก็ยังเป็นอุบัติเหตุเสียมากกว่า การหวาดกลัวและปฏิเสธการพัฒนาหุ่นยนต์ไปเลยนั้นก็อาจจะทำให้มนุษย์เราเสียผลประโยชน์ในหลายๆ ด้าน อย่างเช่นการพัฒนาหุ่นยนต์เพื่อช่วยยกระดับคุณภาพชีวิตมนุษย์ การพัฒนาหุ่นยนต์เพื่อมาทุ่นแรงงานหรือมาทำหน้าที่ที่อันตรายแทนมนุษย์เป็นต้น แต่ทั้งนี้เราก็ต้องมีมาตรการในการรับมือกับปัญหาที่อาจจะเกิดขึ้นอย่างเหมาะสมด้วย

 

Source: popsci

comments