Mind Analytica

ผู้คนไว้วางใจ AI หรือไม่ในการช่วยคัดเลือกบุคลากรคนใหม่

19 กุมภาพันธ์ 2567 - เวลาอ่าน 1 นาที
ผู้คนไว้วางใจ AI หรือไม่ในการช่วยคัดเลือกบุคลากรคนใหม่

ในช่วงไม่กี่ปีที่ผ่านมา การใช้ระบบอัตโนมัติที่ขับเคลื่อนด้วย AI ในการคัดเลือกบุคลากรเพื่อเข้ามาเป็นส่วนหนึ่งขององค์กรได้รับความนิยมเพิ่มขึ้นมาก นับได้ว่าเป็นการพลิกโฉมของงานด้านทรัพยากรมนุษย์ ถึงแม้ว่าความน่าเชื่อถือในความสามารถของระบบ AI เมื่อเปรียบเทียบกับมนุษย์นั้นยังเป็นสิ่งที่อยู่ในระหว่างการทดสอบและวิจัย ปัจจุบันนี้พบว่า AI สามารถใช้ในการคัดกรองผู้สมัครให้เป็นกลุ่มที่เล็กลงได้ อย่างไรก็ตาม ทุกคนก็รับรู้ว่า AI ในการคัดเลือกในปัจจุบันไม่ใช่วิธีการที่สมบูรณ์แบบ ดังนั้นนักวิจัยบางคน จึงสนใจศึกษาความเชื่อและอคติที่มนุษย์มีต่อระบบ AI ในการคัดเลือกบุคลากร

ในการทดลองหนึ่งในประเทศเยอรมันให้ผู้เข้าร่วมการทดลองได้ทำหน้าที่เป็นคนตัดสินใจว่าจะรับผู้ฝึกงานเข้ามามาฝึกงานในบริษัทหรือไม่ โดยผู้ร่วมการทดลองจะได้ข้อมูลจากการคัดกรองเบื้องต้นเหมือนกัน แต่ผู้ร่วมการทดลองจะสุ่มออกเป็น 4 กลุ่ม

กลุ่มที่ 1 บอกว่าข้อมูลคัดกรองมาจากพนักงานคนอื่น

กลุ่มที่ 2 บอกว่าข้อมูลคัดกรองมาจากระบบอัตโนมัติ

กลุ่มที่ 3 บอกว่าข้อมูลคัดกรองมาจากพนักงานคนอื่น และได้รับรายงานว่าพนักงานคนนี้อาจจะมีโอกาสผิดพลาดได้บ้าง

กลุ่มที่ 4 บอกว่าข้อมูลคัดกรองมาจากระบบอัตโนมัติ และได้รับรายงานว่าระบบอัตโนมัตินี้อาจจะมีโอกาสผิดพลาดได้บ้าง

จากการทดลองพบว่า ถึงแม้ว่าผู้เข้าร่วมการทดลองจะมองว่าข้อมูลจากมนุษย์และระบบอัตโนมัติมีความน่าไว้วางใจ (Trustworthiness) ไม่แตกต่างกัน แต่กลับให้ความไว้วางใจ (Trust) กับข้อมูลจากการตัดสินใจของมนุษย์มากกว่าข้อมูลจากการตัดสินใจของระบบอัตโนมัติ

นอกจากนี้การทดลองยังดำเนินต่อไป ในสถานการณ์จำลองที่ผู้เข้าร่วมการทดลองได้รับข้อมูลที่ผิดพลาดจากการตัดสินใจของมนุษย์หรือจากระบบอัตโนมัติ และตามด้วยข้อความรายงานว่าข้อมูลที่แสดงไปก่อนหน้านั้นมีความผิดพลาด จากนั้นระบบจะแสดงข้อมูลอีกชุดหนึ่งโดยระบุอีกว่าข้อมูลชุดล่าสุดนี้ได้รับการแก้ไขข้อผิดพลาดแล้ว สถานการณ์จำลองดังกล่าวมีจุดประสงค์ 2 อย่างเพื่อทดลองว่าระบบอัตโนมัติมีศักยภาพมากกว่ามนุษย์หรือไม่ และหากมีการแก้ไขข้อผิดพลาดแล้วผู้ใช้งานมีความเชื่อว่าระบบอัตโนมัติหรือมนุษย์มีความซื่อตรงมากกว่ากัน 

ผลการทดลองพบว่าผู้เข้าร่วมการทดลองมีความไว้วางใจใน “ความสามารถ” ของระบบอัตโนมัติในระดับที่น้อยกว่าการตัดสินใจด้วยมนุษย์ แต่มีความไว้วางใจใน “ความซื่อตรง” ของระบบอัตโนมัติที่มากกว่า

และการทดลองในส่วนสุดท้ายที่ในผู้เข้าร่วมการทดลองในกลุ่มที่ 3 และ 4 ซึ่งได้รับข้อความเตือนว่าระบบอัตโนมัติหรือมนุษย์มีโอกาสในการแสดงข้อมูลที่ผิดพลาดได้ ผลการวิจัยในส่วนนี้พบว่าการระบุให้ทราบถึงโอกาสผิดพลาดตั้งแต่ต้นไม่ได้ส่งผลต่อความน่าไว้วางใจ (Trustworthiness) ของผู้เข้าร่วมการทดลอง แต่ในช่วงหลังจากแก้ไขข้อผิดพลาดแล้วความน่าเชื่อถือต่อระบบอัตโนมัติมีสูงกว่าความน่าเชื่อถือที่มีต่อมนุษย์

จากผลการทดลองนี้ผู้บริหารองค์กรอาจมีความจำเป็นต้องตระหนักถึงอคติที่มีต่อระบบ AI ในกระบวนการคัดเลือกผู้สมัครงาน โดยเฉพาะอย่างยิ่งเมื่อผลการทดลองชี้ให้เห็นว่าผู้ตัดสินใจมีแนวโน้มที่จะเชื่อว่าระบบ AI มีปัญหาในการตัดสินใจมากกว่าการตัดสินใจโดยมนุษย์

โดยสรุปไม่ว่าองค์กรจะใช้วิธีการใดในการคัดเลือกบุคลากรไม่ว่าจะด้วยมนุษย์หรือด้วยระบบ AI ความไว้วางใจถือเป็นสิ่งที่สำคัญที่สุดในกระบวนการคัดเลือก การทดลองนี้ยังชี้ให้เห็นว่าการที่ความไว้วางใจต่อศักยภาพของระบบอัตโนมัติไม่เป็นไปตามที่คาดและการแก้ไขสิ่งที่ผิดพลาดเป็นส่วนที่สำคัญต่อความไว้วางใจต่อระบบ AI ผู้พัฒนาระบบ AI ในการคัดเลือกบุคลากรหรือในสาขาอื่นควรที่จะตระหนักให้เห็นว่าความผิดพลาดสามารถแก้ไขได้ การรับรู้ถึงข้อผิดพลาดและความพร้อมที่จะแก้ไขช่วยกู้คืนความไว้วางใจที่มีต่อระบบ AI 

บทความต้นฉบับ

Langer, M., König, C. J., Back, C., & Hemsing, V. (2023). Trust in Artificial Intelligence: Comparing trust processes between human and automated trustees in light of unfair bias. Journal of Business and Psychology, 38(3), 493-508.

ผู้เขียน

MindAnalytica Team

MindAnalytica Team

เรื่องที่คุณอาจสนใจ