วิเคราะห์ข่าว ตามสไตล์ Coraline : People don’t trust AI. We need to change that



"People don’t trust AI. We need to change that" โดย towardsdatascience


https://towardsdatascience.com/people-dont-trust-ai-we...


จากบทความข้างต้น ผู้เขียนได้สรุปสิ่งที่เกิดการพูดคุยจากงาน THINK ที่ซานฟรานซิสโกที่ผ่านมา โดยมีประเด็นที่น่าสนใจคือผู้คนไม่ไว้วางใจใน AI หรือระบบอัจฉริยะ แม้ผลจากการศึกษาเมื่อปี 2018 พบว่ากว่า 94% ของผู้บริหารธุรกิจเชื่อว่าการนำ AI มาใช้นั้นมีความสำคัญต่อการแก้ปัญหาเชิงกลยุทธ์ แต่ก็พบว่ามีองค์กรเพียง 18% เท่านั้นที่ถูกได้ว่าเป็น “ผู้บุกเบิก” AI อย่างแท้จริง สิ่งนี้แสดงให้เรารับรู้ถึงช่องว่างขนาดใหญ่ที่เป็นปัญหาด้านความสามารถในการนำไปใช้งานจริงของ AI


นอกจากนี้ยังมีเรื่องอคติในการเรียนรู้ของ Machine Learning ที่อาจมีผลต่อเรื่อง เชื้อชาติ เพศ หรือเอนเอียงไปทางใดทางหนึ่ง ซึ่งมีผลตั้งแต่ขั้นตอนการออกแบบ AI เนื่องจากเราอยู่ในโลกที่เต็มไปด้วยอคติ จึงไม่แปลกที่จะเกิดความลำเอียงโดยเจตนาและโดยไม่ตั้งใจซึ่งเป็นสิ่งที่ไม่สามารถกำจัดออกจากการตัดสินใจของมนุษย์ได้


อีกประการหนึ่งเป็นเรื่องของความสามารถในการอธิบายของ Machine Learning ประเภท Black Box เช่น Neural Networks หรือ XGBoost Models ซึ่งความสามารถในการอธิบายมีความสำคัญอย่างยิ่ง โดยผู้เขียนได้เสนอว่าควรมองในเรื่องของความสามารถในการเข้าใจผลกระทบของระบบ AI เพื่อให้ผลที่ได้จาก


โมเดลเป็นผลลัพธ์ที่จับต้องได้โดยการตรวจสอบเส้นทางและทำความเข้าใจโมเดลเหล่านั้นเป็นสิ่งจำเป็น เพราะหากไม่มีการตรวจสอบหรือได้รับประโยชน์อย่างสม่ำเสมอหรือรู้ว่าต้องแก้ไขประสิทธิภาพโมเดลเมื่อไหร่ หลายๆองค์กรจะลังเลและไม่ไว้วางใจในระบบ AI ใด ๆ




สิ่งสุดท้ายที่เป็นอุปสรรคต่อการนำ AI ไปใช้ คือช่องว่างด้านทักษะที่หลายองค์กรกำลังเผชิญ จากปัญหาการขาดแคลน Data Scientist ซึ่งจากการสำรวจของ Deloitte พบว่าในปี 2024 ประเทศสหรัฐอเมริกาจะขาดแคลน Data Scientist กว่า 250,000 คนเลยทีเดียว


ซึ่งปัญหาดังกล่าวส่งผลต่อบริษัทที่ไม่มีทรัพยากรเฉพาะ ไม่มีเครื่องมือที่ช่วยให้เข้าใจระบบว่าสามารถทำงานได้จริงก็นำออกจากการทดลองแล้วขึ้นการผลิตจริง จึงไม่แปลกที่ผลสำรวจพบว่า องค์กรกว่า 82% นั้นล้มเหลวในการนำ AI มาใช้ ทำให้ผู้คนไม่ไว้วางใจใน AI


โดยผู้เขียนได้เสนอทางแก้โดย

1. อยากให้บริษัทที่ประสบความสำเร็จช่วยบริษัทต่างๆให้ทันการเปลี่ยนแปลงและสามารถใช้เครื่องมือร่วมกันได้ให้บริษัทใหญ่ช่วยบริษัทเล็กก่อนที่ความไม่ไว้วางใจจะทำให้ตลาด AI หายไป

2. การสร้าง AI ให้เกิดความไว้วางใจในวงกว้างเพราะหากคนและองค์กรส่วนใหญ่ไม่ต้องการใช้งาน AI ก็จะไม่เกิด โดยทำให้ทุกคนสามารถเข้าใจระบบ AI


ในขณะนี้มีการเริ่มต้นกับการจัดการปัญหาอคติ จากชุดข้อมูลและเครื่องมือช่วยให้ Data Scientist สามารถระบุอคติใน Models ของตนเองรวมไปถึงเทคโนโลยีที่เพิ่มความชัดเจน แก้ปัญหาความคลุมเคลือของระบ


บ AI สำหรับสายที่ไม่ใช่เทคนิค และกึ่งเทคนิคนำมาซึ่งความโปร่งใสของ AI ที่เจ้าของธุรกิจสามารถเข้าใจการตัดสินใจแบบ Algorithm ได้เพื่อให้แน่ใจว่ามีความยุติธรรมในระบบ AI ซึ่งผู้เขียนมองว่าการแก้ปัญหาความไม่ไว้วางใจ AI เป็นเรื่องเร่งด่วนที่ควรทำเพราะหากคนทั่วไปไม่ไว้วางใจและปฏิเสธ AI จะเป็นการเสียโอกาสอย่างยิ่ง


เราสามารถเรียนรู้หลายสิ่งหลายอย่างจากบทความนี้ทั้งในเรื่องของความไม่ไว้วางใจในระบบ AI และการมีอคติในการออกแบบ AI สิ่งเหล่านี้เป็นสิ่งที่ทั้งนักพัฒนาต้องเรียนรู้และหาทางแก้ไขให้เกิดความเข้าใจในเรื่องของ AI รวมไปถึงฝ่ายธุรกิจต่างๆประชาชนทั่วไปที่ต้องทำความเข้าใจเช่นเดียวกัน เพราะหากไม่ทำความเข้าใจร่วมกัน AI ก็ไม่เกิดการใช้งานอย่างแพร่หลาย ท้ายที่สุดแล้วสิ่งที่จะเป็นปัญหาและอุปสรรคสำหรับ AI อาจเป็นพวกเราทุกคนทั้งนักพัฒนา ฝ่ายธุรกิจ และประชาชนทั่วไป


ขอบคุณบทความจาก towardsdatascience