Item List

Big Data Project Process การวางแผนการดำเนินงานโครงการ Big Data

การดำเนินงานโครงการ Big Data มีขอบเขตที่ค่อนข้างกว้างและแต่ละโครงการจะมีวัตถุประสงค์ที่แตกต่างกัน เช่น บางโครงการต้องการสร้าง Data Lake เพื่อสร้างถังข้อมูลกลาง
บางโครงการต้องการทำ Data Analytics ที่ใช้ข้อมูลระดับ Big Data
บางโครงการต้องการสร้างช่องทางในการเข้าถึงข้อมูลที่เป็น Insight เป็นต้น ดังนั้นแต่ละโครงการ จะมีวิธีการทำงานที่แตกต่างกัน วันนี้ Coraline ขอเสนอ ขั้นตอน หรือ Working Process สำหรับโครงการ Big Data ที่มีทั้งในส่วนของ Data Management, Data Analytics และการพัฒนาช่องทางการนำเสนอดังภาพ 1. Business Understanding
เป็นการทำความเข้าใจปัญหา การตั้งโจทย์ และวางของเขตของการทำงาน 2. System Understanding
ศึกษาระบบที่มีอยู่เดิม และการต่อยอดไประบบใหม่ เป็นการออกแบบระบบที่จะเข้าสู่ Big Data Ecosystem 3. System Integration
การ Setup ระบบ Infrastructure เพื่อสร้างเป็น Big Data Platform 4. Data Understanding
ทำความเข้าใจชุดข้อมูลที่จะนำเข้าระบบ 5. Data Pipeline and Integration
ออกแบบ และสร้าง Data Pipeline โดยคำนึงถึงการเชื่อมโยงข้อมูล ซึ่งข้อมูลดิบจะถูกจัดก็บที่ Data Lake 6. Data Warehouse and Data Mart Development
ออกแบบ และพัฒนา Data Warehouse และ โครงสร้างของ Data Mart 7. Data Modeling
การสร้าง Model เพื่อการวิเคราะห์ข้อมูล โดยอาจมีหลาย Model 8. Model Evaluation
การประเมินผลลัพธ์ที่ได้จากการวิเคราะห์ 9. Outcome Development
การออกแบบและพัฒนาช่องทางในการนำเสนอผลลัพธ์ เช่น BI, Application หรือ การเชื่อมต่อกับระบบอื่น 10. Testing
การทดสอบระบบ 11. Project Transfer
การส่งมอบระบบ เพื่อเตรียมนำไปใช้งาน 12. Knowledge Transfer
การถ่ายทอดองค์ความรู้ ให้ผู้ดูแลในส่วนงานต่างๆ ในการพัฒนาโครงการ แต่ละโครงการจะมีรายละเอียดที่แตกต่างกันไป ซึ่งขั้นตอนที่ 12 ขั้นตอนนี้ อาจจะทำพร้อมกันเป็นแบบ Parallel ในบางขั้นตอนได้และบางโครงการก็อาจจะมีไม่ครบ 12 ขั้นตอน แต่อย่างไรก็ตาม เมื่อเรียกว่าเป็นโครงการ Big Data แล้ว ในการพัฒนาโครงการจึงมีความซับซ้อนและมีผู้เกี่ยวข้องหลายฝ่าย ดังนั้น"การวางแผนโครงการ" จึงเป็นส่วนที่สำคัญที่สุด

ปัจจัยที่ทำให้โครงการ Data Analytics ประสบความสำเร็จ

จากรายงานของ Gartner พบว่า โครงการ Data Analytics ส่วนใหญ่ไม่ประสบความสำเร็จ โดยเหตุผลส่วนใหญ่ คือ Model ที่ได้รับการพัฒนานั้นไม่สามารถนำไปใช้งานได้จริงและไม่ตอบโจทย์ทางธุรกิจ ตัวอย่าง Case ที่น่าสนใจ คือ Algorithm ของ Netflix ที่มีมูลค่ากว่า 1 ล้านดอลลาร์สหรัฐที่ไม่สามารถนำไปขึ้นระบบและใช้งานได้จริง เนื่องจากในขั้นตอนการพัฒนาไม่ได้มีการวิเคราะห์รายละเอียดเรื่องระบบการประมวลผล เป็นต้น ดังนั้นการทำโครงการ Data Analytics จึงจำเป็นต้องมีการวางแผนที่ดี โดยมีปัจจัยแห่งความสำเร็จ ดังต่อไปนี้ 1. ทีมงาน ทีมงานที่ต้องมีความเชี่ยวชาญและเข้าใจเนื้องานจริงๆ ซึ่งคำว่า "ทีมงาน" ในที่นี้ หมายถึง คนแต่ละคนที่มีหน้าที่แตกต่างกันมาร่วมตัวกันเพื่อดำเนินโครงการใดโครงการหนึ่ง หลายองค์กรเชื่อว่าโครงการ Data Analytics เป็นหน้าที่ของ Data Scientist เท่านั้น ซึ่งเป็นความเชื่อที่ผิดเพราะ ​Data Scientist มีหน้าที่สร้าง Model แต่จะมีจุดอ่อนด้านการบริหารข้อมูลและ Business Domain ในเรื่องนั้นๆ อย่างไรก็ตาม Data Scientist ที่ไม่มีประสบการณ์ มักจะคิดว่าตัวเองสามารถทำงานได้ครอบคลุมทั้งหมดเพราะยังขาดประสบการณ์ในการทำงานจริง หากเปรียบเทียบกับการผ่าตัด ที่ต้องมีแพทย์ผ่าตัดผู้เชี่ยวชาญ วิสัญญีแพทย์ พยาบาล เภสัชกร และผู้ที่เกี่ยวข้องอีกหลายส่วน ไม่ต่างกันกับโครงการ Data Analytics ที่จำเป็นต้องมีผู้เชี่ยวชาญในหน้าที่ที่หลากหลายด้วยเช่นกันเพื่อให้โครงการดำเนินการได้อย่างประสบความสำเร็จ 2. ข้อมูลที่มีการบริหารจัดการที่ดี ความพร้อมของข้อมูล เป็นส่วนที่สำคัญที่สุด เพราะข้อมูลถือเป็นทรัพยากร เพื่อใช้วิเคราะห์ หรือสร้าง Model หลายโครงการกำลังเผชิญหน้ากับปัญหาข้อมูลไม่มีคุณภาพด้วยเหตุผลที่ว่า ข้อมูลมีขนาดใหญ่ และถูกจัดเก็บไว้เป็นเวลานาน ทำให้เมื่อนำข้อมูลจากแหล่งต่างๆ มาเชื่อมโยงและใช้งานจึงพบอุปสรรคเรื่องความครบถ้วนและคุณภาพของข้อมูล ทั้งนี้โครงการ Data Analytics ที่ประสบความสำเร็จ มักเกิดขึ้นหลังจากการบริหารข้อมูลหรือมี Data Management ที่ดีเสียก่อน 3. โจทย์และความต้องการที่ชัดเจน หลายโครงการเกิดขึ้นโดยไม่มีโจทย์แต่เป็นความต้องการที่จะทำโครงการ เช่น ดูสิว่ามีข้อมูลอะไรบ้าง ทำอะไรได้บ้างหรืออยากทำโครงการ Big Data อะไรก็ได้ที่เป็น Big Data เป็นต้น ทำให้สุดท้ายแล้วโครงการ Data Analytics ส่วนใหญ่ เป็นงานวิจัยที่ไม่ได้นำมาใช้งานได้จริง ซึ่งนอกจากจะเป็นการเสียเวลาแล้วยังเป็นการลงทุนที่ฟุ่มเฟือยอีกด้วย ความเป็นจริงแล้วโครงการ Data Analytics ควรเกิดขึ้นจากโจทย์และปัญหาที่ต้องแก้ไข เช่น ต้องการวิเคราะห์การบริหารคลังสินค้า เพราะมีปัญหาสินค้าค้างเหลือจำนวนมาก ต้องการวิเคราะห์วิธีการจัดสรรงานเพราะทุกวันนี้ใช้การตัดสินใจหน้างานทำให้ล่าช้า เป็นต้น 4. ระบบที่เหมาะสม การสร้าง Model บางประเภทจำเป็นต้องใช้ทรัพยากรคอมพิวเตอร์ใน Spec ที่สูง โดยเฉพาะเมื่อจำเป็นต้องใช้ข้อมูลขนาดใหญ่เป็นข้อมูลต้นแบบ ปัญหานี้ เป็นปัญหาสำหรับองค์กรที่มิได้มีนโยบายในการลงทุนด้าน Infrastructure และการ Update เทคโนโลยี ทำให้การวิเคราะห์ข้อมูลถูกจำกัดในรูปแบบเดิมๆ สุดท้ายนี้ การวางแผนสำหรับโครงการ Data Analytics ที่ดี ควรมีการวิเคราะห์ Return of Investment เพื่อประเมินความคุ้มค่าของโครงการที่ชัดเจนเพื่อเป็นเป้าหมายและตัวชี้วัดของโครงการเปรียบเสมือนเป็น KPI ของทีมงานที่ต้องทำให้เป็นผลสำเร็จ แต่หากโครงการนั้นไม่สามารถให้ ROI ออกมาได้ก็แสดงว่าการดำเนินโครงการ Data Analytics อาจจะกำลังหลงทางก็เป็นได้ We turn your DATA into your KEY of SUCCESS. Email: inquiry@coraline.co.th Tel: 099-425-5398 #BigData #DataAnalytics #Analytics #โครงการData #DigitalTransformation #MachineLearning #ArtificialIntelligence #DataManagement #DataQuality #DeepLearning #Coraline

อุปสรรคของ Digital Transformation

Digital Transformation เป็น Key Success ของหลายๆ บริษัทที่มีการปรับเปลี่ยนวัฒนธรรมองค์กรและวิธีการทำงาน โดยการนำ Digital Technology เข้ามาเป็นเครื่องมือและตัวช่วยให้เกิดการทำงานที่มีประสิทธิภาพมากยิ่งขึ้น อย่างไรก็ตาม พบว่าบางองค์กรไม่สามารถก้าวข้ามผ่านอุปสรรคต่าง ๆ ได้ การ Transform จึงไม่สำเร็จ ตัวอย่างอุปสรรคที่ทำให้การประยุกต์ใช้ Digital Technology ไม่เกิดขึ้นในองค์กร ได้แก่ 1. ผู้นำขาดความเป็นผู้นำ 2. ขาดแผนก IT ที่เข้มแข็ง 3. ขาดระบบในการบริหารการเปลี่ยนแปลง หรือ Change Management 4. ขาดการวางกลยุทธที่ดี 5. กังวลเรื่อง Budget และข้อจำกัดต่างๆ มากเกินไป 6. ไม่มีระบบบริหารข้อมูล 7. Process ด้านธุรกิจไม่ชัด 8. ไม่ให้ความสำคัญกับความต้องการของลูกค้า 9. บุคลากรภายในหน่วยงานไม่ให้ความร่วมมือ การปรับเปลี่ยนย่อมเป็นเรื่องยาก แต่เราก็เห็นตัวอย่างกันมาแล้ว ว่าองค์กรใดที่ไม่กล้าปรับเปลี่ยน อาจจะกลายเป็นองค์กรที่ไม่สามารถไปต่อได้ เนื่องจากคู่แข่งที่มีความกล้าและพร้อมแข่งขันมากกว่า Digital Transformation เกี่ยวข้องกับ Big Data เพราะการใช้ Digital Technology ทำให้เกิดข้อมูลที่อยู่ในรูปแบบที่พร้อมใช้มากยิ่งขึ้น และ Data จะกลายเป็นสินทรัพย์ หรือ Asset ขององค์กรต่อไป

Chief Marketing Officer ยุคนี้ต้องรู้จัก Big Data

CMO หรือ Chief Marketing Officer คือผู้ที่ต้องดูแลและรับผิดชอบในการปรับกลยุทธ์ทางการตลาดและแนวทางในการเผยแพร่ข้อมูลเกี่ยวกับสินค้าและบริการขององค์กร เพื่อนำเสนอสารไปสู่ผู้บริโภคได้อย่างมีประสิทธิภาพ นักการตลาดจำเป็นต้องเก็บข้อมูลต่างๆ เช่น พฤติกรรมของผู้บริโภค เทรนด์แฟชั่น และปัจจัยอื่นๆที่เกี่ยวข้องจากแหล่งข้อมูลที่หลากหลายมาวิเคราะห์และสร้างกลยุทธ์ทางการตลาด ปัจจุบันพบว่าพฤติกรรมของผู้บริโภคหลังจากช่วงโควิดระบาดเปลี่ยนแปลงไปอย่างมาก โดยเฉพาะการซื้อสินค้า จากเดิมที่เคยไปซื้อของที่ร้านและปรึกษาพนักงานขาย โดยจะตัดสินใจซื้อสินค้าตามคำแนะนำของพนักงาน แต่ปัจจุบันพบว่าผู้บริโภคกลับชอบที่จะค้นหาข้อมูลและศึกษาสินค้าที่จะซื้อด้วยตนเองมากขึ้น อีกทั้งการซื้อของออนไลน์ก็เพิ่มสูงขึ้นอย่างมาก สิ่งนี้ทำให้นักการตลาดต้องรับผิดชอบในการจัดทำเนื้อหาที่เหมาะสมและสามารถนำเสนอเนื้อหานั้นในเวลาและช่องทางที่เหมาะสมกับกลุ่มลูกค้าเป้าหมายอีกด้วย Wall Street Journal เปิดเผยว่า Google Facebook และ Amazon มีส่วนแบ่งทางการตลาดถึง 50% ของค่าโฆษณาทั้งหมดในอเมริกา บริษัท Pwc และInteractive Advertising Bureau ยังมีวิจัยเพิ่มเติมว่าการโฆษณาผ่านโซเชียลมีเดียมีอัตราการเติบโตขึ้นถึง 12% เมื่อเทียบจากปีที่แล้ว ทำให้การตลาดยุคนี้นำสู่ไปความเป็นดิจิทัลมากขึ้น มีข้อมูลต่างๆของลูกค้าที่ลึกมากขึ้นในรูปแบบที่หลากหลายและมีแหล่งข้อมูลเพิ่มขึ้น หน้าที่ของ CMO คือต้องสามารถปรับเปลี่ยนกลยุทธ์ได้อย่างรวดเร็ว เพราะตลาดปัจจุบันมีความเปลี่ยนแปลงเป็นรายชั่วโมงรายนาที ไม่ใช่ระยะเวลาเป็นวันหรือสัปดาห์อีกต่อไป เนื่องจากข้อมูลที่เพิ่มสูงและหลากหลายมากขึ้น ทำให้ยากต่อการจัดการข้อมูล ข้อมูลเหล่านี้อาจจะแยกส่วนและมีรูปแบบที่ต่างกัน เช่น รูปภาพ ข้อความ เสียง หรือคลิป เป็นต้น การจัดการกับข้อมูลเหล่านี้เพื่อให้ง่ายต่อการวิเคราะห์จำเป็นต้องมี Solution ที่เหมาะสมในการจัดการข้อมูลและต้องสามารถแปรผลได้แบบเรียลไทม์เพื่อรองรับกับความเปลี่ยนแปลงอยู่เสมอ เมื่อองค์กรสามารถจัดการกับข้อมูล (Data Management) ได้อย่างมีประสิทธิภาพแล้ว นักการตลาดก็จะสามารถเข้าถึงข้อมูลที่ถูกต้องและนำมาวิเคราะห์เพื่อหากลยุทธ์ที่เหมาะสมได้ เราขอยกตัวอย่างเคสของบริษัทผลิตสินค้าแห่งหนึ่ง ที่ได้ทำโครงการ Big Data เพื่อใช้ในการตลาดกับ บริษัทคอราไลน์ จำกัด โดยได้ใช้ข้อมูลการขายสินค้า ซึ่งเป็นข้อมูลในองค์กรและข้อมูลอื่นๆเช่น จำนวนประชากร ลักษณะพื้นที่ และปัจจัยอื่นๆ ที่เกี่ยวข้อง ซึ่งข้อมูลเหล่านี้มีรูปแบบแตกต่างกัน กระจัดกระจายไม่สามารถทำมาประมวลผลได้ เราจึงต้องนำข้อมูลทั้งหมดมาทำความสะอาดและจัดการให้ง่ายต่อการวิเคราะห์ เมื่อจัดการข้อมูลแล้วจึงนำมาวิเคราะห์พฤติกรรมของลูกค้าแต่ละจังหวัด ทำให้นักการตลาดสามารถออกแบบโปรโมชั่นที่เหมาะสมกับสาขาและลูกค้าในแต่ละจังหวัดได้ นอกจากโครงการ Big Data แล้ว ทางบริษัทแห่งนี้ยังวางนโยบายที่จะนำระบบ AI และ Machine Learningมาเชื่อมต่อกับระบบ Big Data ซึ่งเมื่อสต็อคของสินค้ามีคงค้างในคลังเกินกว่าที่กำหนดไว้ AI จะประมวลผลและจัดการทำโปรโมชั่นที่เหมาะสมกับสินค้า พร้อมแนะนำเนื้อหาและช่วงเวลาที่เหมาะสมในการโปรโมต ขณะเดียวกันนั้น Machine Learning ก็จะเรียนรู้และพัฒนาปรับปรุงระบบให้มีความแม่นยำขึ้นเรื่อยๆ ซึ่งนอกจากการใช้ Big Data ในการพัฒนาด้านการตลาดแล้วยังสามารถนำข้อมูลดังกล่าวมาใช้ในการผลิตสินค้าให้ตรงกับความต้องการได้อีกด้วย ในโลกที่เปลี่ยนแปลงไปอย่างรวดเร็วท่ามกลางการแข่งขันเช่นนี้ หากองค์กรสามารถบริหารจัดการข้อมูลอย่างมีประสิทธิภาพ และมี CMO ที่มีพื้นฐานในการคิดวิเคราะห์ สามารถออกแบบกลยุทธ์ที่เหมาะสมแล้ว การประสบความสำเร็จในด้านการตลาดก็ไม่ใช่เรื่องยากอีกต่อไป References : https://www.datasciencecentral.com/profiles/blogs/the-rise-of-the-analytical-cmo https://www.businessfirstonline.co.uk/articles/importance-big-data-marketing/ https://www.cio.com/article/3211406/how-big-data-is-changing-the-role-of-the-cmo.html #BigData #DataScience #Optimization #ProductivityImprovement #DigitalTransformation #MachineLearning #ArtificialIntelligence #DataManagement #DataGovernance #DataQuality #DeepLearning #CMO #Marketing #Coraline We turn your DATA into your KEY of SUCCESS.
Email: inquiry@coraline.co.th
Tel: 099-425-5398

Role ต่างๆ ในโครงการ Data Analytics

สำหรับโครงการ Data Analytics โดยเฉพาะโครงการที่มีการใช้ข้อมูลขนาดใหญ่จำเป็นต้องมีบุคลากรที่มีหน้าที่แตกต่างกันเพื่อสนับสนุนกัน ดังต่อไปนี้ 1. Data Engineer ทำหน้าที่ออกแบบ Pipeline ของข้อมูล ซึ่งหากมีการดำเนินโครงการ Data Management มาก่อน จะทำให้โครงการ Data Analytics สามารถดำเนินงานได้สะดวกมากยิ่งขึ้น แต่หากข้อมูลยังไม่พร้อมและจำเป็นต้องนำข้อมูลจากแหล่งต่างๆมาเชื่อมโยงกัน Data Engineer จะเป็นผู้รับหน้าที่ในการช่วยเตรียมข้อมูลเหล่านี้ 2. Business Analyst ถือเป็น Key หลักของโครงการเพราะมีหน้าที่ตั้งแต่วิเคราะห์โจทย์ ปิดช่องว่างระหว่างด้านเทคนิคกับด้านการนำไปใช้และยังมีหน้าที่ประเมินผลลัพธ์ในเชิงธุรกิจอีกด้วย เรียกได้ว่า หากไม่มี Business Analyst ที่เข้าใจโครงการจริงๆ ก็ยากที่โครงการจะประสบความสำเร็จได้ 3. Data Scientist คือ คนออกแบบ Model เพื่อให้ได้มาซึ่ง Solution เริ่มจากการทำความเข้าใจข้อมูล ออกแบบ Model ในรูปแบบต่างๆ มีการเปรียบเทียบผลลัพธ์ นำเสนอวิธีการประเมินผลลัพธ์ และมีส่วนช่วยในการวิเคราะห์แนวทางในการนำผลลัพธ์ไปใช้งาน ทักษะของ Data Scientist จะเป็นทักษะเชิงลึกด้าน Data Model จึงจำเป็นต้องได้รับความช่วยเหลือจากทีมงานในด้านอื่น เช่น Data Engineer ช่วยจัดโครงสร้างข้อมูล และ Business Analyst ช่วยวิเคราะห์ Business Domain เป็นต้น 4. Data Visualization Designer คือ ผู้ออกแบบรูปแบบในการนำเสนอผลลัพธ์ เป็นหน้าที่มีสำคัญในกรณีที่ต้องนำผลลัพธ์ไปออกแบบเป็นกราฟ ตาราง หรือ Report ซึ่งผู้ออกแบบต้องมีทักษะทั้งในเชิงการออกแบบการสื่อสารและมีความรู้ด้านข้อมูล ถือว่าเป็นตำแหน่งพิเศษที่หาตัวจับได้ยาก 5. Data Analyst เพื่อให้โครงการเป็นโครงการที่ยั่งยืนและต่อเนื่อง Data Analyst จะทำหน้าที่ในการประเมินการเปลี่ยนแปลงของข้อมูลในแต่ละช่วงเวลาเพื่อวิเคราะห์พฤติกรรมที่เกิดขึ้น ในกรณีที่มีการใช้ Model ไปสักระยะ อาจจำเป็นต้องมีการ Re-train หรือ ปรับปรุง Model ใหม่ ซึ่ง Data Analyst ที่อยู่กับข้อมูลและผลลัพธ์ จะสามารถวิเคราะห์ได้ว่ามีการเปลี่ยนแปลงเกิดขึ้นมากน้อยแค่ไหนและการเปลี่ยนแปลงนั้นจะส่งผลต่อการใช้งานอย่างไร สิ่งที่หลายคนเข้าใจผิดคือการคิดว่ามี Data Scientist คนเดียวก็สามารถทำโครงการ Data Analytics ได้ หรือแค่มี Tool สำเร็จรูป ก็สามารถทำงานได้ ความเป็นจริงนั้นขึ้นอยู่กับขนาดของโครงการและความซับซ้อนของโครงการ หากเป็นโครงการวิเคราะห์แบบ One-time หรือการทำวิจัยก็อาจจะใช้คนเดียวได้ แต่หากเป็นโครงการที่ซับซ้อนและใช้ข้อมูลจากหลายส่วนการมีทีมงานที่สนับสนุนกันและกันจะทำให้โครงการมีโอกาสสำเร็จได้มากกว่าอย่างแน่นอน ทั้งนี้ทักษะและประสบการณ์ของทีมงานก็สำคัญเช่นเดียวกัน หากเป็นโครงการที่เร่งด่วนและมีขนาดใหญ่ การว่าจ้างบริษัทที่เชี่ยวชาญในด้านนี้โดยเฉพาะจะช่วยลดความเสี่ยงทั้งในมุมระยะเวลาที่บานปลายและค่าใช้จ่ายที่ควบคุมไม่ได้ "Put the right man on the right job" เพื่อความสำเร็จของโครงการ We turn your DATA into your KEY of SUCCESS.
Email: inquiry@coraline.co.th
Tel: 099–425–5398 #datamanagement #roles #jobrole #bigdataproject #job #business #dataanalytics #ProductivityImprovement #Coraline

วิธีการเลือก Vendor ในโครงการ Big Data

คำว่า Big Data ได้ชื่อว่าเป็น Buzzword อย่างหนึ่ง ทำให้เรามักจะพบเจอโครงการที่เรียกว่าเป็น Big Data ในรูปแบบต่างๆเช่น การซื้อระบบ การวิเคราะห์พฤติกรรมลูกค้าหรือแม้แต่การทำ Website เพื่อนำเสนอข้อมูล ไม่เพียงแต่ในมุมของโครงการ Vendor ที่ใช้คำว่า Big Data เป็น Keyword ก็มีหลากหลายเช่นกัน รูปแบบของบริษัทต่างๆที่ห้อยคำว่า Big Data เป็นคำอธิบายของบริษัทมีดังนี้ 1. SI หรือ System Integration ส่วนใหญ่เป็นบริษัทขนาดกลาง-ใหญ่ เป็นบริษัทที่มี License ของ Hardware และ Software เดิมจะเน้นการขายระบบที่สำเร็จรูปแต่ปัจจุบันบริษัท SI หลายบริษัทจะรับพัฒนาโครงการด้วย(บางครั้งก็จะร่วมพัฒนากับกับบริษัท Developer) ซึ่ง SI แต่ละเจ้าจะมีความถนัดใน Product ที่ต่างกันอยู่ที่ว่าแต่ละบริษัทเน้นทำยอด Product ตัวไหนเป็นพิเศษ แต่ก็มี SI หลายรายที่มี Product ที่หลากหลายและสามารถเสนอ Solution ขนาดไหนที่ครบ Loop ได้ 2. Developer หรือ Implementer มีลักษณะขาย Service เป็นบริษัทรับพัฒนาโครงการโดยเน้นการเขียนโปรแกรมขึ้นมาเอง ซึ่งในปัจจุบันมีโปรแกรมที่เป็น Open-source เกิดขึ้นมากมายทำให้ไม่จำเป็นต้องลงทุนใน Software สำเร็จรูป เหมาะกับการดำเนินโครงการที่ต้องการความเป็นเอกลักษณ์หรือโครงการที่ระบบสำเร็จรูปไม่ตอบโจทย์ 3. Digital Marketing บริษัทนี้จะเน้นขายบริการด้านการตลาดเท่านั้น โดยเขาจะใช้คำว่า Big Data เพื่อสื่อว่าจะมีการใช้ข้อมูลภายนอกในการวิเคราะห์ตลาดให้กับลูกค้า อาจจะเป็นข้อมูลจาก Social Media ประเภทต่างๆ การวิเคราะห์ Customer Journey ที่ใช้ข้อมูลจาก Platform ออนไลน์เป็นต้น แต่รูปแบบการทำงานจะไม่ใช่การสร้างระบบหรือ Platform ใดๆ 4. Supplier คือบริษัทเจ้าของเทคโนโลยี เช่น Oracle, Microsoft, AWS, Google, DataRobot เป็นต้น เป็นยี่ห้อของ Platform หรือ Software ที่จะใช้ดำเนินโครงการ บางเจ้าจะมี Sale เพื่อขาย product ตัวเองแต่ส่วนใหญ่จะต้องซื้อผ่าน SI 5. Startup ที่พัฒนา Product แตกต่างจาก Developer ตรงนี้ เขาจะมี Product เสร็จแล้ว และจะนำเสนอขายการใช้ Product นั้น เช่นบริษัท Social Listening ที่มีการใช้คำว่า Big Data เพราะเขามีการรวบรวมข้อมูลขนาดใหญ่เอาไว้ให้ลูกค้าเข้ามาใช้งานได้ซึ่ง Product มักจะเป็นเรื่องใดเรื่องหนึ่งไม่ใช่ Product ที่พัฒนาแบบ Customize ให้ลูกค้ารายใดรายหนึ่ง 6. Data Provider เป็นบริษัทที่ขายข้อมูล(แต่ต้องไม่ใช่ข้อมูลส่วนบุคคล)หรือที่เรียกว่า Data Monetization เช่นการวิเคราะห์ GPS การวิเคราะห์จำนวนประชากรในแต่ละพื้นที่ เป็นต้น 7. บริษัทที่ปรึกษา (เท่านั้น) คือบริษัทที่รับให้คำปรึกษาโดยจะทำหน้าที่เข้าไปหา Gap Analysis ส่วนใหญ่จะเป็นโครงการ Digital Transformation แต่อาจจะไม่สามารถ Implement ได้เพราะไม่มีทีม Developer หลายครั้งพบว่าที่ปรึกษาที่ไม่เคย Implement จะไม่สามารถตอบคำถามในเชิงการปฏิบัติงานได้ เช่น ให้คำแนะนำเรื่องคุณภาพของข้อมูลแต่ไม่สามารถชี้แจงว่าแล้วจะต้อง Clean อย่างไร เป็นต้น วิธีการเลือก Vendor ที่เหมาะสมควรมองหา Vendor ที่มี Site References และควรเป็น Vendor ที่รับงานตรง การตั้งคำถามเพื่อให้ Vendor แสดงความสามารถเป็นสิ่งสำคัญและควรให้ Vendor เสนองานอย่างละเอียดเพื่อความเข้าใจในขอบเขตของการดำเนินโครงการอย่างครบถ้วนก่อนเริ่มโครงการ นอกจากนี้การเปรียบเทียบ Solution ที่แต่ละ Vendor เสนอมาก็เป็นสิ่งสำคัญเช่นเดียวกัน เนื่องจากโครงการ Big Data ต้องการความยืดหยุ่นเพราะข้อมูลที่เกี่ยวข้องมีทั้งข้อมูลภายใน และภายนอกซึ่งขยายตัวตลอดเวลา ในอนาคตจะมีแนวโน้มในการรับข้อมูลใหม่ๆอยู่ตลอด Solution ในโครงการ Big Data ที่เหมาะสมจึงควรเป็น Solution ที่ไม่ตายตัว การเลือก Vendor นั้นสำคัญมากเพราะโครงการ Big Data ถือเป็นแกนกลางของการใช้ทรัพยากรข้อมูลและยิ่งโครงการมีขนาดไหนเท่าใดก็ต้องใช้ทักษะของ Vendor และต้องใช้ระยะเวลาอยู่กับโครงการมากเท่านั้น We turn your DATA into your KEY of SUCCESS. #Coraline ให้คำปรึกษาการทำ Big Data, Data Model, Artificial Intelligence และ Digital Transformation เพื่อเพิ่มศักยภาพของธุรกิจ Email: inquiry@coraline.co.th Tel: 099-425-5398 #BigData #DataScience #Optimization #ProductivityImprovement #DigitalTransformation #MachineLearning #ArtificialIntelligence #DataManagement #DataGovernance #DataQuality #DeepLearning

โครงการ Big Data และอนาคตของธุรกิจค้าปลีก (Retail)

Big Data กับธุรกิจค้าปลีกหรือ Retail ปัจจุบันหลายบริษัทในกลุ่มธุรกิจค้าปลีกได้ดำเนินโครงการ Big Data และนำข้อมูลมาแปรผลเพื่อวิเคราะห์และตัดสินใจวางแผนดำเนินงาน ซึ่งบริษัท McKinsey Global Institute ได้ออกมาคาดการณ์ว่าบริษัทผู้ค้าปลีกสามารถเพิ่มกำไรได้มากกว่า 60% จากการใช้ Big Data ในการดำเนินงาน (ที่มา: https://www.mckinsey.com/business-functions/mckinsey-digital/our-insights/big-data-the-next-frontier-for-innovation) ด้วยปัจจัยต่างๆก็ส่งผลทำให้ข้อมูลต่างๆเพิ่มสูงขึ้นเช่นกัน ซึ่งพบว่าปัจจุบันมีข้อมูลเพิ่มขึ้นอย่างมากมายมหาศาล ไม่ว่าจะเป็นข้อมูลที่เกี่ยวข้องกับลูกค้า ซึ่งรวมถึงข้อมูลการท่องอินเทอร์เน็ต ข้อมูลในโซเชียลมีเดีย ข้อมูลการใช้งานมือถือ ข้อมูลการซื้อ ข้อมูลความพึงพอใจของลูกค้าและอื่นๆ ในอนาคตก็มีแนวโน้มที่จะเพิ่มสูงขึ้นเรื่อยๆจากการที่เทคโนโลยีและ IoTเติบโตขึ้น ทำให้มีข้อมูลเพิ่มขึ้นและหลากหลาย เช่น ข้อมูลอัตราการเต้นของหัวใจและสถานที่จากนาฬิกาอัจฉริยะ ข้อมูลความสนใจจากลำโพงอัจฉริยะและอุปกรณ์เสริมต่างๆ ข้อมูลที่ได้กล่าวมาข้างต้นล้วนมีมูลค่า ซึ่งจะมากน้อยแค่ไหนก็ขึ้นอยู่กับความสามารถในการเก็บรวบรวมข้อมูลและการนำมาใช้งานของแต่ละองค์กรว่าสามารถนำมาประยุกต์ใช้ได้มีประสิทธิภาพเพียงใด ธุรกิจค้าปลีกจะใช้ประโยชน์จาก Big Data ได้อย่างไร? องค์กรต่างๆที่นำ Big Data เข้ามาใช้จะต้องมีกรอบในการดำเนินโครงการที่เหมาะสม เพราะข้อมูลต่างๆมีขนาดใหญ่ มีรูปแบบของข้อมูลและช่องทางของข้อมูลที่แตกต่างกัน เช่น ข้อมูลยอดขายมีรูปแบบเป็นตัวเลข จากระบบภายในองค์กรบริษัท ข้อมูลรูปภาพจากสื่อโซเชียล ข้อมูลเสียงจากอุปกรณ์ IoT เป็นต้น ซึ่งข้อมูลเหล่านี้เกิดขึ้นตลอดเวลา จึงต้องมีการวางแผนในการรวบรวมข้อมูล แปลงข้อมูลเพื่อนำมาวิเคราะห์ได้แบบเรียลไทม์ เราขอยกตัวอย่างกรอบในการดำเนินงานโครงการ Big Data ของบริษัทคอราไลน์ ซึ่งจะสามารถช่วยให้เข้าใจการดำเนินโครงการ Big Data มากขึ้น 1. Digital Transformation 1.1 Data Preparation จะเป็นการรวบรวมข้อมูลต่างๆ ไม่ว่าจะเป็น Internal source หรือ External Source นำมาทำความสะอาด เชื่อมโยงข้อมูล เป็นขั้นตอนการเตรียมข้อมูลทั้งหมด 1.2 Platform Implementation เป็นการเตรียมระบบเซิร์ฟเวอร์ เชื่อม Network เตรียม Platform ที่จำเป็นในการใช้งานเพื่อรองรับและเชื่อมโยงข้อมูลทั้งหมด 1.3 Data Governance การกำหนดนโยบายการใช้ข้อมูลกับผู้เกี่ยวข้องทั้งหมด 2. Advance Analytics ในส่วนนี้จะเป็นขั้นตอนของการนำข้อมูลมาดำเนินการ โดยจะต้องออกแบบการไหลของของข้อมูล ซึ่งข้อมูลจะถูกจัดเก็บใน Data warehouse หรือ Data Mart ซึ่งกระบวนการนี้จะรวมไปถึง การทำ Machine Learning ด้วย 3. Business Solutions การนำข้อมูลมาใช้เพื่อตอบโจทย์ทางธุรกิจต่างๆ ซึ่งสามารถแสดงผลในรูปแบบ Dashboard เพื่อประมวลผลและดูข้อมูลได้ง่าย นอกจากนี้ยังสามารถเชื่อมต่อกับระบบอื่นๆขององค์กรได้อีกด้วย 4. AI Design and Implementation การเชื่อมต่อกับ AI เพื่อสามารถประมวลผลและดำเนินการแบบ Automation เช่น เมื่อประมวลผลว่าในอนาคตจะเกิดยอดขายตกก็จะดำเนินการออกโปรโมชั่นระบายสินค้าหรือลดสต็อคสินค้าแต่ละสาขา เป็นต้น การประยุกต์ใช้ Big Data กับธุรกิจค้าปลีกในอนาคต กลุ่มธุรกิจในปัจจุบันต่างแข่งขันที่จะสร้างประสบการณ์ที่ดีให้กับผู้บริโภค ไม่ว่าจะเป็นการพัฒนาผลิตภัณฑ์ให้เหมาะสมกับลูกค้ากลุ่มเป้าหมายมากขึ้น การบริการหลังการขายที่ดีขึ้น โปรโมชั่นที่เหมาะสมกับลูกค้ามากขึ้น เป็นต้น ทั้งนี้ก็เพื่อให้ลูกค้าใช้สินค้าและบริการอย่างต่อเนื่องเพื่อให้ยอดขายเพิ่มขึ้น ซึ่งการนำ Big Data มาใช้ในธุรกิจก็มีหลากหลายรูปแบบในด้านต่างๆ เช่น Personalization Personalization คือการใช้ข้อมูลของลูกค้าเพื่อสามารถนำเสนอสิ่งที่ลูกค้าต้องการได้อย่างตรงใจ ตัวอย่างเช่น Sephora ร้านค้าปลีกด้านความงามใช้ AI เพื่อช่วยให้ลูกค้าค้นหาผลิตภัณฑ์ที่ตรงใจลูกค้าได้เร็วขึ้น โปรแกรม Color IQ จะสแกนใบหน้าของลูกค้าในร้านค้า จากนั้นจึงใช้ประโยชน์จาก "Color Library" เพื่อให้คำแนะนำสำหรับคอนซีลเลอร์และรองพื้น โดยลูกค้าสามารถซื้อเครื่องสำอางค์ที่มีเฉดสีที่เหมาะสมกับผิวได้อย่างสมบูรณ์แบบ Customer Service Glossier ผู้ค้าปลีกด้านความงามได้ประยุกต์ใช้ AI ในด้านการให้บริการลูกค้า เมื่อบริษัทต้องพบปัญหากับการคืนสินค้าที่เพิ่มขึ้นอย่างผิดปกติ ทีมขายจึงนำข้อมูลของสินค้าที่ตีคืนมาวิเคราะห์ข้อมูล และพบว่าลูกค้าที่คืนสินค้าส่วนใหญ่มักขอแลกเฉดสีที่อ่อนกว่าของผลิตภัณฑ์ชนิดเดียวกัน ด้วยความรู้นี้ บริษัทจึงสามารถปรับปรุงการจับคู่สีบนเว็บไซต์สำหรับผลิตภัณฑ์นั้นเพื่อหลีกเลี่ยงความสับสนในอนาคต และทีมงานยังติดต่อโดยตรงกับลูกค้าที่ได้รับผลกระทบด้วยข้อความส่วนตัว ส่งผลให้การรักษาลูกค้าเพิ่มขึ้น Engagement Poshmark เป็น Platform สำหรับการขายสินค้าแฟชั่นและของใช้ในบ้าน ได้ใช้ข้อมูลในการดำเนินธุรกิจโดยนำเสนอสินค้าที่เหมาะสมกับผู้บริโภคแต่ละคน และยังมีการให้ความรู้กับผู้ที่ขายสินค้าบน Platform อยู่เสมอ โดยความรู้นั้นมาจากการนำข้อมูลภายนอก เช่น เทรนด์การซื้อสินค้า ข้อมูลจากสื่อโซเชียล มาวิเคราะห์และนำเสนอต่อผู้ขายเพื่อให้ผู้ขายสามารถพัฒนายอดขายให้สูงขึ้น Forecasting The North Face เป็นบริษัทผลิตสินค้าแฟชั่นกิจกรรมกลางแจ้ง เช่น เสื้อผ้าเดินป่า หมวก รองเท้าเดินป่า เป็นต้น โดยทางบริษัทได้ใช้งาน WeatherFX ซึ่งเป็นโปรแกรมที่เข้าถึงข้อมูลเชิงลึกและรูปแบบสภาพอากาศได้ ข้อมูลนี้จะถูกรวมเข้ากับข้อมูลพฤติกรรมของลูกค้าเพื่อกำหนดปริมาณสินค้าที่จะสต็อก ซึ่งจะช่วยในการบริหารต้นทุนและควบคุมการผลิตสินค้าได้มีประสิทธิภาพที่มากขึ้น นอกจากตัวอย่างที่ได้เล่ามาข้างต้นแล้วยังมีเคสอื่นๆของบริษัทค้าปลีกที่ไว้วางใจให้บริษัทคอราไลน์ทำโครงการ Big Data เพื่อพัฒนาธุรกิจในหลากหลายด้าน เช่น การใช้ Big Data ในการบริหารสต๊อคร่วมกับ AI เสนอ Promotion ที่ตรงใจลูกค้า การใช้ Big Data ในการวิเคราะห์สถานที่จัดตั้งสาขาที่เหมาะสม และการศึกษาหาลูกค้ากลุ่มเป้าหมายจาก Big Data เป็นต้น ในอนาคตธุรกิจต่างๆจะมีการใช้ Big Data AI และ Machine learning ในด้านต่างๆ ที่หลากหลายมากขึ้น แต่ละธุรกิจต่างก็ต้องแข่งขันเพื่อที่จะสร้างประสบการณ์ที่ดีให้กับลูกค้ามากขึ้นและหากองค์กรใดมีความสามารถในการใช้ข้อมูลได้อย่างมีประสิทธิภาพก็จะเป็นฝ่ายกุมกุญแจสู่ความสำเร็จของธุรกิจ References: https://www.nim.org/en/publications/gfk-marketing-intelligence-review/all-issues/future-retailing/big-data-and-analytics-retailing https://www.mytotalretail.com/article/big-data-and-the-future-of-retail/ https://www.intelligencenode.com/knowledge/retail-analytics-big-data/ https://www.mckinsey.com/business-functions/mckinsey-digital/our-insights/big-data-the-next-frontier-for-innovation #BigData #DataScience #Optimization #ProductivityImprovement #DigitalTransformation #MachineLearning #ArtificialIntelligence #DataManangement #DataGovernance #DataQuality #DeepLearning #Coraline We turn your DATA into your KEY of SUCCESS. Email: inquiry@coraline.co.th Tel: 099-425-5398

4 Levels of Analytics

สำหรับการวิเคราะห์ข้อมูลนั้นจะแบ่งออกเป็น 4 ระดับดังนี้ 1. Descriptive คือการอธิบายสถานะของข้อมูลโดยการวิเคราะห์ในเชิงสถิติขั้นต้น เพื่อทำความเข้าใจรายละเอียดของข้อมูลนอกจากนี้ยังเป็นส่วนของการตรวจสอบและทำความสะอาดข้อมูลอีกด้วย 2. Diagnostic คือการวิเคราะห์ข้อมูลโดยศึกษาปัจจัยที่เกี่ยวข้องกันมากกว่า 2 ปัจจัย ทำให้เห็นเหตุผลของการเปลี่ยนแปลงของข้อมูลมากขึ้น อาจ Probability หรือ Clustering เข้ามาช่วยวิเคราะห์ได้ 3. Predictive คือการนำข้อมูลในอดีตมาทำนายอนาคตโดยใช้ปัจจัยที่เคยเกิดขึ้นในอดีต 4. Prescriptive คือการตั้งสมมติฐาน หากมีการเปลี่ยนแปลงเกิดขึ้นแล้วจะผลเกิดขึ้นอย่างไร ได้ผลลัพธ์อย่างไร ในการวาง Model Pipeline ขั้นตอน Descriptive จะเกิดก่อนเสมอและมักจะเป็นขั้นตอนที่ใช้เวลานานเพราะต้องทำงานกับ Data Owner และผู้เกี่ยวข้องหลายส่วนแต่เมื่อเข้าใจสถานะของข้อมูลอย่างครบถ้วนแล้วในขั้นตอนการวิเคราะห์เชิงลึกจะสามารถมองเห็น Insight และได้ผลลัพธ์ที่สร้าง Impact ได้อย่างมาก แต่หากละเลยการวิเคราะห์แบบ Descriptive ไป ผลลัพธ์ที่ได้จากการวิเคราะห์เชิงลึกหรือแม้แต่การสร้าง Model ก็อาจจะไม่ตอบโจทย์ก็เป็นได้ Model Pipeline จำเป็นจะต้องถูกออกแบบโดยผู้เชี่ยวชาญที่มีประสบการณ์เพราะเป็นการเชื่อมโยง Model เรียงร้อยต่อกันเป็นลำดับขั้น มิใช่แค่การสร้าง Model ใด Model เดียว อ่านรายละเอียดเรื่อง Model Pipeline ได้ที่ >>> https://www.facebook.com/coralineltd/posts/1089929861505829 #BigData #DataScience #Optimization #ProductivityImprovement #DigitalTransformation #MachineLearning #ArtificialIntelligence #DataManangement #DataGovernance #DataQuality #DeepLearning #Coraline We turn your DATA into your KEY of SUCCESS. Email: inquiry@coraline.co.th Tel: 099-425-5398

CTO ต่างกับ CIO อย่างไร?

CTO ต่างกับ CIO อย่างไร? ปัจจุบันเริ่มมีหลายองค์กรที่มีตำแหน่ง CIO เกิดขึ้น ซึ่งลักษณะงานของ CIO อาจจะไม่แตกต่างกับ CTO มากนักเพราะทีมงานที่อยู่ภายใต้การดูแลของ CIO ก็เป็นกลุ่ม IT เช่นเดียวกัน CTO วันนี้ Coraline จะมาสรุปโดยย่อถึงความแตกต่างระหว่าง CTO และ CIO ดังนี้ 1. เขียนไม่เหมือนกัน
Chief information officer (CIO) หมายถึงผู้บริหารสูงสุดที่บริหารสายงานข้อมูล
Chief technology officer (CTO) หมายถึงผู้บริหารสูงสุดที่บริหารสายงานเทคโนโลโลยี 2. Focus ต่างกัน
CIO จะ Focus ที่การปรับปรุงพัฒนาระบบภายในองค์กร ผลที่ได้คือการทำงานที่มีประสิทธิภาพมากขึ้น
CTO จะ Focus การพัฒนาเทคโนโลยีเพื่อเสนอแก่ลูกค้า ผลที่ได้คือผลิตภัณฑ์ใหม่ๆออกสู่ตลาด 3. Skill บางอย่างไม่เหมือนกัน
CIO จะเป็นคนที่เข้าใจ Business Process มากกว่า และต้องมี Skill ในการสื่อสารเนื่องด้วยลักษณะงานเป็นการปรับปรุงพัฒนาระบบภายในขององค์กร CTO จะต้องศึกษาเทคโนโลยีใหม่ๆมีการนำเสนอนวัตกรรมใหม่ๆอยู่เสมอ ทีมงานส่วนใหญ่จะเป็นกลุ่มนักพัฒนาและกลุ่มวิศวกร 4. ผลลัพธ์ที่ได้มี Core ที่แตกต่างกัน
CIO จะเน้นผลลัพธ์ที่เป็นระบบข้อมูล ตั้งแต่การวาง Infrastructure และการ Analytics ในขณะที่ผลลัพธ์ของทีม CTO อาจเป็นระบบ Automation หรือ Digital Product 5. เหมาะกับองค์กรที่ต่างกัน
CTO เหมาะกับ Tech-Company ที่มีการพัฒนาเทคโนโลนีออกสู่ตลาด ในขณะที่ CIO เหมาะกับทุกองค์กร ที่มีแผนก IT เป็นของตัวเอง อย่างไรก็ตามหากถามว่าจำเป็นต้องมีทั้ง CIO และ CTO หรือไม่? คำตอบอยู่ที่ขนาดและประเภทขององค์กร ถ้าเป็นองค์กรขนาดใหญ่ที่เน้นการพัฒนาเทคโนโลยีออกสู่ตลาดก็อาจจะมีทั้ง 2 ตำแหน่งได้ แต่ถ้าเป็นองค์กรทั่วไปสามารถพิจารณาให้มี CIO ก่อนได้ ทั้งนี้เนื่องจากในยุคก่อนเมื่อพูดถึง IT ทุกคนจะนึกถึงการซื้อระบบ ทำให้รูปแบบการทำงานเน้น Automation โดยไม่ได้เน้นที่ Information แต่เมื่อเข้ายุค Big Data ที่เน้นการใช้ประโยชน์จากข้อมูลทำให้ C-Level เองก็ต้องมีการปรับตัวเหมือนกัน CIO จึงเป็นตำแหน่งที่สำคัญมากและต้องมีความเข้าใจในการใช้ประโยชน์จากข้อมูลจริงๆจึงจะคู่ควรแก่ตำแหน่งนี้ #BigData #DataScience #Optimization #ProductivityImprovement #DigitalTransformation #MachineLearning #ArtificialIntelligence #DataManangement #DataGovernance #DataQuality #DeepLearning #Coraline We turn your DATA into your KEY of SUCCESS. Email: inquiry@coraline.co.th Tel: 099-425-5398

ช่องว่างระหว่าง Generation ของ Data Engineer

ช่องว่างระหว่าง Generation ของ Data Engineer Data Engineer เป็นอาชีพที่เราเพิ่งเคยได้ยินเมื่อไม่นานมานี้ แต่แท้จริงแล้วพื้นฐานของการเป็น Data Engineer มาจากการบริหาร Database แต่เมื่อชุดข้อมูลเปลี่ยนไปเป็น Big Data ที่มีการเชื่อมโยงข้อมูลจากหลายแหล่งรวมกัน ทำให้งานของ Data Engineer จึงมีความท้าทายมากขึ้นโดยทำหน้าที่ออกแบบ Data Pipeline ตั้งแต่ต้นน้ำไปถึงปลายน้ำ Generation แรกของการเป็น Data Engineer คือ Data Administrator หรือผู้ดูแลระบบข้อมูลทำหน้าที่ Query ข้อมูลและส่งมอบข้อมูลให้ผู้ที่ต้องการใช้ ซึ่งการจะ Query ได้ก็จำเป็นต้องรู้จักคำสั่งพื้นฐานของโปรแกรมและมีความรู้เรื่องการจัดการ Database อย่างไรก็ตามการเป็น Data Admin อาจจะไม่จำเป็นต้องออกแบบระบบซึ่งหากเป็นชุดข้อมูลขนาดเล็กอาจจะใช้เป็น Microsoft Excel หรือ Microsoft Access เป็นโปรแกรมในการบริหาร Database ก็เป็นได้ Generation ต่อมาคือการเป็น IT ซึ่งส่วนใหญ่จะเป็น IT Support ของระบบใดระบบหนึ่ง เช่น ผู้ดูแลระบบ ERP จะเข้าใจโครงสร้างข้อมูลที่อยู่ใน ERP แต่ไม่ใช่ผู้ออกแบบการเชื่อมโยงข้อมูลในระบบ IT ที่มีความสามารถด้าน Database ส่วนใหญ่จะสามารถใช้ SQL ได้ แต่ส่วนใหญ่จะถนัดใช้ SQL ตัวใดตัวหนึ่ง เช่น MySQL, SQL Server เป็นต้น Generation ล่าสุดคือการเป็นนักออกแบบระบบ Data Management โดยสามารถออกแบบ Pipeline และเลือกใช้ข้อมูลที่เหมาะสมจึงได้ชื่อว่าาเป็น Data Engineer การเลือกใช้ข้อมูลควรเน้นที่ความ Flexible และตอบโจทย์ อย่าง SQL เองก็มีให้เลือกหลายค่ายหรือแม้แต่ Cloud Computing เองก็มี Data Warehouse ให้เลือกใช้หลายรูปแบบ Data Engineer จะต้องสามารถวิเคราะห์และเลือกใช้เครื่องมือที่เหมาะกับขนาดของข้อมูล อัตราการเติบโตของข้อมูล และแนวทางการนำไปใช้ ช่องว่างระหว่าง Generation ของ Data Engineer ไม่ได้เกิดจากการศึกษาเพราะโดยพื้นฐานแล้ว Database ยังคงเป็นพื้นฐานสำคัญของการเป็น Data Engineer และมีวิชา Database ร่ำเรียนกันมาหลายปีแล้ว แต่ช่องว่างเกิดจากความเคยชินในเครื่องมือที่ใช้ทำให้คนที่เป็น Data Admin หรือ IT ไม่สามารถปรับตัวได้ เหตุที่เป็นเช่นนั้นเพราะเมื่อยุคสมัยเปลี่ยนแปลงไปมีเทคโนโลยีการบริหารข้อมูลเกิดขึ้นตลอดเวลาโดยแต่ละเครื่องมือ มี Life Cycle ต่ำลง การลงทุนจัดซื้อเครื่องมือในระยะยาว (เช่น 5 ปี) คงไม่เหมาะสมอีกต่อไป การใช้เครื่องมือจึงควรเน้นที่ความยืดหยุ่นและสามารถปรับเปลี่ยนได้ อีกทั้งยังมีเครื่องมือใหม่ๆที่เป็น Open Source อีกด้วย ทำให้สามารถลดค่าใช้จ่ายได้ License ไปได้ นอกจากนี้ในยุคก่อนการลงระบบจะเน้นที่การลงระบบใดระบบหนึ่ง ต่อมาเมื่อมีการลงระบบอื่นเพิ่มจะไม่ได้คำนึงถึงการนำข้อมูลจาก 2 ระบบมาเชื่อมโยงกันมากนัก แต่ปัจจุบันการนำข้อมูลจากแหล่งต่างๆมาเชื่อมโยงเพื่อใช้งานจะเป็นการใช้ประโยชน์จากข้อมูลได้มากกว่า ช่องว่างของ Data Engineer เป็นเรื่องใหญ่มากเพราะ Data Management ต้องเกิดก่อนที่จะนำไป Analytics และควรเกิดก่อนที่จะมี Application ด้วยซ้ำไป จะพึ่งพาเด็กรุ่นใหม่ก็คงไม่ทันเพราะเด็กรุ่นใหญ่ยังขาดประสบการณ์หน้างานและไม่สามารถตัดสินใจในโครงการใหญ่ได้ วิธีแก้ที่ดีที่สุดคือการ Reskill/ Upskill และมี CTO (Chief Technology Officer) ที่เก่งพอที่จะมี Direction ที่ชัดเจนเพื่อผลักดันให้คน IT ปรับตัว เกิดเป็น Data Engineer Team ที่มีคุณภาพต่อไป ทั้งนี้โครงการบางโครงการสามารถพิจารณาจัดจ้าง Vendor ข้างนอกเพื่อจัดทำโครงการ Data Management ได้ เพราะ Vendor จะมีความเชี่ยวชาญในการออกแบบระบบมากกว่า ในกรณีนี้ จะช่วยให้สามารถประหยัดเวลาในการพัฒนาโครงการได้มากกว่า หากสนใจดำเนินโครงการ Data Management สามารถติดต่อทีมงาน Coraline ได้ที่ Email: inquiry@coraline.co.th Tel: 099-425-5398 #BigData #DataScience #Optimization #ProductivityImprovement #DigitalTransformation #MachineLearning #ArtificialIntelligence #DataManangement #DataGovernance #DataQuality #DeepLearning #Coraline

Dashboard ขึ้นไม่ยากแต่การจัดการข้อมูลก่อนเข้า Dashboard ต่างหากที่ยาก

ความเดิมตอนที่แล้ว Coraline ได้นำเสนอบทความ "เมื่อผู้บริหารสนใจแต่ Dashboard " (อ่านได้ที่ >>> https://www.facebook.com/coralineltd/posts/1046675215831294) มีคำถามจากหลายท่านว่าแล้วการสร้าง Dashboard มันยากตรงไหน คำตอบคือ การสร้าง Dashboard ไม่ยากแต่การจัดการกับข้อมูลโดยเฉพาะข้อมูล Big Data ก่อนเข้า Dashboard ต่างหากที่ยาก หากเป็นข้อมูลที่มาจากแหล่งเดียว การเข้า Dashboard ก็จะเป็นรูปแบบโครงสร้างเดียว (อันนี้ไม่ถือว่าเป็น Big Data เพราะไม่ตอบโจทย์ใน V ที่ 3 คือ Variety) แต่ถ้าเป็นข้อมูลที่มาจากหลาย Source ที่ก่อนหน้านี้ไม่ได้นำมาเชื่อมโยงกันหรือจัดโครงสร้างแต่แรก การนำข้อมูลจากหลาย Source มาขึ้น Dashboard เป็นการทำงานที่ต้องใช้ Skill ในการบริหารจัดการข้อมูลก่อนเข้า Dashboard ตัวอย่างที่เห็นภาพกันได้ง่าย เช่นรูปแบบของวันที่ในแต่ละชุดข้อมูล อาจจะเป็น วัน/ตัวเลขเดือน/ปี พ.ศ. ในขณะที่อีกระบบเก็บเป็นรูปแบบ วัน/ตัวอักษรย่อเดือน/ปี ค.ศ. ก็ได้ ซึ่งจำเป็นต้องจัดการก่อนที่จะนำเข้า Dashboard มิฉะนั้นโปรแกรมที่ใช้สร้าง Dashboard จะไม่เข้าใจว่านี้คือข้อมูลที่สะท้อนความเป็น Date เหมือนกัน การแก้ปัญหาเรื่องโครงสร้างควรทำนอก BI โดยเฉพาะเมื่อชุดข้อมูลเป็นข้อมูลขนาดใหญ่ โดยกระบวนการนำข้อมูลมาจัดโครงสร้าง (Transform) วิเคราะห์ (Analysis) และสร้างการมองเห็นของข้อมูลเป็น Data Visualization ทั้ง 3 กระบวนการนี้ เรียกว่า Exploratory Data Analysis (EDA) โดยที่ผลลัพธ์ของการทำ EDA จะเป็น Dashboard ที่พร้อมใช้ เพียงแต่กระบวนการ Transform และ Analysis จะเกิดขึ้นนอกโปรแกรม BI นอกจากนี้การ Cleansing Data ก็ถือเป็นกระบวนการที่จำเป็นต้องทำก่อนที่จะนำข้อมูลไปขึ้น Dashboard ด้วยเช่นกัน ไม่ว่าจะเป็นการ Clean ในเชิงโครงสร้างและการ Clean ในเชิง Business การใช้งาน ณ ตอนที่จะซื้อโปรแกรม BI บริษัทที่ขาย BI มักจะมี Sale Executive เข้ามาฝึกการใช้ BI โดยมีชุดข้อมูลที่ตั้งต้นเอาไว้ให้ลองเล่น ซึ่งชุดข้อมูลเหล่านั้นผ่านกระบวนการจัดการเอาไว้เรียบร้อยแล้ว ซึ่งในความเป็นจริงการเตรียมข้อมูลให้สามารถแสดงผลใน BI ได้เป็นหน้าที่ของคนเตรียมข้อมูล ที่ต้องประสานกันระหว่างเจ้าของข้อมูลและคนที่ขึ้น BI คำถามต่อมาคือแล้วจะรู้ได้อย่างไรว่าเมื่อไหร่ควรจ้าง Expert หรือทำเองได้? คำตอบคือ ถ้าคุณมี Data Engineer อยู่แล้ว คุณสามารถทำเองได้โดยมี BI Developer เป็นคนบอกรายละเอียดข้อมูลที่ต้องการเพื่อให้ Data Engineer สร้าง Data Pipeline ให้ แต่ถ้าคุณไม่มีการจ้าง Expert ก็อาจจะตอบโจทย์มากกว่าโดยเฉพาะกับองค์กรที่ไม่ได้มี Core Business ในด้านเทคโนโลยี แม้ Dashboard จะเป็นอะไรที่จับต้องได้ง่ายแต่ถ้าเป็นข้อมูลขนาดใหญ่และมีความซับซ้อน มันก็ไม่ง่ายเลยที่จะเชื่อมข้อมูลเพื่อให้เกิดเป็น Dashboard ที่ดีได้ #BigData #DataScience #Optimization #ProductivityImprovement #DigitalTransformation #MachineLearning #ArtificialIntelligence #DataManangement #DataGovernance #DataQuality #DeepLearning #Coraline

เมื่อผู้บริหารสนใจแต่ Dashboard

Dashboard คืออะไร? ในยุคก่อน เราจะนำข้อมูลต่างๆ มาคำนวณในโปรแกรม Excel แล้วสร้างตารางกับกราฟ เพื่อนำไปวางในโปรแกรม PowerPoint ก่อนที่จะนำ Slide นั้นไปนำเสนอ ขั้นตอนต่างๆเหล่านี้เรียกว่าเป็นการทำงานแบบ Manual เพราะจะต้องใช้พนักงานเป็นผู้ Import ข้อมูลเข้า Excel คำนวณ สร้างกราฟ ก่อนที่จะนำไปแสดงผลได้ทำให้ต้องใช้ระยะเวลาแม้จะเป็นการ Set Template เอาไว้แล้วก็ตาม เพื่อแก้ปัญหานี้จึงมีการคิดค้นโปรแกรม BI ขึ้นมา เพื่อทำหน้าที่ในการแสดง Dashboard ที่มีทั้งแบบ Realtime และ Batch และดูเหมือนว่าสิ่งนี้จะทำให้ผู้บริหารพอใจเป็นอย่างมาก หลายครั้งจะเห็นได้ว่าโครงการ Data ส่วนใหญ่จึงมีวัตถุประสงค์เพื่อทำ Dashboard แต่ Dashboard นั้นทำเพื่อวัตถุประสงค์อะไรเป็นอีกประเด็นหนึ่ง วัตถุประสงค์ของ Dashboard คืออะไรกันแน่? ความเป็นจริงแล้วเราใช้ Dashboard เพื่อ Visualize Data ทำให้เราเห็นมุมมองความเคลื่อนไหวของข้อมูลซึ่งอาจจะเป็นข้อมูลดิบหรือข้อมูลที่ผ่านการวิเคราะห์ออกมาจนเป็นผลลัพธ์เชิงลึกหรือ Insight ก็ได้ ดังนั้นวัตถุประสงค์ของการทำ Dashboard ก็เพื่อให้ตอบโจทย์ใดโจทย์หนึ่ง เช่นต้องการดูประมาณการณ์ยอดขายในอนาคต ต้องการดูการจำแนกกลุ่มลูกค้าตามภูมิภาค เป็นต้น ในการทำ Dashboard มีขั้นตอนดังนี้
1. นำเข้าข้อมูล
2. จัดเรียงข้อมูล
3. คำนวณผลลัพธ์ โดยใช้เครื่องมือที่กำหนด เช่น หาค่าเฉลี่ย จัดกลุ่ม เรียงลำดับ เป็นต้น
4. เลือกมุมมองในการนำเสนอข้อมูล เช่น สร้างตาราง สร้างกราฟในรูปแบบต่างๆจัดวางในแผนที่ เป็นต้น เพียง 4 ขั้นตอนจะทำให้ได้ Dashboard ที่ทำงานได้อย่างอัตโนมัติโดยที่ไม่จำเป็นต้องนำเข้าข้อมูลใหม่ จัดเรียงใหม่ คำนวณใหม่ หรือเลือกมุมมองใหม่ และ Dashboard นั้นก็สามารถเชื่อมโยงกันได้ตราบใดก็ตามที่ใช้ชุดข้อมูลเดียวกันเป็นรูปแบบการทำงานแบบ Automated อย่างไรก็ตามปัญหาอยู่ที่ว่าข้อมูลที่จะนำเข้านั้นไม่ควรเป็นข้อมูลที่เป็น File เพราะถ้าต้องนำข้อมูลที่เป็น File มา Import ก็คงเป็นการทำงาน Manual แบบเดิมแต่ควรเป็นข้อมูลที่เชื่อมต่อผ่าน Database เพื่อให้ Dashboard นั้นทำงานได้ด้วยตัวเอง ซึ่งหลายองค์กรมักจะจัดซื้อโปรแกรม BI มาเพื่อใช้เฉพาะหน้าโดยไม่มีการเตรียม Database เอาไว้ก่อน จนสุดท้ายกลายเป็นว่าซื้อ BI มาก็ไม่ก่อให้เกิดประโยชน์อะไรไปมากกว่าการมี Dashboard ที่ดูสวยขึ้น ทันสมัยขึ้น แต่ก็ต้องทำงานแบบ Manual เหมือนเดิม นอกจากนี้ยังมีปัญหาข้อมูลที่อยู่กระจัดกระจาย จนทำให้การเชื่อมแหล่งที่มาของข้อมูลเป็นไปได้ยาก จนต้อง Export ของจากระบบต่างๆด้วยวิธี Manual เพื่อนำมาเข้า Dashboard ปัญหาเหล่านี้เกิดขึ้นจากความไม่เข้าใจอาจจะเป็นเพราะความต้องการแค่ Dashboard จนลืมไปว่า Pipeline ของข้อมูลที่เรียบร้อยต่างหากคือหัวใจสำคัญของการแสดงผลข้อมูล ทั้งนี้ การจะสร้าง Pipeline ที่ดี อาจจะต้องรื้อ Database ใหม่ ซึ่งต้องใช้เวลาในการจัดการและผู้บริหารอาจจะไม่สามารถรอได้ การมี Data Pipeline ที่ดีเปรียบเสมือนการมีท่อที่มีประสิทธิภาพ สามารถส่งทรัพยากรไปยังปลายทางได้อย่างราบรื่น ประหยัดทั้งเวลาและประหยัดแรงงานแถมยังสามารถสร้างผลลัพธ์ใหม่ๆได้อีกด้วย ยิ่งไปกว่านั้นวิธีการคำนวณก็สำคัญเช่นกัน ซึ่งบางครั้งการวิเคราะห์พื้นฐานอาจไม่ตอบโจทย์ จำเป็นต้องมีการคำนวณนอก Dashboard เช่นการใช้ Machine Learning เป็นต้น ดังนั้นการที่ผู้บริหารสนใจแต่ Dashboard โดยที่ไม่สนใจ Data Pipeline จึงเป็นความเสี่ยงที่เกิดขึ้นในองค์กร และหากปล่อยผ่านไป สุดท้ายแล้วองค์กรอาจจะเสียประโยชน์ที่ควรจะได้จากการมี Dashboard ที่ดีก็เป็นได้ บทความที่เกี่ยวข้อง
- โปรแกรม BI เหมาะกับใคร
https://bit.ly/2WX6a5l - ปัญหาของการเริ่มต้นใช้โปรแกรม BI
https://bit.ly/2LUUj5V - ในช่วงวิกฤต ควรลงทุน Big Data ด้านใด
https://bit.ly/2VVeN1Q - การเชื่อมโยงข้อมูล คือ ปัญหาใหญ่ ที่รอไม่ได้
https://bit.ly/2CHn3ZF - การเชื่อมโยงข้อมูล ต้องแก้ด้วย "ผู้เชี่ยวชาญ"
https://bit.ly/2GHOl6W We turn your DATA into your KEY of SUCCESS. Email: inquiry@coraline.co.th Tel: 099-425-5398 #BigData #DataScience #Optimization #ProductivityImprovement #DigitalTransformation #MachineLearning #ArtificialIntelligence #DataManangement #DataGovernance #DataQuality #DeepLearning #Coraline