การสร้าง LLM ตอบคำถามเกี่ยวกับข้อมูลภายในขององค์กร
เราอาจจะคุ้นเคยกับการใช้ ChatGPT หรือ Gemini ในการค้นหาข้อมูล เขียนรายงาน หรือเป็นตัวช่วยเราในการแปลภาษา โดยหลักการแล้ว ตัว LLM นั้นจะมีข้อมูลต้นแบบขนาดใหญ่ที่ทางบริษัทผู้พัฒนาเป็นเจ้าของ ซึ่งในการประยุกต์ใช้ LLM สามารถนำมาใช้งานภายในองค์กร หรื ให้ LLM นำข้อมูลของเราไปตอบได้เช่นเดียวกัน LLM ต่างกับ Chatbot ทั่วไปเพราะมันสามารถเข้าใจภาษาของมนุษย์ที่ซับซ้อนได้มากกว่า ในขณะที่ Chatbot จะมีความสามารถในการพลิกแพลงภาษาได้น้อยกว่า ดังนั้น การนำ LLM มาเป็นตัวช่วยภายในองค์กร สามารถทำได้โดยใช้ LLM เป็นตัว Input คำสั่ง และใช้เทคโนโลยี Retrieval-Augmented Generation (RAG) ช่วยชี้เฉพาะเจาะจงข้อมูลความรู้ของ LLM เพื่อตอบคำถามให้กับผู้ใช้งาน ซึ่งข้อมูลที่เป็น Knowledge Base นั้น อาจจะเป็นข้อมูลรายงาน หรือข้อมูลในถัง database ขององค์กร ซึ่งผลลัพธ์จากการพัฒนา RAG ร่วมกับ LLM จะทำให้ AI สามารถทำหน้าที่เป็นผู้ช่วยส่วนตัว ในการค้นหาข้อมูลต่างๆ ของบริษัทได้ เช่น ข้อมูลด้านการเงิน ข้อมูล Inventory การเปรียบเทียบยอดขายของเซลล์แต่ละคน ตอบคำถามด้าน HR เป็นต้น อย่างไรก็ตาม การจะสร้าง AI ใช้ตอบคำถามภายในองค์กร สิ่งแรกที่ต้องทำ คือ บริหารจัดการ Knowledge Base ให้ดีเสียก่อน เพราะนี่คือหัวใจของโครงการ ในขณะที่ LLM เป็นเพียงเครื่องมือที่จะนำมาใช้เข้าใจ Input ของคำถาม และส่ง Output เพื่อตอบสนองความต้องการของผู้ใช้งาน นอกจากนี้ อีกหนึ่งปัจจัยที่สำคัญ คือ การวางกระบวนการให้ LLM เข้าใจโจทย์ และเลือกข้อมูลไปตอบได้อย่างถูกต้อง ซึ่งกระบวนการนี้ นักพัฒนาที่มีความเชี่ยวชาญ จะสามารถออกแบบวิธีการให้ LLM ทำงานได้อย่างเหมาะสม ถ้าองค์กรใดสามารถสร้าง AI Assistant โดยนำข้อมูลภายในองค์กรไปใช้งานได้อย่างรวดเร็ว ต่อไปผู้บริหารก็จะไม่ต้องรอให้ทีมงานทำ Slide มาโชว์อีกต่อไป เรียกได้ว่าเป็นการสร้าง Productivity ที่สำคัญมากในองค์กรกันเลยทีเดียว
เราอาจจะคุ้นเคยกับการใช้ ChatGPT หรือ Gemini ในการค้นหาข้อมูล เขียนรายงาน หรือเป็นตัวช่วยเราในการแปลภาษา โดยหลักการแล้ว ตัว LLM...