
สรุปจากการบรรยายโดย รองศาสตราจารย์ ดร.มาโนช โลหเตปานนท์ รองอธิการบดี จุฬาลงกรณ์มหาวิทยาลัย (Assoc. Prof. Manoj Lohatepanont, Sc.D. | Vice President, Chulalongkorn University) ในงานสัมมนา Public Sector Day Thailand วันที่ 6 ตุลาคม 2568

มหาวิทยาลัยใช้เทคโนโลยี AI เพื่อเพิ่มคุณภาพการศึกษาและงานวิจัยในหลายมิติ โดยเฉพาะอย่างยิ่งที่จุฬาลงกรณ์มหาวิทยาลัย ซึ่งถูกจัดอยู่ในกลุ่มมหาวิทยาลัยวิจัยของประเทศ ได้นำ AI เข้ามาประยุกต์ใช้เพื่อเปลี่ยนรูปแบบการเรียนรู้และการดำเนินงานสำคัญ ดังนี้:
1. การเพิ่มคุณภาพการศึกษาและการเรียนรู้ (Education)
AI มีบทบาทสำคัญในการเปลี่ยนรูปแบบการศึกษาในมหาวิทยาลัยจากเดิมที่เป็นการส่งมอบความรู้ทางเดียวจากอาจารย์ไปสู่ผู้เรียน มาเป็นการร่วมสร้างความรู้ (co-creation) และการเรียนรู้เฉพาะบุคคล (personalized learning)
ก. ระบบจัดการการเรียนรู้ (LMS) และการเรียนรู้เฉพาะบุคคล:
- การบูรณาการ AI ใน LMS: มหาวิทยาลัยได้พัฒนาและบูรณาการ Generative AI (Gen AI) เข้าสู่ระบบ Learning Management System (LMS) ของตนเอง ซึ่งพัฒนาอยู่บนระบบ AWS
- เครื่องมือช่วยผู้เรียน: นิสิตสามารถใช้ Gen AI ในการสร้างบทสรุปเนื้อหาวิชา และสร้างแบบทดสอบหรือ Quiz ขึ้นมาเพื่อทดสอบความรู้ของตนเองได้
- การวินิจฉัยและปรับเส้นทางการเรียนรู้: เมื่อนิสิตตอบผิดในบางข้อ AI สามารถวินิจฉัยได้ว่านิสิตอ่อนในเนื้อหาส่วนใด และจะออกแบบแพลตฟอร์มต่อเพื่อแนะนำว่านิสิตควรให้ความสำคัญกับการเรียนรู้เรื่องใดต่อ
- การเข้าถึงที่เท่าเทียม (Equity and Access): เพื่อแก้ปัญหานิสิตบางคนไม่สามารถจ่ายค่าเครื่องมือ AI ระดับโลก (เช่น $20 ต่อเดือน) ได้ จุฬาฯ ได้สร้างระบบ GC AI ของมหาวิทยาลัยเองที่เป็นระบบปิด เพื่อให้นิสิตทั้ง 40,000 คนสามารถเข้าถึงเครื่องมือเหล่านี้ได้อย่างเท่าเทียมกัน
ข. การปรับปรุงกระบวนการวัดและประเมินผล:
- การตรวจข้อสอบด้วย Gen AI: มหาวิทยาลัยใช้ AI ในการตรวจข้อสอบแบบเขียนตอบ (Essay) สำหรับวิชาบังคับที่มีนิสิตจำนวนมาก (รวมกว่า 40,000 คนต่อปี)
- ลดภาระงานและเวลา: เดิมต้องใช้ผู้ตรวจ 2 คนต่อข้อสอบหนึ่งฉบับ (ใช้เวลาประมาณ 90-100 นาที) เมื่อใช้ Gen AI เข้ามาช่วยในการตรวจ ทำให้สามารถลดภาระงานของบุคลากรลงได้ 1 คน และลดเวลาที่ใช้ไปได้ประมาณ 45% (ปัจจุบันยังคงต้องมีคนตรวจอีก 1 คน เพื่อให้มั่นใจในมาตรฐาน แม้จะใช้ AI ช่วยแล้วก็ตาม)
ค. การสนับสนุนบุคลากรและสังคม:
- เพิ่มปฏิสัมพันธ์กับนิสิต: AI ช่วยสร้างประสิทธิภาพ (Efficiency) ให้กับคณาจารย์ โดยช่วยลดเวลาในการทำงานบริหารจัดการเอกสารต่าง ๆ (เช่น การกรอก มคอ. หรือ MUCAP) ทำให้อาจารย์สามารถเพิ่มเวลาที่ใช้กับนิสิต และเพิ่มปฏิสัมพันธ์ได้มากขึ้น
- การพัฒนาชุมชน (Lifelong Learning): มหาวิทยาลัยได้สร้างระบบคอร์สเรียนออนไลน์แบบเปิด (MOOCs) เช่น Thai MOOC และ Chula MOOC ซึ่งเปิดให้ประชาคมทั่วไปเข้าเรียนฟรี เพื่อตอบโจทย์ความต้องการของแรงงานในการพัฒนาทักษะ (skill up) และการปรับทักษะใหม่ (reskill) ปัจจุบันมีผู้ลงทะเบียนในระบบรวมมากกว่า 5.5 ล้านคน และมีผู้สำเร็จการศึกษาได้รับ Certificate แล้ว 1.3 ล้านคน
2. การเพิ่มคุณภาพงานวิจัยและการบริการสังคมด้วย AI
มหาวิทยาลัยวิจัยมีการจัดสรรงบประมาณเพื่อทำวิจัยชั้นนำ ซึ่งส่วนหนึ่งอยู่ในด้าน AI นอกจากนี้ยังมีการนำ AI มาใช้ในโครงการวิจัยเชิงนวัตกรรมที่มีผลกระทบสูงต่อสังคม:
ก. การวิจัยและพัฒนา AI สำหรับสุขภาพจิต:
- โจทย์ปัญหา: โครงการสำคัญหน่วยงานหนึ่งของจุฬาฯ ได้พัฒนา AI เพื่อแก้ไขปัญหาสุขภาพจิตระดับประเทศ ซึ่งมีทรัพยากรจำกัดมาก (มีจิตแพทย์เพียง 1.28 คน ต่อประชากร 100,000 คน)
- การทำงานของ AI: มีการพัฒนา AI ที่เรียกว่า "Voice Spot" เพื่อช่วยคัดกรองคนที่เข้าข่ายมีปัญหาซึมเศร้า (Depression)
- AI นี้เป็นแบบ Multimodal โดยรองรับทั้งการตรวจจับใบหน้า (ภาพ) เสียง และข้อความ (จากการทำ ASR หรือการแปลงเสียงเป็นข้อความ)
- มีการใช้ Deep Learning ในการตรวจจับปัญหาซึมเศร้า และมีการประเมินโดยใช้ชุดคำถามมาตรฐานของจิตแพทย์
- AI จะจัดกลุ่มผู้มีปัญหาเป็น 4 ระดับ (เขียว เหลือง ส้ม แดง) โดยกลุ่มที่เป็นสีแดงจะถูกส่งต่อให้ 1323 เพื่อติดต่อกลับและประเมินการให้ความช่วยเหลือ
- ผลกระทบต่องานบริการ: AI ถูกฝังในระบบ Call Center ของ 1323 ทำให้ ลดระยะเวลาการรอสายได้ถึง 60% และลดสายที่ถูกทิ้ง (Abandoned Call) ได้ถึง 50% ซึ่งเป็นการเพิ่มประสิทธิภาพในการให้บริการแก่คนไทยทั่วประเทศ
- การพัฒนา Capacity: กำลังมีการพัฒนา Chatbot เพื่อเพิ่มขีดความสามารถ (Capacity) ของระบบให้มากขึ้น โดยทำงานร่วมกับคณะแพทยศาสตร์และคณะจิตวิทยาของจุฬาฯ
ข. การบริหารจัดการงานวิจัย:
- ความมั่นใจด้านความปลอดภัยของข้อมูล: ระบบ GC AI ที่เป็นระบบปิดของมหาวิทยาลัย ทำให้นักวิจัยสามารถใช้เครื่องมือนี้ได้อย่างมั่นใจว่างานวิจัยที่กำลังทำอยู่จะไม่รั่วไหลสู่ภายนอกโดยไม่ได้ตั้งใจ
3. ความท้าทายที่เกี่ยวข้องกับการใช้ AI (Challenges)
เพื่อให้การใช้ AI มีคุณภาพและยั่งยืน มหาวิทยาลัยต้องเผชิญกับความท้าทายหลัก 3 ประการ:
- จริยธรรมทางวิชาการ (Academic Integrity): นี่เป็นสิ่งที่สำคัญที่สุด มหาวิทยาลัยไม่ได้ห้ามการใช้ Generative AI แต่เน้นย้ำว่านิสิตจะต้องมีจริยธรรมในการใช้เครื่องมือเหล่านี้ เนื่องจากมีกรณีตัวอย่างการใช้ AI อย่างขาดจริยธรรม เช่น การสร้างรายงานที่มีการอ้างอิงเอกสารที่ไม่มีอยู่จริง (AI Hallucinate)
- ความเท่าเทียมในการเข้าถึง (Equity and Access): การสร้างระบบ AI ปิดภายในองค์กร (GC AI) เป็นวิธีหนึ่งในการรับรองว่าทุกคนสามารถเข้าถึงเครื่องมือ AI ระดับสูงได้เท่าเทียมกัน
- อคติและจริยธรรมข้อมูล (Bias and Ethics): ต้องให้ความสำคัญกับการใช้ข้อมูลที่สำคัญและระมัดระวังไม่ให้เกิดอคติ (Bias) จากข้อมูล แม้จะเป็นสิ่งที่ไม่ได้ตั้งใจ รวมถึงความปลอดภัยของข้อมูล (Security) โดยเฉพาะการหลีกเลี่ยงการจัดเก็บข้อมูลส่วนตัวให้มากที่สุด เพื่อลดความเสี่ยงจากการสูญเสียข้อมูล
โดยสรุปแล้ว การใช้ AI ในมหาวิทยาลัยเปรียบเสมือนการติดตั้งเครื่องมือปรับแต่งเฉพาะบุคคลในการเรียนรู้ แทนที่จะให้ทุกคนได้รับเสื้อผ้าขนาดมาตรฐานเดียวกัน AI จะวัดขนาดและปรับตัดชุดการเรียนรู้ที่พอดีกับแต่ละบุคคล ซึ่งช่วยให้การเรียนรู้มีประสิทธิภาพและคุณภาพสูงขึ้น
อะไรคือความท้าทายทางจริยธรรมและข้อจำกัดในการนำ AI มาใช้ในสถานศึกษา
การนำเทคโนโลยี AI มาใช้ในสถานศึกษา โดยเฉพาะในระดับอุดมศึกษา ถือเป็นทั้งโอกาสและความท้าทายที่สำคัญ โดยแหล่งข้อมูลได้ระบุถึงความท้าทายหลักทางจริยธรรมและข้อจำกัดในการนำ AI มาใช้ในมหาวิทยาลัยไว้ 3 ด้านหลัก ดังนี้:
1. ความท้าทายด้านจริยธรรมทางวิชาการ (Academic Integrity)
ความท้าทายนี้ถือเป็นสิ่งสำคัญที่สุด มหาวิทยาลัยไม่ได้สั่งห้ามการใช้เครื่องมือ Generative AI (Gen AI) ในห้องเรียน งานวิจัย หรือการศึกษา แต่เน้นย้ำว่านิสิตจะต้องมีจริยธรรม (ethics) ในการใช้เครื่องมือเหล่านี้
- การขาดความซื่อสัตย์สุจริต (Lack of Integrity): ปัญหาสำคัญที่เกิดขึ้นคือการใช้ AI อย่างขาดจริยธรรม ซึ่งรวมถึงการนำเสนอข้อมูลที่ถูกสร้างขึ้นโดย AI แต่ไม่มีอยู่จริง (AI Hallucinate)
- ตัวอย่างปัญหา: มีกรณีที่บริษัทที่ปรึกษาระดับโลกส่งรายงานที่สร้างโดย Gen AI ให้แก่รัฐบาลออสเตรเลีย ซึ่งภายในรายงานมีการอ้างอิงเอกสารที่ไม่มีอยู่จริง (AI Hallucinate) นี่เป็นตัวอย่างของการใช้ AI อย่างไม่มีจริยธรรมหรือขาดความซื่อสัตย์สุจริต (integrity)
- การปลูกฝังคุณลักษณะความเป็นมนุษย์: แม้ทักษะ (skill) ในการใช้เครื่องมือ AI จะเป็นสิ่งสำคัญ แต่สุดท้ายแล้วสิ่งที่สำคัญที่สุดคือคุณลักษณะของความเป็นมนุษย์ (human character) และความซื่อสัตย์สุจริต (integrity)
2. ความท้าทายด้านความเท่าเทียมและการเข้าถึง (Equity and Access)
ข้อจำกัดด้านการเข้าถึงเครื่องมือ AI ระดับสูงถือเป็นปัญหาที่สอง
- ความเหลื่อมล้ำในการเข้าถึง: ปัจจุบัน นิสิตบางคนสามารถจ่ายเงินเพื่อเข้าถึงเครื่องมือ AI ระดับโลกที่มีค่าใช้จ่ายสูง (เช่น 20 เหรียญ หรือ 700 บาทต่อเดือน) ได้ แต่ไม่ใช่ทุกคนที่สามารถทำเช่นนั้นได้
- แนวทางการแก้ไข: เพื่อให้เกิดความเท่าเทียมในการเข้าถึงเครื่องมือเหล่านี้ จุฬาลงกรณ์มหาวิทยาลัยจึงสร้างระบบ GC AI ขึ้นมาใช้ภายในมหาวิทยาลัยเองในลักษณะของระบบปิด ซึ่งทำให้บุคลากรและนิสิตทั้ง 40,000 คน สามารถเข้าถึงเครื่องมือ AI เหล่านี้ได้อย่างเท่าเทียมกัน
3. ความท้าทายด้านอคติและความปลอดภัยของข้อมูล (Bias and Data Security/Ethics)
มหาวิทยาลัยต้องให้ความสำคัญกับจริยธรรมในการจัดการข้อมูล และความปลอดภัยของระบบ
- อคติจากข้อมูล (Bias from Data): อคติเป็นเรื่องสำคัญ ถึงแม้ว่าผู้ใช้งานจะไม่ได้ตั้งใจ แต่บางครั้งอคติอาจเกิดขึ้นจากชุดข้อมูล (Data) ที่นำมาใช้ ดังนั้นการเลือกใช้ข้อมูลที่สำคัญจึงเป็นสิ่งที่จำเป็น
- ความปลอดภัยของข้อมูล (Security): ความปลอดภัยของระบบเป็นเรื่องที่ต้องให้ความสำคัญ ซึ่งรวมถึงการจัดการปัญหาด้านความเสี่ยง เช่น การควบคุมการเข้าถึง (access control), การทำ Token Validation (ประเด็น AI Token เป็นเรื่องที่กำลังเป็นที่ถกเถียง)
- การป้องกันข้อมูลส่วนบุคคล: เพื่อลดความเสี่ยงจากการสูญเสียข้อมูล มหาวิทยาลัยจึงมีนโยบายในการหลีกเลี่ยงการจัดเก็บข้อมูลส่วนตัว (personal information) ให้มากที่สุด
- ความมั่นใจในการทำวิจัย: ระบบ AI ที่เป็นระบบปิดของมหาวิทยาลัย (GC AI) ช่วยให้นักวิจัยสามารถใช้งานได้อย่างมั่นใจว่างานวิจัยของตนเองจะไม่รั่วไหลออกสู่ภายนอกโดยไม่ได้ตั้งใจ
4. ข้อจำกัดและอุปสรรคในการใช้งานจริง (Practical Limitations)
จากการนำ AI ไปประยุกต์ใช้ในโครงการจริงเพื่อบริการสังคม (เช่น โครงการ AI ด้านสุขภาพจิต) พบข้อจำกัดที่เกี่ยวข้องกับผู้ใช้งาน:
- ประเด็นด้านความเป็นส่วนตัว (Privacy): ในการใช้งานจริง พบว่าผู้ใช้บางรายไม่ยอมเปิดกล้อง (วิดีโอ) แม้ว่าการใช้ภาพใบหน้าจะมีประโยชน์ในการวินิจฉัยทางการแพทย์ (Multimodal) แต่ปัญหาด้านความเป็นส่วนตัวทำให้ต้องมีการปรับระบบ AI ให้ไปใช้ข้อมูลจากเสียงและการถอดข้อความเป็นหลักแทน
เรียบเรียงโดย วรพล ลิ่มศิริวงศ์ นักวิชาการคอมพิวเตอร์ มหาวิทยาลัยราชภัฏสวนสุนันทา









COMMENTS