คนทั่วไปก็เข้าใจ AI ได้ (1): LLM คืออะไร?

ภาษาอื่น / Other language: English · ไทย
ซีรีส์นี้เริ่มขึ้นจากโพสต์เฟสบุ๊คค่ะ เพราะเราเห็นว่าคนส่วนใหญ่ยังไม่เข้าใจว่า AI คืออะไร ต่างจาก ChatGPT ยังไง ผู้ใหญ่บางท่านเข้าใจไปว่าเราได้คุยกับคนจริงๆ ก็มีนะคะ
เราเอามาปรับแก้เล็กน้อยให้ทันสมัยขึ้น เพราะตอนนี้เราอยู่ยุค GPT-5 ไม่ใช่ GPT-4 แล้ว ถ้าแค่เอาของเก่ามาขึ้น blog ก็กลัวจะดูตกยุคค่ะ
ขอเล่าดังนี้ค่ะ …
จากคอมพิวเตอร์แบบเดิม → สู่ยุค AI
คอมพิวเตอร์แบบเดิมๆ สมัยก่อนเลย เราโปรแกรมอะไรไป ก็จะได้ผลตามนั้น นึกถึงพวกเครื่องคิดเลขนะคะ มันคำนวณได้เท่าเดิมตลอด
แต่ตอนหลังมานี้ เราเข้าสู่ยุค AI คือไม่ได้ใช้การตั้งโปรแกรมแล้ว แต่ใช้การ train มันแทน เหมือนกับสอนเด็กค่ะ เช่น ให้ดูรูปหมาในแบบต่างๆ ไปเยอะๆ เด็กก็จะเข้าใจเองว่าสิ่งนี้เรียกว่าหมา คือไม่ได้มีคนไปตั้งโปรแกรมอะไรว่าถ้าเห็นหน้าแบบไหน จะเรียกว่าหมาบ้าง แต่มันเห็นมามากจนดูออกด้วยตัวเอง
เหมือนการที่นักวิจัยชื่อ Fei-Fei Li ได้สร้างฐานข้อมูลรูปภาพขนาดใหญ่ชื่อ ImageNet ตั้งแต่ปี 2006 โดยมีรูปภาพมากกว่า 14 ล้านรูป
LLM คืออะไร?
LLM (Large Language Model) เป็น AI ที่เน้นเรื่องภาษาเป็นสำคัญ
ตัวอย่างในกลุ่มนี้คือ ChatGPT, Claude, Gemini, DeepSeek, Grok เป็นต้นค่ะ
LLM เชี่ยวชาญเรื่องภาษาเป็นพิเศษ คือสามารถช่วยเขียนงาน ตอบคำถามต่างๆ หรือสรุปข้อความ แปลงานให้เรา ไปจนถึงเขียน code ได้ค่ะ
ตัวอย่าง: ถ้าเราพิมพ์ว่า "เขียนอีเมลขอลางานให้หน่อย"
มันจะเขียนให้ในรูปแบบที่สุภาพเหมาะสม เพราะมันเคยเห็นอีเมลแบบนี้เยอะในข้อมูลที่อ่านมาค่ะ
แต่ข้อจำกัดก็มีนะคะ เช่น มันมักจะไม่รู้เหตุการณ์ปัจจุบัน กว่าที่มันจะยอมรับว่า GPT-5 มีอยู่จริงก็ผ่านไปหลายวันค่ะ
LLM เรียนรู้อย่างไร?
LLM ต้องอ่านเว็บไซต์ต่างๆ บทความเอกสารวิชาการ หนังสือวรรณกรรม ตำราเรียน และอื่นๆ อีกมากค่ะ
ถ้าคำนวณจำนวนคำที่มันอ่านมา ก็เรียกว่าเยอะมากจนน่าจะเทียบเท่าหนังสือเกินล้านเล่มเลยค่ะ
เพราะมันมีข้อมูลเยอะมากนี่แหละค่ะ จึงถูกเรียกว่า "Large Language Model"
- Large = ฐานข้อมูลใหญ่มาก (มีข้อมูลเทียบเท่าหนังสือเป็นล้านเล่ม)
- Language = เชี่ยวชาญเรื่องภาษา
- Model = แบบจำลองที่เรียนรู้จากข้อมูล
แล้วมันคุยกับเราได้ยังไง?
วิธีคือ… มันอ่านทุกคำที่เราเขียนไป แบบละเอียดสุดๆ ค่ะ เช่น:
- ถ้าเราสั่งมัน แบบไม่ต้องมี please หรือ could you → มันก็จะอ่านว่าเราเป็นผู้ใช้กลุ่มหนึ่ง
- ถ้าเราแสดงความลังเล ไม่มั่นใจ → มันก็จะอ่านว่าเราเป็นผู้ใช้อีกกลุ่มหนึ่ง
คำอธิบายทางเทคนิคคือ ทุกอย่างที่เราพิมพ์ แม้แต่ "..."
ก็ถูกเปลี่ยนเป็น tokens ซึ่งประมวลผลเป็นตัวเลข โดยแต่ละคำจะถูกอ่านในหลายมิติ เช่น ความหมาย, ระดับของภาษา และความรู้สึกของคำ ฯลฯ
พอมันอ่านคำสั่งเรา มันก็ตอบกลับมาด้วยการใช้ ความน่าจะเป็น ว่าบทสนทนามาแบบนี้ คำถัดไป ก็น่าจะต้องเป็นประมาณนี้แหละ
ที่ว่ามันใช้ความน่าจะเป็น หมายถึงมันจะเลือกคำที่มีโอกาสเกิดขึ้นสูงสุด ไม่ใช่คำที่ "ถูกที่สุด" เสมอไปค่ะ
LLM “รู้” หรือไม่?
LLM ไม่ได้ "รู้" แบบคนเรา แต่มันจำรูปแบบของภาษาได้ดีมาก เช่น:
- ถ้าเห็นคำว่า
"กรุงเทพเป็น..."
→ มันจะรู้ว่าน่าจะตามด้วย"เมืองหลวงของไทย"
เพราะเห็นประโยคแบบนี้มาเยอะในข้อมูลที่อ่าน
ลองนึกภาพว่า LLM เป็นเหมือนเพื่อนที่อ่านหนังสือเยอะมาก
พอเราถามอะไร เขาก็จะตอบจากสิ่งที่เคยอ่านมา
บางทีก็ตอบถูก แต่บางทีก็อาจจะผิด เพราะอาจจะจำคลาดเคลื่อน หรือข้อมูลที่อ่านมาผิด
GPT-5 ในชีวิตประจำวัน
ตัวที่เราใช้ประจำคือ GPT-5 โดยใช้ผ่านแอพ ChatGPT ใน iPad
การทดสอบส่วนใหญ่เราทำใน iPad ด้วยหน้าจอที่ผู้ใช้คนอื่นเห็นเหมือนเราค่ะ
แน่นอนว่ามี noise ไม่เหมือนการทดสอบใน lab …
แต่เราคิดว่าการทดสอบผ่านมุมมองผู้ใช้ทั่วไป (UX) สำคัญนะคะ
สรุป
ตอนต่อๆ ไปเราจะลงลึกขึ้น แต่จะพยายามคุมโทนว่าผู้อ่านไม่ต้องเรียนสาย STEM มา ก็อ่านเข้าใจนะคะ