Typhoon Logo
TYPHOON
Typhoon เปิดให้บริการโมเดลผ่าน NVIDIA NIM Microservices พร้อมใช้งานระดับองค์กรได้รวดเร็วยิ่งขึ้น

Typhoon เปิดให้บริการโมเดลผ่าน NVIDIA NIM Microservices พร้อมใช้งานระดับองค์กรได้รวดเร็วยิ่งขึ้น

NVIDIA
Deployment

โมเดล Typhoon พร้อมใช้งานแล้วผ่าน NVIDIA NIM Microservices เพื่อให้องค์กรสามารถใช้งาน AI ได้อย่างรวดเร็ว ปลอดภัย และยืดหยุ่น

Oravee (Orn) Smithiphol

Oravee (Orn) Smithiphol

11 มิถุนายน 2568

Typhoon เปิดให้บริการโมเดลผ่าน NVIDIA NIM Microservices พร้อมใช้งานระดับองค์กรได้รวดเร็วยิ่งขึ้น

Universal LLM NIM microservice ของ NVIDIA ที่ได้เปิดตัวครั้งแรกในงาน NVIDIA GTC Paris วันนี้ คือนวัตกรรมที่ยกระดับ AI สำหรับองค์กรโดยออกแบบมาเพื่อให้สามารถปรับใช้งานโมเดลภาษาขนาดใหญ่ได้อย่างปลอดภัย ขยายได้ และรองรับการใช้งานในภาคอุตสาหกรรมหลากหลาย ช่วยให้องค์กรสามารถนำ LLM ทั้งแบบโอเพ่นซอร์สและแบบเฉพาะทางมาใช้ได้รวดเร็วยิ่งกว่าที่เคย

วันนี้ทีม Typhoon มีความยินดีที่จะแชร์ว่าเราได้นำโมเดลในตระกูล Typhoon 2 มาสู่ NVIDIA NIM เพื่อปลดล็อกศักยภาพของ AI ภาษาไทยระดับองค์กรซึ่งสามารถใช้งานได้ทั้งทางคลาวด์แบบสาธารณะ ระบบภายในองค์กร (on-premise) และระบบแบบไฮบริด เปิดทางให้ธุรกิจในไทยและเอเชียตะวันออกเฉียงใต้สามารถใช้งาน AI ภาษาไทยระดับองค์กรได้อย่างรวดเร็ว

จุดเด่นที่องค์กรควรจับตามอง

องค์กรไทยกำลังต้องการระบบ AI ที่เข้าใจภาษาและบริบทของผู้ใช้ท้องถิ่น โมเดล Typhoon มีจุดเด่นด้านความเข้าใจภาษาไทย ความสามารถในการสลับภาษา (code-switching) และการทำตามคำสั่ง (instruction-following) ได้อย่างแม่นยำทั้งในภาษาไทยและอังกฤษ

ทำความรู้จักกับ Typhoon 2 บน NIM

โมเดลตระกูล Typhoon 2 ประกอบด้วยเวอร์ชัน pretrain และ instruct-tuned ตั้งแต่ขนาด 1B ไปจนถึง 70B parameters เหมาะสำหรับการใช้งานในหลากหลายบริบท เช่น งานเอกสาร แชทบอทบริการลูกค้า ไปจนถึงการสร้าง AI agents สำหรับองค์กร
การใช้งานผ่าน NIM ช่วยให้องค์กรสามารถ:

● การปรับใช้งานที่รวดเร็วและเป็นมาตรฐาน ผ่าน Docker และ REST APIs

● มั่นใจในความปลอดภัยและความเสถียร ด้วยซอฟต์แวร์และบริการของ NVIDIA AI Enterprise

● ยืดหยุ่นในการใช้งาน ทั้งในดาต้าเซ็นเตอร์ คลาวด์สาธารณะ หรือแบบไฮบริด

● รองรับเวิร์กโฟลว์แบบ agentic ด้วยการเชื่อมต่อกับ NVIDIA NeMo สำหรับการปรับแต่ง ตรวจสอบ ใส่ guardrails และใช้งาน RAG (retrieval-augmented generation)

สร้างมาเพื่อคนไทยและเวิร์กโฟลว์ AI สำหรับองค์กร

โมเดลโอเพ่นซอร์สของ Typhoon เป็นหนึ่งในโมเดลชั้นนำที่ทำผลงานได้โดดเด่นในการทดสอบมาตรฐาน เช่น ThaiExam, O-NET, TGAT รวมถึง M3Exam, MT-Bench และ Function Calling Accuracy

ด้วยขีดความสามารถในการรองรับ context สูงสุดถึง 128K tokens และความแม่นยำในการทำตามคำสั่ง Typhoon เหมาะอย่างยิ่งสำหรับงานที่ต้องการความเป็นโครงสร้าง เวิร์กโฟลว์แบบค้นคืนข้อมูล และ AI agents ที่ขับเคลื่อนระบบอัตโนมัติในโลกจริง

ทดลองใช้งานวันนี้

สัมผัสพลังของ AI ที่พร้อมใช้งานระดับองค์กร — ปรับแต่งมาเพื่อประเทศไทย และสามารถใช้งานได้ภายในเวลาไม่ถึง 5 นาที

● ดูรายละเอียดเพิ่มเติมเกี่ยวกับโมเดลได้ที่ opentyphoon.ai

● อ่านบล็อกของ NVIDIA: Simplify LLM Deployment and AI Inference with Unified NVIDIA NIM Workflow

● สำรวจ universal LLM NIM microservice ได้ที่ build.nvidia.com

หมายเหตุ: ปัจจุบัน โมเดลของ Typhoon ที่ผ่านการทดสอบและใช้งานร่วมกับ NIM ได้คือ Typhoon-2-8b-instruct หากคุณต้องการใช้งานโมเดลอื่นผ่าน NIM สามารถติดต่อเราได้โดยตรง หรือดูรายการโมเดลทั้งหมดได้ที่เว็บไซต์ของเรา