Skip to main content

พื้นฐานเริ่มต้นในการใช้งาน AI

เครื่องคอมพิวเตอร์ที่เหมาะกับการใช้งาน AI

งาน AI ปัจจุบันง่าย ๆ ตอนนี้คือแบ่งเป็น 2 ประเภทคือ

โมเดลภาษา

โมเดลภาษาเช่น LLaMA, Mistral, Gemma, GPT4All จากที่เห็นในตลาด งานประเภทนี้ไม่ได้เน้นใช้ GPU แรง ๆ โดยทั่วไปมักจะรันจาก Mini PC ซึ่งตัวยอดนิยมจะเป็น Mac mini M4 สเปคไหนก็ได้ขอให้แรมเยอะ ๆ พอ คือ 32GB สำหรับพวกโมเดล 13B หรือเอาสุดก็ 64GB ไปเลย (ยิ่งแรมเยอะก็สามารถทำงานที่โมเดล B สูง ๆ ได้) ไม่ก็สามารถไปอีกทางหนึ่งแบบประหยัด ๆ เลยคือเช่าใช้เอา เช่นจาก https://openrouter.ai/ ซึ่งประหยัดกว่ากันมา เติมเงิน 5 ดอลล่าอาจจะใช้ได้เป็นปี

 

การสร้างภาพและวีดีโอสร้างภาพและวีดีโอ

เป็นงานที่เน้น GPU เป็นหลักโดย CPU แทบไม่มีความสำคัญเลย ขอแค่เป็น 4 Core ไม่เก่าขนาด 5 ปีขึ้นไป ก็สบาย ๆ แล้ว ส่วนแรมเครื่องแนะนำให้เริ่มต้นที่ 32 ขึ้นไป ปัจจุบันมีโมเดลยอดนิยมคือ

  • โมเดลสร้างภาพเช่น SD1.5, Flux, Qwen
  • โมเดลสร้างวีดีโอ เช่น Wan,

แต่ละตัวก็จะมีความต้องการ GPU ไม่เท่ากัน โดย GPU แนะนำเริ่มต้นแบบคนทั่วไปเข้าถึงได้ไม่แพงมาก ขอแนะนำเป็นแบบนี้

  • RTX 3060 8GB - สามารถ Gen ภาพ SD1.5 ได้ส่วน Flux ไม่แน่ใจ
  • RTX 3060 12GB - เหมือนข้างบนใช้งานได้ทั้ง Flux และ Wan สามารถฝึก LoRA Flux ได้ด้วย เป็นตัวเริ่มต้นที่คุ้มที่สุดสำหรับใช้งานทั่วไป
  • RTX 5060TI 16GB - ตัวเริ่มต้นที่คุ้มและอเนกประสงค์ที่สุดในปัจจุบัน สามารถฝึก LoRA wan 2.2 ได้ถึง 5B

สรุปเป็นตารางให้เข้าใจง่ายดังนี้

GPU Gen ภาพ
 LoRA Training note
SD1.5 Flux1.dev Wan 2.2 SD1.5 Flux1.dev Wan 2.2
RTX 3060 8GB
RTX 3060 12GB
RTX 5060TI 12GB ✅(5B) เร็วกว่า 3060 เท่าตัว

สำหรับคอมเซตที่จะประกอบใหม่

 แนะนำให้เริ่มที่

เคล็ดลับในการเลือกสเปกสำหรับคนที่กำลังจะประกอบคอม

    เน้น GPU เป็น NVIDIA แนะนำให้เริ่มต้นที่ 5060TI แล้วอัดแรม16GB แต่ถ้างบเหลือและไม่กลัวค่าไฟมหาศาล หาแรม 24GB เป็นตัวเริ่มต้น แรมเครื่องเริ่มต้นควรมีอย่างน้อย 32GB เป็นไปได้ควรใช้ 64GB ไปเลย ส่วนถ้าต้องการฝึกถ้าต้องการฝึก LoRA Wan 2.2 ที่โมเดลสูงสุดแนะนำให้หาการ์ดจอที่มีแรมที่โมเดลสูงสุด 14B ให้ใช้ GPU แรม 24GB ขึ้นไป CPU ถ้าฝั่ง Intel ก็ใช้ประมาณ 14400 ให้มันเหมาะสมกับ GPU แค่นั้น

     

    สรุป

      สำหรับคนที่ใช้ GPU ไม่แรง หรือแรมน้อยแต่อยากเพิ่มความเร็วในการทำ หรือทำงานที่โมเดลสูง ๆ เกิดขีดจำกัด GPU อาจพิจารณาใช้โมเดลจำพวก quantized model (GGUF) แทนได้ แลกกับคุณภาพของงาน
      ถ้าจะฝึกโมเดลต่าง ๆ  แรมการ์ดจอควรเริ่มที่ 12GB ยิ่งเยอะยิ่งฝึกโมเดล B สูง ๆ ได้ อาจพิจารณาใช้ Cloud พวก RunPod เช่า GPU แพง ๆ ในการฝึก LoRA เช่นทำ LoRA บุคคลโดยใช้ภาพนิ่ง 15-20 ภาพ ค่าใช้จ่ายน่าจะอยู่ประมาณ 200 บาท ต่อ LoRA