LLM Course documentation
บทนำ
0. ติดตั้งโปรแกรม
1. โมเดล Transformer
2. การใช้งาน 🤗 Transformers
3. การ fine-tune โมเดลที่ผ่านการเทรนมาแล้ว (pretrained model)
บทนำการประมวลผลข้อมูลการ Fine-tune โมเดลด้วย Trainer API หรือ Kerasการเทรนโมเดลฉบับสมบูรณ์Fine-tune โมเดลสำเร็จแล้ว!คำถามท้ายบท
4. การแบ่งปันโมเดลและ tokenizers
6. ตัวตัดคำจาก 🤗 Tokenizers library
บทนำ
ใน Chapter 2 เราได้เรียนรู้วิธีการใช้ tokenizers และโมเดลที่ผ่านการเทรนมาแล้ว (pretrained models) ในการทำนาย แต่ถ้าเราต้องการจะใช้ dataset ของเราเองในการ fine-tune โมเดลล่ะ? นั่นคือหัวข้อของบทนี้เลย! คุณจะได้เรียนรู้:
- วิธีการเตรียม dataset ขนาดใหญ่จาก Hub
- วิธีการใช้ high-level
TrainerAPI ในการ fine-tune โมเดล - วิธีการใช้ training loop ที่เขียนขึ้นเอง (custom training loop)
- วิธีการใช้ประโยชน์จาก 🤗 Accelerate library ในการรัน custom training loop บน distributed setup แบบต่าง ๆ
ถ้าคุณต้องการจะ upload trained checkpoints ของคุณขึ้น Hugging Face Hub คุณจะต้องมีบัญชี huggingface.co ก่อน : create an account
Update on GitHub