LLM Course documentation
Fine-tuning, Check!
0. Configurare
1. Modele Transformer
2. Folosirea 🤗 Transformers
3. Fine-tuning unui model preantrenat
IntroducereProcesarea datelorFine-tuningul unui model cu Trainer API sau KerasUn antrenament completFine-tuning, verificare!Quiz la final de capitol
4. Partajarea modelelor și a tokenizatoarelor
5. Biblioteca 🤗 Datasets
6. Biblioteca 🤗 Tokenizers
7. Sarcini clasice NLP
8. Cum să ceri ajutor
9. Construirea și partajarea demo-urilor
10. Curățați seturi de date de înaltă calitate
11. Fine-tuning pentru modele mari de limbaj
12. Construiește Modele de Raționament new
Evenimente Curs
Fine-tuning, Check!
A fost distractiv! În primele două capitole ați învățat despre modele și tokenizere, iar acum știți cum să le ajustați fin (fine-tune) pentru propriile date. Pentru a recapitula, în acest capitol ați:
- Ați învățat despre dataset-urile din Hub
- Ați învățat cum să încărcați și să preprocessați dataset-uri, inclusiv folosind împachetare dinamică (dynamic padding) și colatori
- Ați implementat propria ajustare fină (fine-tuning) și evaluare a unui model
- Ați implementat o buclă de antrenament la un nivel mai scăzut (lower-level)
- Ați folosit 🤗 Accelerate pentru a adapta cu ușurință bucla voastră de antrenament, astfel încât să funcționeze pentru mai multe GPU-uri sau TPU-uri