Cursusaanbod

Introductie tot DeepSeek LLM Fine-Tuning

  • Overzicht van DeepSeek modellen, e.g. DeepSeek-R1 en DeepSeek-V3
  • De behoefte aan het fijn afstemmen van LLM's begrijpen
  • Vergelijking van fine-tuning en prompt engineering

De dataset voorbereiden voor Fine-Tuning

  • Domeinspecifieke datasets samenstellen
  • Gegevensvoorverwerking en opschoningstechnieken
  • Tokenization en datasetformatteren voor DeepSeek LLM

De Fine-Tuning omgeving opzetten

  • GPU en TPU-versnelling configureren
  • Hugging Face Transformers opzetten met DeepSeek LLM
  • Hyperparameters begrijpen voor fine-tunen

Fine-Tuning DeepSeek LLM implementeren

  • Implementeren van supervisie-voorbehoeven
  • LoRA (Low-Rank Adaptation) en PEFT (Parameter-Efficient Fine-Tuning) gebruiken
  • Gedistribueerde fine-tuning uitvoeren voor grootschalige datasets

Evalueren en optimaliseren van fijngestemde modellen

  • De modelprestaties beoordelen met evaluatiemetingen
  • Omgaan met overfitting en onderfitting
  • Inference-snelheid en modelefficiëntie optimaliseren

Fijn afgestemde DeepSeek modellen inzetten

  • Modellen verpakken voor API-implementatie
  • Fijn-afgestemde modellen integreren in applicaties
  • Implementaties schalen met cloud- en edge-computing

Echte Use Cases en toepassingen

  • Fijn afgestemde LLM's voor financiën, gezondheidszorg en klantenservice
  • Case studies van industrie-toepassingen
  • Ethische overwegingen in domeinspecifieke AI-modellen

Samenvatting en volgende stappen

Vereisten

  • Ervaring met machine learning en deep learning frameworks
  • Bekendheid met transformers en large language models (LLMs)
  • Begrip van gegevensvoorbereiding en modeltrainingsmethoden

Publiek

  • AI-onderzoekers die de LLM-fijnstemming verkennen
  • Machine learning engineers die op maat gemaakte AI-modellen ontwikkelen
  • Geavanceerde ontwikkelaars die AI-gedreven oplossingen implementeren
 21 Uren

Aantal deelnemers


Prijs Per Deelnemer

Voorlopige Aankomende Cursussen

Gerelateerde categorieën