AI/AI Toolkit

Dieser Lernpfad führt Sie systematisch in die Entwicklung intelligenter Anwendungen mit dem AI Toolkit für Visual Studio Code ein – von den Grundlagen bis hin zur fortgeschrittenen Modellanpassung.

Modul 1: Einführung und Installation

  • Ziel: Grundlegendes Verständnis des AI Toolkits entwickeln und die Entwicklungsumgebung vorbereiten.
  • Inhalte:
    • Überblick über das AI Toolkit: Ein umfassendes Tool für Entwickler und KI-Ingenieure zum Erstellen, Testen und Bereitstellen intelligenter Anwendungen.
    • Installation und Setup via Visual Studio Marketplace.
    • Navigation in den Hauptbereichen: My Resources, Model Tools, Agent and Workflow Tools und MCP Workflow.
  • Ressource: Overview

Modul 2: Modelle entdecken und verwalten (Model Catalog)

  • Ziel: Passende KI-Modelle finden, vergleichen und in VS Code einbinden.
  • Inhalte:
    • Erkundung des Model Catalogs mit Modellen von GitHub, ONNX, Ollama, OpenAI, Anthropic und Google.
    • Modelle für die lokale Ausführung oder Cloud-Inferenz einrichten.
    • Einbindung lokaler Ollama-Modelle und Custom ONNX-Modelle.
  • Ressource: Models

Modul 3: Experimentieren im Playground

  • Ziel: Modelle interaktiv testen und Prompt-Engineering-Fähigkeiten ausbauen.
  • Inhalte:
    • Nutzung des Model Playgrounds zum systematischen Testen von Modellen.
    • Anpassung von System-Prompts, Chat-Prompts und Inferenz-Parametern.
    • Vergleich verschiedener Modellantworten und Auswertung der Ressourcenauslastung.
    • Arbeit mit multimodalen Modellen (z. B. File-Uploads).
  • Ressource: Playground

Modul 4: Agentenbau und Workflow-Integration

  • Ziel: Intelligente Agenten entwickeln und externe Tools anbinden.
  • Inhalte:
    • Nutzung des Agent Builders zum Erstellen und Bereitstellen von Agenten.
    • Verständnis und Integration von Model Context Protocol (MCP) Servern, um Agenten Werkzeuge an die Hand zu geben (z. B. VS Code-Befehle oder eigene Datenbanken).
    • Implementierung von Function Calling in Agenten.
  • Ressource: Agent Builder

Modul 5: Prompts und Modelle skalierbar evaluieren

  • Ziel: Qualität und Zuverlässigkeit der generierten KI-Antworten messen.
  • Inhalte:
    • Evaluierung von Modellen, Prompts und Agenten gegen Ground-Truth-Daten.
    • Nutzung von eingebauten Evaluatoren für Metriken wie F1-Score, Relevanz, Kohärenz und Ähnlichkeit.
    • Entwicklung eigener LLM-basierter und Code-basierter Evaluatoren.
    • Massentests (Bulk Run) durchführen zur schnellen iterativen Verbesserung.
  • Ressource: Evaluation

Modul 6: Erweitert – Fine-Tuning und Konvertierung

  • Ziel: Eigene, domänenspezifische Modelle trainieren und für Zielplattformen optimieren.
  • Inhalte:
    • Vorbereitung von Datensätzen und Durchführung von Fine-Tuning (z. B. LoRA Fine-Tuning für das Phi Silica-Modell).
    • Festlegen und Anpassen von Hyperparametern für das Training.
    • Nutzung der Modellkonvertierung, um Modelle auf der lokalen Windows-Plattform zu quantisieren und zu optimieren.
  • Ressource: Fine-tuning

Kategorien: Keine
Zuletzt aktualisiert am 03.03.2026 12:30