Online - Schulung  /  20. November 2024, 27. März 2025 / 25. Juni 2025 / Dauer: 4,5 Stunden

Kompakteinstieg: In-house Bereitstellung und Betrieb von generativen KI-Modellen

Sie erlernen in diesem Modul wie Sie generative KI-Modelle verschiedener Größe auf Maschinen vom eigenen Laptop bis hin zu leistungsfähigen GPU-Rechnern bereitstellen. Neben den technischen Voraussetzungen werden auch die organisatorischen Aspekte thematisiert, die für eine zweckmäßige und kosten-effiziente Bereitstellung im Unternehmens-Kontext erforderlich sind. Hierbei profitieren Sie von unserer langjährigen Projekterfahrung in internen und Kundenprojekten. Im ersten Teil des Moduls werden die notwendigen Hintergründe vermittelt und Entscheidungshilfen im Hinblick auf den in-house (on-premises) Betrieb von Sprachmodellen im Unternehmen gegeben. Im zweiten Teil wird in Form einer Hands-on Session das zugehörige technische Know-how vermittelt.

 

Jetzt zur Anmeldung

 

Ask the Expert

Mit der Buchung dieses Kurses erhalten Sie die exklusive Möglichkeit, innerhalb von zwei Monaten nach Abschluss des Kurses ein 30-minütiges persönliches Fragegespräch mit einem unserer Expert*innen zu buchen. In diesem individuellen Gespräch können Sie Ihre Fragen vertiefen, spezifische Anwendungsfälle besprechen und einen tieferen Einblick in die Kursthemen erhalten. Nutzen Sie diese Gelegenheit, um Ihr Wissen zu festigen und maßgeschneiderte Tipps für Ihre Projekte oder Ihren Arbeitsbereich zu erhalten.

Zielgruppe

Software-Entwickler*innen, ML Engineers, IT-Fachkräfte, Projektverantwortliche

Vorkenntnisse

Grundkenntnisse zu großen Sprachmodellen, z.B. durch Nutzung von Services von OpenAI, Aleph Alpha, Mistral AI oder durch Besuch einer unserer Prompting-Schulungen

Vorkenntnisse im Umgang mit Virtualisierungs-Software wie Docker und Grundkenntnisse über APIs sind für die Hands-on Session hilfreich, aber nicht zwingend erforderlich.

Nach Besuch dieser Schulung können Sie..

  • ein kleines Sprachmodell lokal auf Ihrem eigenen Laptop bereitstellen und ansprechen
  • auf einem GPU-Rechner ein großes Sprachmodell bereitstellen und über standardisierte Schnittstellen ansteuern
  • die wesentlichen Zusammenhänge zwischen Modellleistung, -größe und den verwendeten Infrastruktur-Komponenten nennen und erklären

Der in der Schulung verwendete Code steht den Teilnehmenden während und im Anschluss an die Schulung zur Verfügung.

 

Bitte nutzen Sie unsere FAQ für weitere organisatorische Fragen.

 

Jetzt Anmelden