KI auf den Punkt gebracht

Die Technologie hinter der ki

Künstliche Intelligenz besteht aus einer Vielzahl technologischer Komponenten und Prinzipien. Im Folgenden geben wir einen kompakten Überblick über die wichtigsten Konzepte, Architekturen und Methoden, die moderne KI-Systeme ermöglichen. Von Sprachmodellen über Erklärbarkeit bis hin zu Datenschutz-Aspekten.

Die nachstehende Übersicht bietet einen Einstieg, die Entwicklung im Bereich KI ist dynamisch und ständig im Wandel. Sie möchten herausfinden, wie diese Technologien in Ihrer Organisation genutzt werden können? Sprechen Sie mit uns.

Grundlagen

Moderne KI basiert auf verschiedenen Technologien. In den folgenden Abschnitten stellen wir die wichtigsten Konzepte vor.

Generative AI

Generative AI beschreibt eine neue Form der künstlichen Intelligenz (KI), die Inhalte nicht nur analysieren, sondern selbstständig erzeugen kann sei es Text, Bilder, Code oder strukturierte Daten. Es ist ein Teilbereich der KI, im Zentrum stehen dabei Transformer-Modelle, insbesondere Large Language Models (LLMs) wie OpenAI’s GPT, Googles Gemini oder Meta’s LLaMA.

 

Diese Modelle sind auf Milliarden von Texten trainiert und nutzen komplexe neuronale Netzwerke mit Milliarden von Parametern, um Sprache, Struktur und Bedeutung zu verarbeiten. Sie erzeugen auf Basis eines eingegebenen Prompts neue, kontextuell passende Inhalte – seien es Texte, Programmcode, semantisch strukturierte Daten oder sogar multimodale Inhalte wie Bilder und Sprache. Ein technisches Kernkonzept dabei ist das unsupervised learning bzw. self-supervised learning: Das Modell lernt aus großen Mengen an Daten ohne explizite Labels und optimiert sich anhand der Wahrscheinlichkeiten, mit denen Wörter oder Token aufeinander folgen.

 

Unsere Kompetenz liegt nicht nur im Verständnis dieser Technologien, sondern in der Fähigkeit, sie gezielt in Businessprozesse zu integrieren – ob für Automatisierung, Entscheidungsunterstützung oder neue digitale Produkte. Dabei achten wir auch auf Themen wie Datensicherheit, Modellkontrolle, Governance und Responsible AI.

Large Language Model (LLM)

Das sind KI-Modelle, die auf der Transformer-Architektur basieren und in der Lage sind, natürliche Sprache in hoher Qualität zu verstehen, verarbeiten und generieren. Bekannte Beispiele sind GPT-4 (OpenAI), Claude (Anthropic), LLaMA (Meta) oder Gemini (Google).
LLMs werden auf gewaltigen Datenmengen trainiert und lernen dabei sprachliche Muster, semantische Zusammenhänge und kontextuelle Bedeutungen. Das Resultat sind Modelle mit Milliarden von Parametern, die sehr präzise und menschenähnliche Antworten liefern können – auch zu komplexen Fragestellungen.

 

Technische Merkmale

  • Transformer-Architektur: Grundlage für das Verständnis von Wortzusammenhängen über grosse Textbereiche hinweg
  • Self-Supervised Learning: Das Modell lernt durch das Vorhersagen von Tokens im Kontext – ohne manuelle Label
  • Generatives Verhalten: Die Modelle erstellen neuen Text Token für Token, basierend auf dem Prompt
  • Fine-Tuning: Anpassung auf spezifische Aufgaben mit minimalem Trainingsaufwand oder gezieltem Tuning

 

Wir entwickeln Lösungen mit marktführenden und Open-Source-LLMs und integrieren sie in die bestehende IT-Landschaft auf Azure OpenAI. Je nach Use Case kombinieren wir LLMs mit:

 

  • Retrieval-Augmented Generation (RAG)
  • Prompt Engineering & System Prompts
  • Custom Embeddings & Semantische Suche
  • Sicherheit, Access Control und Auditability

 

Durch unser Know-how bringen wir LLMs aus dem Labor in die Realität – als Skalierbare, sichere und performante Komponenten in euren Geschäftsprozesse.

Retrieval-Augmented Generation (RAG)

RAG ein hybrider Ansatz, bei dem ein LLM mit einem externen Wissensspeicher kombiniert wird. Ziel: das Modell kann bei jedem Prompt relevante Informationen aus Dokumenten, Datenbanken oder APIs abrufen, bevor es eine Antwort generiert.
Statt sich rein auf das interne (und begrenzte) Trainingswissen des LLM zu verlassen, wird das Modell mit aktuellen, unternehmensspezifischen oder domänenspezifischen Informationen versorgt, was die Genauigkeit, Relevanz und Vertrauenswürdigkeit der generierten Antworten massiv erhöht.

 

  • Embedding & Indexing: Unstrukturierte Inhalte wie PDF, werden in Vektor-Embeddings umgewandelt und in einem Vektorspeicher wie zum Beispiel Weaviate, Pinecone, FAISS, Azure Cognitive Search gespeichert.
  • Retrieval zur Laufzeit: Beim Prompt wird ein semantischer Suchprozess gestartet. Die relevantesten Dokumenten-Snippets werden retrieved und gemeinsam mit dem User-Prompt an das LLM übergeben.
  • Generierung: Das LLM generiert nun eine Antwort basierend auf dem Prompt und den abgerufenen Informationen – das Ergebnis ist präziser, aktueller und nachvollziehbarer.

 

Vorteile von RAG

  • Aktualität: Inhalte müssen nicht im Modelltraining enthalten sein.
  • Kosteneffizienz: Kein Fine-Tuning nötig – stattdessen gezielte Abfrage externer Quellen.
    Explainability: Quellen können mitgeliefert werden („Grounding“).
  • Flexibilität: Integration von beliebigen Datenquellen – lokal oder in der Cloud.

 

Wir entwickeln RAG-basierte Systeme

  • Dokumenten- und Vertragsanalyse
  • Enterprise-Knowledge-Chatbots
  • Interaktive Assistenten für Kundenservice oder HR
  • Compliance-Check-Tools mit Quellnachweis

 

Dabei setzen wir auf bewährte Komponenten wie LangChain, Semantic Kernel oder eigene Pipelines mit Open-Source-LLMs – und achten konsequent auf Datenschutz, Skalierbarkeit und Relevanz im Businesskontext.

Azure OpenAI im Kontext zum Datenschutz

Der Azure OpenAI Service vereint die Leistungsfähigkeit von KI-Modellen mit den höchsten Standards an Datenschutz, Sicherheit und Compliance – bereitgestellt über die Infrastruktur von Microsoft Azure.

 

  • Daten bleiben in der Azure-Region seiner Wahl, für Kunden in der Schweiz ist die Nutzung über Azure-Regionen in Schweiz Nord oder Schweiz West möglich. Die Datenverarbeitung erfolgt damit ausschliesslich innerhalb der Schweiz oder der EU, sofern gewünscht
  • Keine Modellweitergabe – keine Trainingsdaten Alle Prompts und Ausgaben (Antworten) werden nicht für das Training der Modelle verwendet. Die Daten verlassen nie die eigene Instanz und werden nicht durch OpenAI selbst gespeichert oder analysiert
  • Microsoft Azure erfüllt alle relevanten Compliance-Anforderungen, darunter:
    • DSGVO (EU & CH-konform)
    • ISO/IEC 27001, 27017, 27018
    • SOC 1, SOC 2, SOC 3
    • CSA STAR, ENS High 


Azure OpenAI kann in bestehende Azure-Dienste integriert werden – inklusive Azure Key Vault, Azure Private Endpoints, Virtual Networks und Role-Based Access Control (RBAC). So bleibt die gesamte Kommunikation verschlüsselt, nachvollziehbar und kontrolliert zugänglich.

Explainability (XAI)

Das sind Methoden und Ansätze, die es ermöglichen, nachvollziehbar zu machen, wie eine KI zu ihren Antworten kommt. Gerade bei komplexen Modellen wieLLMs oder Deep-Learning-Netzen ist Transparenz zentral – insbesondere in regulierten Branchen wie Finanzen, Gesundheitswesen oder öffentlicher Verwaltung.

 

  • Damit wird Vertrauen geschaffen: Anwender und Entscheider wollen verstehen, wie ein Modell arbeitet – besonders wenn es geschäftskritische Entscheidungen unterstützt
  • Regulatorische Vorgaben erlangen häufig nachvollziehbare Entscheidungsprozesse
  • Transparenz hilft beim Debugging, der Qualitätskontrolle und beim Vermeiden von Bias
  • Wer nachvollziehen kann, warum eine Antwort kommt, akzeptiert sie eher

 

Technische Methoden der XAI

  • Zeigt auf, welche Eingabefaktoren am stärksten zur Entscheidung beigetragen haben mittels SHAP oder LIME
  • Bei LLMs lässt sich analysieren, auf welche Wörter das Modell besonders geachtet hat
  • Visualisierung relevanter Bereiche in Bildern oder Texten
  • Komplexe Modelle werden durch vereinfachte, interpretierbare Modelle nachgebildet
  • LLMs selbst können genutzt werden, um ihre Entscheidungen in verständlicher Sprache zu begründen
  • Tabellen mit den angezogenen Attributen können für den Nutzer angezeigt werden, damit er direkt die Quelldaten sieht

Reinforcement Learning (RL)

Das ist eine Methode, wo ein Agent durch Ausprobieren lernt, möglichst gute Entscheidungen zu treffen. Für jede einzelne Aktion erhält der Agent eine Reaktion zurück. Gute Entscheidungen mittels Belohnung, schlechte mittels Strafe. So entwickelt sich das System stetig weiter und entwickelt eine Strategie, wie es langfristig den besten Nutzen generiert. 

 

Das System wird zu beginn in einer Simulationsumgebung trainiert, bis es in einer zweiten Phase produktiv gesetzt wird. Auch in der Produktion entwickelt sich das System laufend weiter und kann sich neuen Gegebenheiten anpassen. 

 

Belohnungen und Bestrafungen sind nicht willkürlich, sondern werden so definiert, dass sie das gewünschte Verhalten fördern. Das Ziel des Agenten ist es, über viele Entscheidungen hinweg die Summe aller Belohnungen zu maximieren – also langfristig die beste Strategie zu finden.