marah.cloud
Microservices vs. Monolith
Monolith
ein grosses System
bei Änderungen von Details wird die ganze Architektur bearbeit und zu Verfügung gestellt
schwierig zu skalieren
schwer wartbar, da hoch komplex
viele, auch indirekte Abhängigkeiten
versagt eine Komponente, versagt die gesamte Anwendung
Frontend- und Server-Logik basiert auf der gleichen, massiven Codebasis
Microservices vs. Monolith
Microservices
kleine, entkoppelte Services
Änderungen betreffen nur einen überschaubaren Teil
einfaches, gezieltes Skalieren von einzelnen Services
schnellere (Teil-) Updates möglich
Technologieunabhängig
aber: neue Komplexität in der Verwaltung der Services
Container
die Anwendung wird von ihrer Ausführungsumgebung abstrahiert, unabhängig von der Zielumgebung.
egal, ob Rechenzentrum, Cloud, on premise, oder Laptop
konsistente Umgebung
Virtualisierung auf Betriebssystemebene
Isolation (Sandbox)
in Versionskontrolle integrierbar
beliebtes Format: docker
Automatische Updates und Rollbacks
kubernetes
Monitoring des Dienstestatus
Autoscaling von Diensten und Servern
Deklarative Verwaltung
Überall bereitstellbar, bis hin zu IoT
node 1
kubernetes
node 2
pod 1
pod 2
pod 3
pod 1
pod 1
Conzept16
MS-SQL
REST-API
mongoDB
marahQL
Microservices
Client
Microservices
Authentifizierung
Auslieferung
Tourenplanung
Inventur
Datenaustausch / Kommunikation
. . .
LLM
Model
GPT
Dimensions
Embedding
Completions
RAG
Reasoning
Window
Hallucinations
Tooling
Agents
MCP
KI Begriffe
Ein LLM (Large Language Model) ist ein auf riesigen Textmengen trainiertes Modell, das basierend auf mathematischen Mustern das jeweils wahrscheinlichste nächste Wort vorhersagt. Es „denkt" dabei nicht wirklich, sondern generiert passende Wortfolgen aus den gelernten Daten – „groß" ist es wegen der enormen Anzahl an Neuronen und Verbindungen.
GPT (Generative Pre-trained Transformer) ist ein spezifisches Sprachmodell, das neuen Text erzeugen kann, vorab auf riesigen Datenmengen trainiert wurde und dadurch bereits ein breites Sprach- und Wissensverständnis besitzt. Es basiert auf der Transformer-Architektur, die besonders gut langfristige Zusammenhänge in Texten erfasst und dadurch stimmige, kontextbezogene Antworten ermöglicht.
Embeddings wandeln Wörter, Sätze oder Dokumente in Zahlenpunkte in einem mehrdimensionalen Raum um, damit Computer Ähnlichkeiten zwischen Texten berechnen können. Ergänzend dazu ist eine Completion die vom Modell generierte Antwort auf einen Prompt, und das Context Window beschreibt die maximale Textmenge, die ein LLM bei der Antwortgenerierung gleichzeitig berücksichtigen kann.
Reasoning bezeichnet die Fähigkeit, logische Schlüsse zu ziehen, Probleme zu lösen und kausale Zusammenhänge zu verstehen – LLMs besitzen diese Fähigkeit jedoch nicht im menschlichen Sinne, sondern erkennen nur gelernte Argumentationsmuster aus ihren Trainingsdaten. Bei völlig neuen oder abstrakten Problemen stoßen sie schnell an ihre Grenzen, da sie echtes Denken nur simulieren, statt tatsächlich neue Schlussfolgerungen zu ziehen.
Halluzinationen bezeichnen Situationen, in denen ein LLM falsche oder erfundene Informationen überzeugend als Fakten präsentiert – etwa wenn die Antwort nicht in den Trainingsdaten war, diese widersprüchlich sind oder der Kontext verloren geht. Da das Modell nur Wortwahrscheinlichkeiten kennt und keine echte Wahrheitsprüfung vornehmen kann, generiert es in solchen Fällen eine plausibel klingende, aber inhaltlich falsche Fortsetzung.
RAG (Retrieval Augmented Generation) kombiniert ein LLM mit einem Suchsystem, das zunächst relevante Informationen aus einer aktuellen Datenbank abruft und zusammen mit der Frage an das Modell weitergibt. Das LLM generiert dann auf dieser Basis eine präzisere, aktuellere und faktisch korrektere Antwort.
Tooling befähigt ein LLM, externe Werkzeuge oder APIs zu identifizieren, aufzurufen und deren Ergebnisse zu interpretieren, indem es die nötigen Anfragen samt Parametern selbstständig generiert oder fehlende Angaben beim Nutzer erfragt. Dadurch werden LLMs von reinen Textgeneratoren zu intelligenten Agenten, die aktiv in der digitalen Welt agieren und komplexe Aufgaben lösen können.
MCP (Model Context Protocol) ist eine standardisierte Schnittstelle, über die KI-Modelle sicher und einheitlich mit externen Programmen und Datenquellen wie SharePoint, Teams, Outlook, Jira oder marah kommunizieren können. Ein Agent wiederum ist ein Programm, das Aufgaben eigenständig versteht, plant und ausführt – und dabei LLM, Reasoning, Tooling, RAG und MCP zu einem Gesamtsystem kombiniert.
KI
marah
Benutzer
Hallo KI, hier sind meine Fähigkeiten:
- ich kann prüfen, ob ein Auftrag eingeplant wurde,
dazu brauche ich die Auftragsnummer
- ich kann prüfen ob Rechnungen bezahlt sind
- etc ...
Hallo kiwi, wann wird mein Auftrag geliefert?
Hallo marah, prüfe ob Auftrag 4711 schon eingeplant ist
Hallo Datenbank, gib mir Daten zum Auftrag 4711
Hallo Benutzer, dein Auftrag wird am 25.11. geliefert
Hallo Benutzer, wie ist die Auftragsnummer?
Hallo kiwi sie ist 4711
...
kiwi
kiwi docs
kiwi chat
Firmen Wissen
completions API
completions API
completions API
embedding API
tools
RAG
kiwi
Danke!
marah.cloud + kiwi
By Thomas Sauter