marah.cloud

Microservices vs. Monolith

Monolith

ein grosses System

bei Änderungen von Details wird die ganze Architektur bearbeit und zu Verfügung gestellt

schwierig zu skalieren

schwer wartbar, da hoch komplex

viele, auch indirekte Abhängigkeiten

versagt eine Komponente, versagt die gesamte Anwendung

Frontend- und Server-Logik basiert auf der gleichen, massiven Codebasis

Microservices vs. Monolith

Microservices

kleine, entkoppelte Services

Änderungen betreffen nur einen überschaubaren Teil

einfaches, gezieltes Skalieren von einzelnen Services

schnellere (Teil-) Updates möglich

Technologieunabhängig

aber: neue Komplexität in der Verwaltung der Services

Container

die Anwendung wird von ihrer Ausführungsumgebung abstrahiert, unabhängig von der Zielumgebung.

egal, ob Rechenzentrum, Cloud, on premise, oder Laptop

konsistente Umgebung

Virtualisierung auf Betriebssystemebene

Isolation (Sandbox)

in Versionskontrolle integrierbar

beliebtes Format: docker

Automatische Updates und Rollbacks

kubernetes

Monitoring des Dienstestatus

Autoscaling von Diensten und Servern

Deklarative Verwaltung

Überall bereitstellbar, bis hin zu IoT

node 1

kubernetes

node 2

pod 1

pod 2

pod 3

pod 1

pod 1

Conzept16

MS-SQL

REST-API

mongoDB

marahQL

Microservices

Client

Microservices

Authentifizierung

Auslieferung

Tourenplanung

Inventur

Datenaustausch / Kommunikation

. . .

LLM

Model

GPT

Dimensions

Embedding

Completions

RAG

Reasoning

Window

Hallucinations

Tooling

Agents

MCP

KI Begriffe

Ein LLM (Large Language Model) ist ein auf riesigen Textmengen trainiertes Modell, das basierend auf mathematischen Mustern das jeweils wahrscheinlichste nächste Wort vorhersagt. Es „denkt" dabei nicht wirklich, sondern generiert passende Wortfolgen aus den gelernten Daten – „groß" ist es wegen der enormen Anzahl an Neuronen und Verbindungen.

 

GPT (Generative Pre-trained Transformer) ist ein spezifisches Sprachmodell, das neuen Text erzeugen kann, vorab auf riesigen Datenmengen trainiert wurde und dadurch bereits ein breites Sprach- und Wissensverständnis besitzt. Es basiert auf der Transformer-Architektur, die besonders gut langfristige Zusammenhänge in Texten erfasst und dadurch stimmige, kontextbezogene Antworten ermöglicht.

 

 

Embeddings wandeln Wörter, Sätze oder Dokumente in Zahlenpunkte in einem mehrdimensionalen Raum um, damit Computer Ähnlichkeiten zwischen Texten berechnen können. Ergänzend dazu ist eine Completion die vom Modell generierte Antwort auf einen Prompt, und das Context Window beschreibt die maximale Textmenge, die ein LLM bei der Antwortgenerierung gleichzeitig berücksichtigen kann.

 

Reasoning bezeichnet die Fähigkeit, logische Schlüsse zu ziehen, Probleme zu lösen und kausale Zusammenhänge zu verstehen – LLMs besitzen diese Fähigkeit jedoch nicht im menschlichen Sinne, sondern erkennen nur gelernte Argumentationsmuster aus ihren Trainingsdaten. Bei völlig neuen oder abstrakten Problemen stoßen sie schnell an ihre Grenzen, da sie echtes Denken nur simulieren, statt tatsächlich neue Schlussfolgerungen zu ziehen.

Halluzinationen bezeichnen Situationen, in denen ein LLM falsche oder erfundene Informationen überzeugend als Fakten präsentiert – etwa wenn die Antwort nicht in den Trainingsdaten war, diese widersprüchlich sind oder der Kontext verloren geht. Da das Modell nur Wortwahrscheinlichkeiten kennt und keine echte Wahrheitsprüfung vornehmen kann, generiert es in solchen Fällen eine plausibel klingende, aber inhaltlich falsche Fortsetzung.

 

RAG (Retrieval Augmented Generation) kombiniert ein LLM mit einem Suchsystem, das zunächst relevante Informationen aus einer aktuellen Datenbank abruft und zusammen mit der Frage an das Modell weitergibt. Das LLM generiert dann auf dieser Basis  eine präzisere, aktuellere und faktisch korrektere Antwort.

Tooling befähigt ein LLM, externe Werkzeuge oder APIs zu identifizieren, aufzurufen und deren Ergebnisse zu interpretieren, indem es die nötigen Anfragen samt Parametern selbstständig generiert oder fehlende Angaben beim Nutzer erfragt. Dadurch werden LLMs von reinen Textgeneratoren zu intelligenten Agenten, die aktiv in der digitalen Welt agieren und komplexe Aufgaben lösen können.

 

MCP (Model Context Protocol) ist eine standardisierte Schnittstelle, über die KI-Modelle sicher und einheitlich mit externen Programmen und Datenquellen wie SharePoint, Teams, Outlook, Jira oder marah kommunizieren können. Ein Agent wiederum ist ein Programm, das Aufgaben eigenständig versteht, plant und ausführt – und dabei LLM, Reasoning, Tooling, RAG und MCP zu einem Gesamtsystem kombiniert.

KI

marah

Benutzer

Hallo KI, hier sind meine Fähigkeiten:

- ich kann prüfen, ob ein Auftrag eingeplant wurde,  

  dazu brauche ich die  Auftragsnummer

​- ich kann prüfen ob Rechnungen bezahlt sind 

- etc ...

Hallo kiwi, wann wird mein Auftrag geliefert?

Hallo marah, prüfe ob Auftrag 4711 schon eingeplant ist

Hallo Datenbank, gib mir Daten zum Auftrag 4711

Hallo Benutzer, dein Auftrag wird am 25.11. geliefert

Hallo Benutzer, wie ist die Auftragsnummer?

Hallo kiwi sie ist 4711

...

kiwi

kiwi docs 

kiwi chat

Firmen Wissen

completions API

completions API

completions API

embedding API

tools

RAG

kiwi

Danke!

marah.cloud + kiwi

By Thomas Sauter

Private

marah.cloud + kiwi