LLM vs Ops

How to provide AI to your colleagues

Large Language Models

"What ChatGPT does"

  • Generate Texts
  • Summarization
  • Classification
  • Question Answering

Actual plan

  • Follow Instructions
  • Reasoning
  • Decision making
  • evaluate Results

Emergent...

How to use LLMs

How do i write an LLM Solution?

THE LLM Stack

  • Mostly Web, API,WebSockets

  • Streaming

  • Python/NodeJS

  • Tasks 

    • Prompt Generation

    • Authentification

    • Input Filtering

    • PII Scrubbing/Replacing

  • Existing Operations

Website/Chatbot

  • Just Inference, no training

  • Selection of the right model(s)

  • Text Generation

  • Token Streaming

  • Watermarking

  • "pip install" APIs

Large Language Model

Factor Relevance
Speed Responsivity token per second
Costs Costs  dollar /1000 Token
Instruction Following How well does it follow instructions?
Reasoning How reliable does it understand logical dependencies
Size What does the Model know /size
Context Size How large is the working input?

Attributes of LLMs

GPT-3.5-Turbo

Context-Size 4k-16k

500.000 token/$

GTP-4

Context-Size 4k-32k

17.000 token/$

Strategie

Default zu GPT-3.5-turbo

Bei komplexen Tasks GPT-4

OpenAI LLMS

Available as OpenAI-Service @ Azure

Claude Instant

Context-Size 100k!

180.000 token/$

Claude v1

Context-Size 100k!

28.000 token/$

Strategie

Default zu Instant

Bei komplexen Tasks V1

Antrophic LLMS

Available as BEDROCK-Service @ AWS

Google PALM2

Context-Size 8k

Pricing ?

Cohere CORAL

Context-Size 2k

250.000 token/$

AI21 J1

Focus on training

Multiple Models available

Focus on training

Multiple Models available

Additional LLMs

Since there is a lot of VC involved, one new multimillion startup per month

Context-Size 8k

66.666 token/$

LLAMA-Family

Falcon

Mosaic MPT

Completely free

Small

Completely free

A bit slow

Emirates financed open source Model

Open Source LLMS

"Leaked" at Meta

Very fast and innovative community

Improved instructions, quality, context length

Redpajama/OpenLLama-Efforts

Finetuning++

DEMO

Oder warum viele AI-Experten über "Oobabooga" reden...

Training

... Deshalb ist meist Finetuning gemeint, wenn von Training geredet wird ...

Fine-Tuning

Dank der OpenSource-Community inzwischen auf Consumer-Hardware möglich.

Fine-Tuning

  • Prompting statt Fine-Tuning

  • Hochdimensional semantisch abgelegt

  • Suche über Next-Neighbor

  • Auswahl relevanter Information geschieht im Prompt

VEkTORDatenbank

Vector-DBs

Vector-DBs

OpenAI-Embeddings zB 1526 Dimensionen

Vector-DBs

Embeddings wandeln von Text zu Vektoren. Sie können lokal oder remote passieren.

Vector-DBs

OpenSource, SAAS, remote, lokal, Cloud, Kubernetes, hybrid, mit Fulltext uvm - es gibt heute Auswahl.

Vector-DBs

Die ganzen "Talk to with your documents", und praktisch alle QA-Lösungen beruhen auf Vektordatenbanken.

Training, Finetuning, VectorDB

Tra

Bei bis zu 6-stelliger Anzahl von Informationen, die integriert oder nachgeschlagen werden sollen.

Finetuning

Bei umfangreichen, spezialisierten Daten - firmenintern oder extern.

Training

Selbst Foundation-Anbieter sein und sehr umfangreiches Wissen mitbringen - wie Bloomberg AI auf Basis von Bloom

Prompting

Technische Prompts, nicht Content und Marketing-Magie :-)

Text-Generation möchte nur statistisch sinnvoll Text fortsetzen.

Halluzinationen

Statistisch korrekt, sachlich falsch.

Was kann man da machen?

Chain of Thought Prompting

Transformer stellen über Attention Worte in Bezug zueinander. Das kann man ausnutzen, indem man explizit wird und damit den Möglichkeitsraum reduziert.

"Think Step by Step"

Few Shot Prompting

A "whatpu" is a small, furry animal native to Tanzania. An example of a sentence that uses the word whatpu is:
We were traveling in Africa and we saw these very cute whatpus.

To do a "farduddle" means to jump up and down really fast. An example of a sentence that uses the word farduddle is:

Prompt Engineering

Teenage Sex Level: Alle reden darüber, die wenigsten machen es, und dann nur schlecht.

Trial and Error

Der Prompt hat einmal funktioniert, also wird er deployed. Bei Fehlern wird korrigiert.

Tracking

Prompts und Antworten werden gespeichert und kontrolliert.

RLHF

Der Nutzer gibt Feedback über das Ergebnis, falsch oder schlecht markierte Ergebnisse werden kontrolliert und als Regression genutzt.

Prompt Injection

Indirect Prompt Injection

Prompt Leaking

  • IDS - wiederkennen bekannter Angriffe über

    • Heuristik

    • LLM-Validierung

    • Vektordatenbank

  • Canarys zur Leaking Detection.

Rebuff.io

  • Security über durch LLM ausgeführte DSL

  • Einbettung in LangChain

  • Beschränkungen für 

    • Themen

    • Safety

    • Security

NVIDIA NeMo guardrails

Observability

"Mit der Einführung von OpenAI Functions
hat sich die Tokenzahl verfünffacht."

AIM: OSS-Tracing

https://aimstack.io/

Weights and Biases

 SAAS: Alles von Ops bis Monitoring und Prompthandling

https://wandb.ai/site/solutions/llmops

Graphsignal.com

 SAAS: Tracing, Monitoring und Cost Monitoring https://graphsignal.com/

Open telemetry

Es gibt noch keine offizielle Integration, aber es lässt sich gut integrieren - siehe https://medium.com/@bocytko/opentelemetry-meets-openai-95f873aa2e41

TEsting / QA

Wie werden LLM-Apps und Prompts gut getestet?

Fazit: Einstieg in LLMS

Copy of LLMOps

By Johann-Peter Hartmann

Copy of LLMOps

Die ganze Welt redet über AI, und meint damit im Moment vor allem LLMs, die Large Language Models.  Aber was bedeuten sie für Operations und Cloud? Welches Model nehme ich, was muss ich dabei beachten? Wie betreibe ich solche Modelle selbst, und wie mache ich FinOps, wenn ich nach Token bezahle? Wie sieht Observability bei LLMs aus, und was muss ich beachten, wenn ich meine eigenen Modelle trainieren will?  Wir geben einmal die Breitseite über alles, was den Betrieb von LLMs angeht, von Privacy über FineTuning zu Kosten.

  • 187