Autonome Agenten 

mit
LangChain

Und Ihr so?

 

  • ChatGPT-Nutzer? CoPilot?

  • Python-Entwickler?

  • Son büschen, wenigstens?

  • Kennt  AutoGPT, AgentVerse, BabyAGI, MetaGPT etc?

  • Schon mit LangChain gearbeitet?

Und das braucht Ihr dazu:

  • einen OpenAI Key
    (sorry dafür, is aber so)

  • einen SerpAPI-Key

  • ein Jupyter-Env

    • Docker wird mitgeliefert

  • Internet

 

  • Bekommt Ihr alles unter der URL gleich, und ich erzähl was, solange Ihr einrichtet.

https://tinyurl.com/codetalks23

Was sind Agenten?

  • fast so alt wie ich (1977  Hewitt)
     

  • führt aus eigener Initiative Aktionen aus und arbeitet unabhängig vom Nutzer
     

  • kommuniziert mit dem Nutzer
    und anderen Agenten

     

  • passt sich an die Umwelt an und lernt langfristig aus Beobachtungen und Entscheidungen

https://tinyurl.com/codetalks23

Was sind Agenten?

https://tinyurl.com/codetalks23

... und sie sind schuld daran.

https://tinyurl.com/codetalks23

Das wusste
OpenAI.

https://tinyurl.com/codetalks23

Wer sich umorientieren möchte ..

https://tinyurl.com/codetalks23

WTF ... 

Agenten gibt es doch schon lange, Sprachmodelle auch.

Warum jetzt auf einmal

so einen Wirbel machen?

https://tinyurl.com/codetalks23

Language Models

Gibt es seit den 80ern.

  • Können:

    • Zusammenfassung

    • Text Generation

    • Lücken füllen

    • Entities erkennen
      ...

       

  • Das statistisch Wahrscheinliche auf Basis von Model & Input

https://tinyurl.com/codetalks23

Input Prediction
Hello! How
Hello! How can
Hello! How can I
Hello! How can I as-
Hello! How can i as- -sist
Hello! How can i assist you
Hello! How can i assist you today
Hello! How can i assist you today ?

https://tinyurl.com/codetalks23

Language Models

Text-Generation: Sag mir statistisch das nächste Wort voraus ... 

LARGE Language Models

  • Generative Pretrained Transformer

  • Du bist zu arm dafür:
    GPT-4 100.000.000 $

  • Europa auch

  • UAE nicht:
    Falcon 180B 7.000.000 GPU Hours.

https://tinyurl.com/codetalks23

  • Wenn man nicht das ganze trainieren kann, dann nur den relevanten Teil.
     

  • Finetuning bzw. PEFT (parameter efficient fine tuning) - nur das trainieren, was man braucht.


  • Mit Lora & co sogar noch kleiner und dazuladbar
     

  • Wie bei rekursiver Komprimierung wird nicht alles besser mit mehr: Catastrophic forgetting

https://tinyurl.com/codetalks23

Finetuning

Du, die richtige Fortsetzung von

"Zähl mal von 1 bis 12"

ist

 

"1,2,3,4,5,6,7,8,9,10,11,12"
 

https://tinyurl.com/codetalks23

Wie man aus Text Generation
Instruction Following
macht

FLAN-Palm Finetuning

https://tinyurl.com/codetalks23

Und was tuned man so fein?

Größere Modelle, besseres Finetuning

https://tinyurl.com/codetalks23

Ende 2022...

https://tinyurl.com/codetalks23

... und seitdem sind alle hibbelig.

https://tinyurl.com/codetalks23

  • Generate Texts
  • Summarization
  • Classification
  • Question Answering

Planned ...

  • Follow Instructions
  • Reasoning
  • Decision making
  • Evaluate Results

Emergent...

https://tinyurl.com/codetalks23


 

  • führt aus eigener Initiative Aktionen aus und arbeitet unabhängig vom Nutzer

  • kommuniziert mit dem Nutzer und anderen Agenten

  • passt sich an die Umwelt an und lernt langfristig aus Beobachtungen und Entscheidungen

TAFKA-In-Context-Learning:
Prompt Engineering

  • Transformer-Architekturen setzen auf dem Input auf
     

  • Das kann für neue Informationen genutzt werden
     

  • Neudeutsch "Prompt Engineering"

Few-Shot-Prompting

https://the-prompt-engineer.beehiiv.com/p/3-fewshot-prompting

Chain of Thought Prompting

Warum Agenten jetzt funktionieren

Warum LLMs doof für Software sind ...

  • Der LLM-Fuckup: XX token/s
     

  • Chat & Streaming geht in UX gerade so - aber nicht bei Agenten
     

  • Fazit: Agenten sind asynchrone Services
     

  • "Autonom". Ja genau.

🦜🔗 LangChain

🦜🔗 LangChain

🦜🔗 LangChain

  • Alternativen

    • AutoChain, Semantic Kernel, Haystack, llama Index

  • Langchain Community

    • Features, Doku, Entwickler

    • viel Forks, viele Comitter

    • Häufige compability breaks

  • Gegenargumente

    • Zu gross, zu schnell, zu viel

  • Wird noch eine Weile populär bleiben.

🦜🔗 LangChain

🦜🔗 HandsOn 

Bei wem läuft denn schon?

 

Wenn nein: macht nix, geht auch später und kommt auch hier vorne.

Noch mal sorry für die Keys, aber ohne funktionieren Agenten (noch) nicht.

🦜🔗 LangChain vs LLM

HandsOn 1: LangChain vs LLM.

 

Jupyter läuft?
OPENAI_API_KEY steht in .env? 

Super!
 

Bitte
1_langchain_basics.ipynb
aufrufen.

🦜🔗 Wie tickt LangChain?

Ziele: 

  • be data-aware Daten für LLMs bereitstellen

  • be agentic Agenten als Kernstrategie

 

Dafür wird bereitgestellt: 

  • Komponenten Abstraktionen für typische Aufgaben

  • Off-the-shelf chains (fast) fertige Lösungsstrecken

🦜🔗 Chains

https://python.langchain.com/docs/use_cases/more/agents

🦜🔗 Default: ReAct Agents

https://blog.research.google/2022/11/react-synergizing-reasoning-and-acting.html

Der agile
Plan-Do-Check-Act-Loop der Agenten.

ReAct

Agents

https://blog.research.google/2022/11/react-synergizing-reasoning-and-acting.html

🦜🔗 ReAct Example

HandsOn 2: ReAct mit LangChain

 

Bitte
2_react.ipynb
aufrufen.

🦜🔗 Tools

Im Beispiel: search und llm-math

 

Viele Tools, wachsend ... 

  • Alle Suchplattformen, Wikipedia, Arxiv, WolframAlpha, DuckDuckGo, ...

  • Libraries: HuggingFace Tools

  • Code ausführen: Shell , Python, Lambda

  • Interaktion: Human

🦜🔗 Stand da gerade Shell? 

Kommt Ihr noch klar?

Ich soll allen Ernstes OpenAI auf meinem Rechner was ausführen lassen?
 

Bitte
3_react_with_humantool.ipynb
aufrufen.

 

Wer neugierig ist: unter
https://github.com/mayflower/cloudbot

ist ein kubernetes/aws-bot.

🦜🔗 Long Term Memory

Natürliche Sprache != Strukturierte Daten



! SQL, !NoSQL, !DocumentDB, !GraphDB


Wenn man bloss was hätte, was man mit Sprache abfragen könnte ...

🦜🔗 VectorStores

Superspezialdatenbanken mit 3 Spalten:

  • hochdimensionaler Vektorindex

  • Textblob

  • Metadata

 

Der Vektorindex kommt aus Embeddings.

🦜🔗 Embeddings

  • Texte sind in LLMs in Token 

  • Embeddings sind Vektoren, die den "Sinn" von einem Stapel Token abbilden

 

"Liebe Vektordatenbank, gib mir mal alles inhaltlich ähnliches hierzu."

 

 

 

  • Every other "Chat My $stuff" Chatbot
     

  • Dokumentation verwendbar machen
     

  • Callcenter und Supportanfragen automatisch beantworten
     

  • Kundenbriefe und Mails auf Basis vergangener ähnlicher Anfragen beantworten
     

  • Alles Consultingwissen, von SAP bis Legal.

🦜🔗 VectorStores einsetzen bei Agenten

🦜🔗 Vectorstores in Agenten verwenden

 

Bitte

4_react_with_docstore.ipynb

aufrufen.

 

🦜🔗 Strukturierte Daten

Hey, schön, dass Du Dich so
über Deinen VectorStore freust.

 

 

Unsere Daten liegen trotzdem in Oracle.

 

🦜🔗 Existierende Datenbanken anbinden

SQLDatabaseToolkit kümmert sich um:

  • Parsen der Schemata

  • Interpretieren der Daten

  • Erzeugen der SQL-Statements

 

Bitte

5_agent_with_sql_toolkit.ipynb

aufrufen.

 

🦜🔗 Plan & Solve

🦜🔗 Plan and Execute Agent

Der Waterfall unter den Agenten:

 

Bitte

6_plan_and_execute.ipynb

aufrufen.

 

🦜🔗 BabyAGI

AGIs, das MakeMoneyFast!!!111elf der AI.

 

Wer hat schon mal AutoGPT, BabyAGI, DevGPT, ... genutzt?

 

GrundIdee: jedes Problem von der AI lösen lassen ohne selbst zu arbeiten.

🦜🔗 BabyAGI

 

Bitte

7_BabyAGI.ipynb

aufrufen.

 

🦜🔗 BabyAGI

Praxiserfahrungen:

 

  • es funktioniert in limitierten Domänen

  • as in: Abteilungen, Arbeitsbereichen

  • es braucht Long Term Memory 

  • es braucht Interaktion

  • DRY in Richtig.

 

🦜🔗 Your PAL for formal stuff

Program Aided Language

 

Wenn eine formelle Sprache ein Problem besser lösen kann sollte sie es tun. 

 

In Langchain:

LLMath, Bash, Python, SQL etc ...

 

🦜🔗 Your PAL for formal stuff

 

Bitte

8_CPAL.ipynb

aufrufen.

 

🦜🔗 CAMEL: Teamwork

 

  • Eigentlich als Simulation für Games etc gedacht
     

  • Erstaunlich kluge Ergebnisse
     

  • Kann alle anderen Features in Kooperation integrieren
     

  • Wirr aber wahr: Teamwork funktioniert auch für AI besser.

 

 

Bitte

9_camel.ipynb

aufrufen.

 

🦜🔗 CAMEL: Teamwork

Praxis und Ausblick

  • Vieles ist noch instabil

  • Wenn man bleeding edge mag cool

  • Aber: lokal schnell große Benefits realisierbar
     

  • Infrastruktur drumherum entsteht erst

    • Observability (Langsmith etc)

    • Deployment

    • Automation (SuperAgent)

Q&A

Slides:  https://slides.com/johann-peterhartmann/autonome-agenten/

Code: https://github.com/mayflower/codetalks23/

Langchain-Buch: http://hub.mayflower.de/langchain-buch 

Autonome Agenten

By Johann-Peter Hartmann