• Wie AI die interne IT beeinflusst

    Traut man den Studien der großen Unternehmensberatungen und den Early Adoptern, so ändert AI die Art, wie wir Wissensarbeit machen, deutlich. Nach dem Cheap Wins durch die Nutzung von ChatGPT und CoPiloten stellen sich die Fragen: Was bedeutet das konkret für die eigene IT-Infrastruktur? Worauf muss ich mich vorbereiten? Was hilft mir, was bremst mich eher aus? Wir zeigen anhand von Beispielen, wie eine weitgehende Automatisierung von Wissensarbeiten mit AI aussieht, welche Aufgaben sich daraus ergeben, und wie man früh selbst davon profitieren kann.

  • Von Diven, Souffleusen und Regie

    Wenn Wissensarbeit digital wird und Computer Kreativität, Kommunikation und die Bearbeitung von Dokumenten schneller, preiswerter, besser können: Was bedeutet das für uns Software-Menschen? Natürlich entstehen und laufen diese Lösungen nicht von alleine – zumindest bisher nicht. Wie ändert sich unsere Aufgabe, wenn die Prophezeiungen der Universitäten, der Firmen und der großen Beratungen stimmen? Wenn Wissensarbeit nicht mehr durch Menschen, sondern durch autonome Agenten geschieht? Was machen wir, wenn uns die Hauptrolle genommen wird?

  • Offene AI statt OpenAI

    Aus der ursprünglichen Vision von OpenAI, AI offen und für jeden zugänglich zu machen, ist Microsofts wichtigstes kommerzielles Produkt geworden. Aber was ist, wenn ich selbst diese Vision noch habe und meine AI selbst betreiben möchte? Da stehen meine Chancen gut, wenn man internen Quellen von Google und Meta trauen kann. Mit LLama und Falcon wurde gezeigt, dass man offene Modelle in ähnlicher Kampfklasse selbst betreibbar sind, und viele andere Initiativen sorgen dafür, dass Daten und Trainingsmaterial in mehr als ausreichender Menge bereitstehen. Wir zeigen, was heute schon lokal mit Consumer-GPUs geht, wie weit es von GPT-4 in Funktionalität und Geschwindigkeit noch entfernt ist und was wir zu erwarten haben.

  • Autonome Agenten mit Langchain

  • Das Ende nutzerzentrierter Produktentwicklung

    Wer AI naiv in Form von ChatGPT oder als Chatbot oder CoPilot einsetzt, ändert zwar wenig, verpasst aber die großen Nutzenpotentiale. Dort, wo AI in Form autonomer Agenten selbstständig arbeitet, dort, wo der Mensch als "Human as a Tool" nur bei Bedarf einbezogen wird, dort, wo die AI eigenes Wissen über die Arbeit aufbaut, dort, wo der Mensch nur beobachtend und korrigierend eingreift - da funktionieren die klassischen Ansätze der PO-Arbeit nicht mehr. Denn hier ist nicht mehr der Mensch in der Prozessführung, und Konzepte wie User Stories und Personas sind fehl am Platz.  Glücklicherweise bietet der agile Werkzeugkasten noch eine Reihe von Werkzeugen, die auch dann funktionieren, wenn die Hauptrolle nicht mehr dem User gehört. 

  • Der Cloud-native Product Owner

    Die Kostenstruktur von modernen Architekturen ist eine völlig andere als bei klassischen Applikationen. Wo früher die Infrastruktur im Rahmen eines großen Budgets "eh da" war, entsteht sie heute Sprint für Sprint, und das Team selbst entscheidet mit der Entscheidung über Cloudinfrastruktur und eingebundenen Services, wie viele Stellen die Betriebskosten haben. Damit wird einer der größten Kostenfaktor in der IT zum Spielball der Teams, und der im Team generierbare Wert für den Kunden ist unmittelbar betroffen. Wie gehe ich als PO damit um? Wie bilde ich diese operativen Kosten in meine Priorisierung ab, und wie komme ich überhaupt an die nötige Information?

  • Autonome Agenten

  • Autonome Agenten mit LangChain

  • deck

  • Copy of LLMOps

    Die ganze Welt redet über AI, und meint damit im Moment vor allem LLMs, die Large Language Models.  Aber was bedeuten sie für Operations und Cloud? Welches Model nehme ich, was muss ich dabei beachten? Wie betreibe ich solche Modelle selbst, und wie mache ich FinOps, wenn ich nach Token bezahle? Wie sieht Observability bei LLMs aus, und was muss ich beachten, wenn ich meine eigenen Modelle trainieren will?  Wir geben einmal die Breitseite über alles, was den Betrieb von LLMs angeht, von Privacy über FineTuning zu Kosten.

  • LLMOps

    Die ganze Welt redet über AI, und meint damit im Moment vor allem LLMs, die Large Language Models.  Aber was bedeuten sie für Operations und Cloud? Welches Model nehme ich, was muss ich dabei beachten? Wie betreibe ich solche Modelle selbst, und wie mache ich FinOps, wenn ich nach Token bezahle? Wie sieht Observability bei LLMs aus, und was muss ich beachten, wenn ich meine eigenen Modelle trainieren will?  Wir geben einmal die Breitseite über alles, was den Betrieb von LLMs angeht, von Privacy über FineTuning zu Kosten.

  • Code

  • Zero Trust

    In Deutschland haben Cloud-Technologien immer noch ein Vertrauensproblem. Die gefühlte Sicherheit ist kleiner, wenn der Server nicht im eigenen Rechenzentrum steht, und behält die kritischen Daten lieber bei sich. Dabei bietet moderne Cloud-Technologien wie ZeroTrust, CryptoShredding, Data Tagging und der Shift Left viel mehr Sicherheit, Auditfähigkeit und Vertrauenswürdigkeit als es altbackene Firewall-Zonen, Serverschränke und Penetration-Tests bieten könnten.

  • Copy of Teamstrukturen für Softwaremodernsierung

  • OKR mit Sinn und Spaß

  • Coole Technik zum angucken

  • Laws of UX

  • Teamstrukturen für Softwaremodernsierung

  • OWasp Top 10

  • Software-Modernisierung Grundlagen

    Was ist "state of the art" in der IT? Wie finde ich für mich heraus, wie ich mit meiner eigenen Organisation im Verhältnis dazu stehe? Warum will ich überhaupt diesen Abgleich schaffen? Und letztlich: Was brauche ich, um den Sprung in die moderne Welt zu schaffen

  • Kompetenzentwicklung

  • Adopts / Holds Techradar 25

  • Copy of Modernisierungsvorhölle

  • Modernisierung und Teams

    Slides für das WueWW Agile XXL Meetup zum Thema Software-Modernisierung am 26. Oktober 2021.

  • Copy of Moderne Software Architekturen im Cloud Native Context

    Slides für das WueWW Agile XXL Meetup zum Thema Software-Modernisierung am 26. Oktober 2021.

  • API Design

  • No REST for the Wicked

  • Team Topologies vs Product Owners

  • Softwarearchitektur für Product Owner

  • Team Topologies

  • Modernisierungshölle Organisation und Product

  • Modernisierungshölle Dev &SM

  • S3 Domänen- beschreibungen

  • Architectural Decision Records

  • OKR WIns

  • Team Setups für Modernisierung

  • 6 Rs der ​Migration Strategies

  • Strangler Fig Pattern

  • Modernisierungs-Pattern

  • Creating Big Software with a Small Brain

    Humans are not made to create software. Especially our brains do not help a lot. They don't have enough STM, the LTM is unreliable and badly structured. What should we do?

  • Agile Kooperation

    Impulsvortag zur Einweihungsfeier des neuen Offices in München

  • Migration, mit einem Metal-Background

    Der Chef schaut vrobei und fragt,ob wir denn schon "in der Cloud" sind. Und während man an das seit 7 Jahren stabil laufenden Hetzner-Setup denkt antwortet man "Ja, wir haben für die neuen Projekte eine Container-Infrastruktur." Aber warum eigentlich in die Cloud? Weil man das heute so macht müssen alle die Dinge, die gut klappen, auf einmal woanders laufen? Wann lohnt es sich, und wie?

  • Migration, with a metal background

    Your CEO showed up and asked you whether your software runs "in the cloud". And while you think of your well tuned Hetzner setup – that has been running smoothly for seven years in a row now – you nod and say "Yes, it’s running on a container infrastructure", because at least some of the newer things are dockerized. Why should you move to "the cloud" anyway? This talk discusses the different strategies starting with a simple EC2-based virtualization and ending with a full cloud-native replacement, their advantages and their drawbacks.

  • Fighting Speed & Technology with Technology & Automation

    The Time to Market of our products decreases every year, we get earlier customer feedback, we implement their wishes faster while integrating more and scaling better. To achieve this we reinvent ourselves and our methods every year: incremental spaghetti code became a pattern oriented monolith, where we added layers and replaced them with DDD contexts. We added APIs, made it SOA, moved to microservices and serverless, switching from RPC to REST to reactive. The one-trick-pony "Java in university and job" lives in the animal sanctuary right now, while we try to learn the new AWS service and the JavaScript-Framework of the week.