<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>snoo.at</title>
    <link>https://snoo.at</link>
    <description>Blog über Automatisierung, ERP, KI und Führung von Michael Plöckinger</description>
    <language>en</language>
    <lastBuildDate>Sun, 05 Apr 2026 20:14:42 +0000</lastBuildDate>
    <atom:link href="https://snoo.at/feed.xml" rel="self" type="application/rss+xml"/>
    
    <item>
      <title>Context Engineering mit YAML-Frontmatter</title>
      <link>https://snoo.at/posts/context-engineering.html</link>
      <guid>https://snoo.at/posts/context-engineering.html</guid>
      <pubDate>Sun, 05 Apr 2026 00:00:00 +0000</pubDate>
      
      <category>ai</category>
      <category>context-engineering</category>
      <category>claude</category>
      <category>knowledge-management</category>
      
      <description><![CDATA[&lt;p&gt;Quelle: LinkedIn-Post von Hendrik Hemken (05.04.2026)&lt;/p&gt;
&lt;h2 id=&#34;das-problem&#34;&gt;Das Problem&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;600+ Markdown-SOPs, Blog-Entwürfe, Projekt-Notes.&lt;/li&gt;
&lt;li&gt;Jeder Claude-Run müsste eigentlich das komplette Dokument lesen, obwohl häufig nur ein Pitch, eine Zusammenfassung oder ein Status gefragt ist.&lt;/li&gt;
&lt;li&gt;Ergebnis: Token-Verschwendung, Halluzinationen, Kontextverlust.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;die-idee-frontmatter-als-mini-api&#34;&gt;Die Idee: Frontmatter als Mini-API&lt;/h2&gt;
&lt;p&gt;Hendrik versieht jede Notiz mit einem YAML-Header:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;&lt;span class=&#34;nt&#34;&gt;title&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;Instant Summary&lt;/span&gt;
&lt;span class=&#34;nt&#34;&gt;status&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;draft&lt;/span&gt;
&lt;span class=&#34;nt&#34;&gt;summary&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;p p-Indicator&#34;&gt;&amp;gt;&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;no&#34;&gt;2-3 Sätze, wozu dieser Text dient&lt;/span&gt;
&lt;span class=&#34;nt&#34;&gt;pitch&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;s&#34;&gt;&amp;quot;Use&lt;/span&gt;&lt;span class=&#34;nv&#34;&gt; &lt;/span&gt;&lt;span class=&#34;s&#34;&gt;case&lt;/span&gt;&lt;span class=&#34;nv&#34;&gt; &lt;/span&gt;&lt;span class=&#34;s&#34;&gt;/&lt;/span&gt;&lt;span class=&#34;nv&#34;&gt; &lt;/span&gt;&lt;span class=&#34;s&#34;&gt;Value&lt;/span&gt;&lt;span class=&#34;nv&#34;&gt; &lt;/span&gt;&lt;span class=&#34;s&#34;&gt;prop&amp;quot;&lt;/span&gt;
&lt;span class=&#34;nt&#34;&gt;tags&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;p p-Indicator&#34;&gt;[&lt;/span&gt;&lt;span class=&#34;nv&#34;&gt;context&lt;/span&gt;&lt;span class=&#34;p p-Indicator&#34;&gt;,&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;nv&#34;&gt;agentic&lt;/span&gt;&lt;span class=&#34;p p-Indicator&#34;&gt;,&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;nv&#34;&gt;knowledge&lt;/span&gt;&lt;span class=&#34;p p-Indicator&#34;&gt;]&lt;/span&gt;
&lt;span class=&#34;nt&#34;&gt;updated&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;2026-04-05&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;p&gt;Das Frontmatter dient als Einstiegsanker:&lt;br /&gt;
1. Agent lädt &lt;strong&gt;nur den YAML-Block&lt;/strong&gt;.&lt;br /&gt;
2. Liest &lt;code&gt;summary&lt;/code&gt;, &lt;code&gt;pitch&lt;/code&gt;, &lt;code&gt;status&lt;/code&gt;.&lt;br /&gt;
3. Entscheidet: &lt;strong&gt;lohnt sich vollständiges Einlesen?&lt;/strong&gt;&lt;br /&gt;
4. Erst dann folgt &lt;code&gt;body&lt;/code&gt; (mit &lt;code&gt;split: true&lt;/code&gt; und referenzierter Section).&lt;/p&gt;
&lt;h2 id=&#34;warum-das-funktioniert&#34;&gt;Warum das funktioniert&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Routing statt Brute Force&lt;/strong&gt; – eine Handvoll Tokens reichen, um „irrelevant“ zu erkennen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Selbstbeschreibung&lt;/strong&gt; – &lt;code&gt;pitch&lt;/code&gt;/&lt;code&gt;summary&lt;/code&gt; geben Claude eine Stimme („So musst du mich verwenden“).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Regeln im YAML&lt;/strong&gt; – z. B. &lt;code&gt;llm_mode: read_only&lt;/code&gt; oder &lt;code&gt;contains_pii: true&lt;/code&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;so-setzt-du-es-um&#34;&gt;So setzt du es um&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Schema definieren&lt;/strong&gt; – welche Felder braucht dein Team? (Titel, Eigentümer, Zweck, Sensitivity …)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Linting erzwingen&lt;/strong&gt; – Pre-commit Hook prüft, ob Frontmatter vorhanden ist.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agent-Flow anpassen&lt;/strong&gt; – Workflow: &lt;code&gt;load_frontmatter → decide → load_section&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Fallback&lt;/strong&gt; – wenn YAML fehlt, lade Body + schreibe TODO.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;bonus-kontext-cache&#34;&gt;Bonus: Kontext-Cache&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Speichere alle YAML-Header als &lt;code&gt;context_index.json&lt;/code&gt; (Claude kann danach suchen).&lt;/li&gt;
&lt;li&gt;Bilde Vektoren nur aus &lt;code&gt;summary/pitch&lt;/code&gt; – spart Embedding-Kosten.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;prompts-aus-dem-linkedin-post&#34;&gt;Prompts aus dem LinkedIn-Post&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Frontmatter-Creator&lt;/strong&gt; – kommt in &lt;code&gt;CLAUDE.md&lt;/code&gt;, damit jede neue Notiz einen Steckbrief bekommt:&lt;br /&gt;
&lt;code&gt;text
   You are the note-taking agent. Every Markdown file MUST start with YAML frontmatter
   containing description, date, status, tags, and client/project. Use concise one-line
   values. After the frontmatter, write the content as usual.&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Frontmatter-Reader&lt;/strong&gt; – liegt im Agent-Workflow, bevor eine Datei geöffnet wird:&lt;br /&gt;
&lt;code&gt;text
   When exploring files: (1) read only the YAML frontmatter and summarize it in one
   sentence, (2) decide if the body is relevant. Only open the full file when the
   description or tags match the current task.&lt;/code&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;rag-vs-frontmatter&#34;&gt;RAG vs. Frontmatter&lt;/h2&gt;
&lt;p&gt;Hendriks Fazit: Für strukturiertes Teamwissen schlagen Ordnerstruktur + Steckbrief oft eine klassische Vektordatenbank. Embeddings verwechseln &#34;Projekt A&#34; und &#34;Meeting C&#34;, ein Agent, der &lt;code&gt;description&lt;/code&gt; liest, versteht sofort den Unterschied – ganz ohne Pipeline.&lt;/p&gt;
&lt;h2 id=&#34;fazit&#34;&gt;Fazit&lt;/h2&gt;
&lt;h2 id=&#34;fazit_1&#34;&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Ein paar Zeilen YAML reichen, damit Claude &amp;amp; Co. wissen, &lt;em&gt;was&lt;/em&gt; ein Dokument ist, &lt;em&gt;warum&lt;/em&gt; es existiert und &lt;em&gt;wie&lt;/em&gt; es zu lesen ist. Das macht Notizen nicht nur KI-freundlich, sondern auch für Menschen übersichtlicher.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>5 Claude-Prompts für Präsentationen – inspiriert von Patrick Winston</title>
      <link>https://snoo.at/posts/claude-presentation-prompts.html</link>
      <guid>https://snoo.at/posts/claude-presentation-prompts.html</guid>
      <pubDate>Sun, 05 Apr 2026 00:00:00 +0000</pubDate>
      
      <category>claude</category>
      <category>prompts</category>
      <category>presentation</category>
      <category>communication</category>
      
      <description><![CDATA[&lt;p&gt;Quelle: LinkedIn-Slides (05.04.2026) „5 Claude Code Prompts…“&lt;/p&gt;
&lt;h2 id=&#34;1-start-any-presentation-right&#34;&gt;1. Start any presentation right&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;You are a Presentation Coach trained on Patrick Winston’s &amp;quot;Empowerment Promise&amp;quot;.
Goal: craft the first 60 seconds.
Input: audience, context, topic, desired behavior.
Output:
1) Empowerment Promise (one sentence, specific, no clichés).
2) 60-second opening script (max 130 words, no jokes, no &amp;quot;thank you for coming&amp;quot;).
3) List the first thing to delete from my current intro.
Reply in German.
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;h2 id=&#34;2-eliminate-your-slide-crimes&#34;&gt;2. Eliminate your slide crimes&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;You are a Slide-Crime Inspector. Audit the provided slide content (copy/paste) against
Patrick Winston’s top 10 slide crimes (too much text, font &amp;lt; 40 pt, clip art, pointer, etc.).
Return a table: Crime | Why it hurts | Fix (1 sentence).
Finish with a summary &amp;quot;Slide Health Score&amp;quot; (0-10).
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;h2 id=&#34;3-make-your-ideas-unforgettable-star&#34;&gt;3. Make your ideas unforgettable (STAR)&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;You are a Personal Brand Architect.
Framework: STAR = Symbol, Slogan, Surprise, Salient idea, Story.
For each key point:
- propose one visual/prop symbol
- write a 5-word slogan
- add a surprise hook (fact/stat)
- restate the core idea (15 words)
- sketch a 3-sentence story.
Output as table. Reply in German.
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;h2 id=&#34;4-structure-any-talk-that-persuades&#34;&gt;4. Structure any talk that persuades&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;You are a Persuasion Architect.
Structure = Vision → Proof of Work → Contributions → Call to Action.
Constraints: Vision &amp;amp; Proof must be within the first 5 minutes.
Input: topic, ask, proof assets.
Output:
1) Outline (minute-by-minute, max 20 min).
2) Script snippets for Vision &amp;amp; Proof (&amp;lt;=120 words each).
3) Closing line that mirrors the opening.
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;h2 id=&#34;5-use-props-stories-to-teach-anything&#34;&gt;5. Use props &amp;amp; stories to teach anything&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;You are a Teaching Design Specialist.
Design a physical or narrative prop using Tension → Demo → Resolution.
Input: concept, audience, constraint.
Output:
- Prop description (what, how to build)
- Script (Attention grabber, Demo steps, Resolution)
- Guideposts (what to write on slide/board).
Limit total output to 250 words.
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;h2 id=&#34;warum-das-funktioniert&#34;&gt;Warum das funktioniert&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Patrick Winston’s MIT-Style fokussiert auf Empowerment statt Agenda-Folien.&lt;/li&gt;
&lt;li&gt;Claude bekommt klare Rollen + Outputs (Tabelle, Outline, Script).&lt;/li&gt;
&lt;li&gt;Jede Vorlage reduziert Nacharbeit (Slides kürzen, Hook finden, Struktur bauen).&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;tipps&#34;&gt;Tipps&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Prompts als Snippets (z. B. in &lt;code&gt;CLAUDE.md&lt;/code&gt;) lagern.&lt;/li&gt;
&lt;li&gt;Inputs kurz halten, Output kontrollieren (Wortlimits, Tabellen).&lt;/li&gt;
&lt;li&gt;Ergebnisse direkt in Slides kopieren &amp;amp; iterieren.&lt;/li&gt;
&lt;/ul&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;&lt;span class=&#34;err&#34;&gt;“&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;Die&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;mi&#34;&gt;613&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;Dateien&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;fühlen&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;sich&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;an&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;wie&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;mi&#34;&gt;10&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;weil&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;der&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;Agent&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;gelernt&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;hat&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;zu&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;navigieren&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;statt&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;zu&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;n&#34;&gt;lesen&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;”&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;err&#34;&gt;–&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;nv&#34;&gt;@theclaudecode&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;]]></description>
    </item>
    
    <item>
      <title>Wieviel RAM braucht ein lokales KI-System?</title>
      <link>https://snoo.at/posts/local-llm-ram.html</link>
      <guid>https://snoo.at/posts/local-llm-ram.html</guid>
      <pubDate>Tue, 31 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>hardware</category>
      <category>ai</category>
      <category>llm</category>
      <category>self-hosting</category>
      
      <description><![CDATA[&lt;p&gt;Quelle: LinkedIn-Post von Micha Gross „Wieviel RAM braucht ein lokales KI-System?“ (31.03.2026)&lt;/p&gt;
&lt;h2 id=&#34;1-erst-unterscheiden-vram-vs-ram&#34;&gt;1. Erst unterscheiden: VRAM vs. RAM&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;VRAM (Grafikkarte)&lt;/strong&gt; bestimmt, welche Modellgröße du in voller Geschwindigkeit fahren kannst. Faustregel: &lt;strong&gt;8 GB VRAM pro 7B-Modell&lt;/strong&gt; (FP16). Mit Quantisierung (Q4) halbierst du den Bedarf.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;System-RAM&lt;/strong&gt; puffert Kontext, Uploads, Embeddings. Für lokale Chats reichen 32 GB, für RAG/Toolformer-Setups eher 64 GB+.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;2-richtwerte-stand-q22026&#34;&gt;2. Richtwerte (Stand Q2/2026)&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Modellgröße&lt;/th&gt;
&lt;th&gt;Empfohlene Quantisierung&lt;/th&gt;
&lt;th&gt;VRAM (flüssig)&lt;/th&gt;
&lt;th&gt;CPU/RAM-Option&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;7B (z. B. Llama 3.1 8B)&lt;/td&gt;
&lt;td&gt;Q4_K_M&lt;/td&gt;
&lt;td&gt;6–8 GB&lt;/td&gt;
&lt;td&gt;CPU-Modus: 16 Threads + 32 GB RAM&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;13B&lt;/td&gt;
&lt;td&gt;Q4_K_M/Q5&lt;/td&gt;
&lt;td&gt;10–12 GB&lt;/td&gt;
&lt;td&gt;CPU: 32 Threads + 48 GB RAM&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;33B&lt;/td&gt;
&lt;td&gt;Q4_K_M&lt;/td&gt;
&lt;td&gt;20–24 GB&lt;/td&gt;
&lt;td&gt;CPU: 64 Threads + 96 GB RAM (langsam)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;70B&lt;/td&gt;
&lt;td&gt;Q3_K_S/Q4&lt;/td&gt;
&lt;td&gt;40–48 GB&lt;/td&gt;
&lt;td&gt;CPU-Betrieb unpraktikabel&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;405B (Mixtral, Command R+)&lt;/td&gt;
&lt;td&gt;nicht empfehlenswert lokal&lt;/td&gt;
&lt;td&gt;≥80 GB VRAM + Multi-GPU&lt;/td&gt;
&lt;td&gt;Cloud besser&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Quelle: Tests mit llama.cpp, vLLM, Nvidia RTX/Blackwell Karten; Erfahrungswerte aus community benchmarks.&lt;/p&gt;
&lt;h2 id=&#34;3-reale-builds&#34;&gt;3. Reale Builds&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;„Schreibtisch-KI“&lt;/strong&gt; – RTX 4070 (12 GB VRAM), Ryzen 9, 64 GB RAM, 2 TB NVMe → 7B/13B-Modelle, Agent-Experimente, Bild-KI über ComfyUI. Kostet ~2.200 EUR.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;„Studio-Server“&lt;/strong&gt; – RTX 4090 (24 GB), Threadripper, 128 GB RAM → 33B-Modelle, RAG mit Milvus/Chroma lokal. ~4.500 EUR.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;„Team-Rack“&lt;/strong&gt; – 2×H100 80 GB oder Blackwell B200, 256 GB RAM, 10 TB NVMe → 70B+ Models, Multi-User. Leasingpreise ≥6k EUR/Monat.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;4-speicher-io&#34;&gt;4. Speicher &amp;amp; I/O&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;NVMe&lt;/strong&gt;: mind. 2 TB für Modelle, Embeddings, Caches (ein 70B-Modell in mehreren Quantisierungen belegt &amp;gt;200 GB). PCIe 4.0/5.0 lohnt sich.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Network&lt;/strong&gt;: Für RAG + Multi-User 10 GbE oder schneller (gerade wenn Vektordatenbanken auf separatem Host liegen).&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;5-strom-kuhlung&#34;&gt;5. Strom &amp;amp; Kühlung&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;GPU-Workloads ziehen Dauerlast; 4090 ≈ 450 W. Plane Uptime + Geräuschkulisse (AIO oder Server-Rack). Bei 24/7-Betrieb lohnt sich Unterbringung im Serverraum/Colo.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;6-software-stack&#34;&gt;6. Software-Stack&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;llama.cpp / Ollama&lt;/strong&gt; für Einzel-GPU-Setups, simple API.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;vLLM&lt;/strong&gt; oder &lt;strong&gt;TensorRT-LLM&lt;/strong&gt; für Multi-GPU &amp;amp; Serve-Layer (durchsatzkritisch).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Modalitäten&lt;/strong&gt;: Für Vision/Audio brauchst du 2–3 GB VRAM extra (CLIP-Encoder, Whisper). 16 GB VRAM ist sweet spot.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;7-entscheidungshilfe&#34;&gt;7. Entscheidungshilfe&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Nur Chat? → 12 GB VRAM | 32–64 GB RAM.&lt;/li&gt;
&lt;li&gt;Code, Toolformer, Embedding + RAG? → 24 GB VRAM | 64–128 GB RAM.&lt;/li&gt;
&lt;li&gt;Multi-User / Fine-Tuning? → Multi-GPU, 128 GB RAM+, dedizierte Speicherlösung.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Fazit:&lt;/strong&gt; RAM ist wichtig, aber ohne ausreichendes VRAM bremst du dich aus. Setz zuerst die GPU-Größe, wähle dann RAM (mind. 2× VRAM) und schnellen NVMe-Speicher. Wer mit 13B-Modellen happy ist, kommt mit 12 GB VRAM + 64 GB RAM aus – alles darüber braucht ernsthafte Hardware oder die Cloud.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>AI-first ERP 2026: Wer liefert was – und worauf solltest du achten?</title>
      <link>https://snoo.at/posts/ai-first-erp.html</link>
      <guid>https://snoo.at/posts/ai-first-erp.html</guid>
      <pubDate>Tue, 31 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>ai</category>
      <category>erp</category>
      <category>sap</category>
      <category>microsoft</category>
      <category>odoo</category>
      
      <description><![CDATA[&lt;p&gt;Quellen: SAP Joule Product Page (27.03.2026), Ecosire „AI + ERP Integration“ (19.03.2026), Folio3/NetSuite Guide (10.03.2026), AIMultiple Agentic ERP Overview (05.03.2026).&lt;/p&gt;
&lt;h2 id=&#34;marktuberblick&#34;&gt;Marktüberblick&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Anbieter&lt;/th&gt;
&lt;th&gt;AI-Brand&lt;/th&gt;
&lt;th&gt;Highlights&lt;/th&gt;
&lt;th&gt;Zielgruppe&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;SAP&lt;/td&gt;
&lt;td&gt;Joule AI&lt;/td&gt;
&lt;td&gt;2.100+ Skills, Agenten in Finance/SCM/HR, Joule Studio + MS 365 Copilot-Integration, ISO/IEC 42001&lt;/td&gt;
&lt;td&gt;Großunternehmen, hohe Governance-Anforderungen&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Microsoft Dynamics 365&lt;/td&gt;
&lt;td&gt;Copilot&lt;/td&gt;
&lt;td&gt;Azure OpenAI-gestützte Agents für Sales/Finance/Supply Chain, tiefe Power Platform-Integration&lt;/td&gt;
&lt;td&gt;Unternehmen mit Microsoft-Stack&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Oracle NetSuite&lt;/td&gt;
&lt;td&gt;Built-in ML&lt;/td&gt;
&lt;td&gt;Forecasting, Invoice-Matching, Fraud Detection „out of the box“ (Add-ons für Advanced Analytics)&lt;/td&gt;
&lt;td&gt;SMB bis Mid-Market&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Odoo 19&lt;/td&gt;
&lt;td&gt;Odoo AI Assistant&lt;/td&gt;
&lt;td&gt;LLM-agnostisch, integriert in CRM/Accounting/Inventory, offen für Custom-Module&lt;/td&gt;
&lt;td&gt;Startups &amp;amp; KMU, Open-Source-affin&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Infor CloudSuite&lt;/td&gt;
&lt;td&gt;Coleman AI&lt;/td&gt;
&lt;td&gt;Branchenpakete (Manufacturing, Healthcare), Voice/Chat, Predictive Maintenance&lt;/td&gt;
&lt;td&gt;Industrie-Fokus&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Microsoft Business Central&lt;/td&gt;
&lt;td&gt;Copilot&lt;/td&gt;
&lt;td&gt;KMU-Version, Q&amp;amp;A über sales/inventory data, produktbeschreibungen, anomaly flags&lt;/td&gt;
&lt;td&gt;KMU/Handel&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;drei-trends-ecosire-19032026&#34;&gt;Drei Trends (Ecosire, 19.03.2026)&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Natürlichsprachliche Interfaces&lt;/strong&gt; – alle Großen (SAP, Oracle, Microsoft, Odoo) haben Chat-/Copilot-Ebenen. Ziel: ERP ohne Power-User-Hürden.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Vorausschauende Automatisierung&lt;/strong&gt; – Demand- und Cash-Forecasts verbessern sich laut Studien um 15–40 %; Autonomous Close reduziert Monatsabschluss von Tagen auf Stunden.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agentische Architektur&lt;/strong&gt; – AI-Agenten greifen über APIs auf ERP-Daten zu, orchestrieren Workflows quer durch Finance, SCM, HR.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;vendor-details&#34;&gt;Vendor-Details&lt;/h2&gt;
&lt;h3 id=&#34;sap-joule-sapcom-27032026&#34;&gt;SAP Joule (SAP.com, 27.03.2026)&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;Agents pro Funktion (Finance, Procurement, HR, Service), orchestrierbar via Joule Studio.&lt;/li&gt;
&lt;li&gt;RBAC übernimmt bestehende SAP-Berechtigungen, Daten bleiben tenant-isoliert.&lt;/li&gt;
&lt;li&gt;Integration mit Microsoft 365 Copilot: Anwender:innen wählen je nach Workflow den passenden Copilot.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&#34;microsoft-dynamics-365-copilot-aimultiple-05032026&#34;&gt;Microsoft Dynamics 365 Copilot (AIMultiple, 05.03.2026)&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;Supplier Communication Agent mailt Lieferanten, parst Antworten, aktualisiert Bestellungen.&lt;/li&gt;
&lt;li&gt;Copilot Q&amp;amp;A über ERP-Daten, generiert E-Mails/Antworten, markiert Planungs-Anomalien.&lt;/li&gt;
&lt;li&gt;Power Platform + AI Builder für eigene Bots (Low-Code).&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&#34;oracle-netsuite-ai-folio3-10032026&#34;&gt;Oracle NetSuite AI (Folio3, 10.03.2026)&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;AI-Features im Standard: ML-gestützte Forecasts, Anomaly Detection, Smart Suggestions.&lt;/li&gt;
&lt;li&gt;Advanced Analytics als Add-ons; eher „einfach konsumierbar“ statt hochgradig konfigurierbar.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&#34;odoo-19-assistant-ecosire-aimultiple&#34;&gt;Odoo 19 Assistant (Ecosire + AIMultiple)&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;LLM-agnostisch (OpenAI, Gemini, Open-Source), Kontext pro Modul.&lt;/li&gt;
&lt;li&gt;Automatisiert Texte, Follow-ups, Lead-Zuweisung, Summaries.&lt;/li&gt;
&lt;li&gt;Offen für eigene Module; geeignet für AI-Experimente im KMU-Bereich.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;kostenmodelle-folio3-10032026&#34;&gt;Kostenmodelle (Folio3, 10.03.2026)&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;NetSuite: AI inkl., aber Advanced Module zusätzlich.&lt;/li&gt;
&lt;li&gt;SAP: Usage-basiert (Business Technology Platform/Joule Services).&lt;/li&gt;
&lt;li&gt;Microsoft: Modul + User-Pricing (Copilot/Power Platform Add-ons).&lt;/li&gt;
&lt;li&gt;Odoo: AI oft kostenlos/OSS, Customizing nach Aufwand.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;implementierungs-checkliste&#34;&gt;Implementierungs-Checkliste&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;API-Reife &amp;amp; Datenqualität&lt;/strong&gt; – AI-Layer funktioniert nur mit sauberen Schnittstellen &amp;amp; Stammdaten. Vorab Data Cleansing.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Security &amp;amp; Governance&lt;/strong&gt; – RBAC-Mapping, Audit-Logs, DSGVO/SOX-Kompatibilität (SAP betont tenant isolation &amp;amp; ISO/IEC 42001).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Pilotfälle auswählen&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Finance: Autonomous Close, Journal Drafting, AR Collections.&lt;/li&gt;
&lt;li&gt;Supply Chain: KI-Demand Planning, Supplier Agents.&lt;/li&gt;
&lt;li&gt;Support/Sales: Copilot Q&amp;amp;A, automatische Antworten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Phasen laut Ecosire&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Phase 1: NL-Query &amp;amp; Analytics (geringes Risiko, hoher Nutzen).&lt;/li&gt;
&lt;li&gt;Phase 2: AI-Forecasting (Accuracy messen!).&lt;/li&gt;
&lt;li&gt;Phase 3: Anomaly Detection/Fraud.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Human-in-the-loop&lt;/strong&gt; – Freigaben, Eskalationen, Monitoring definieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;KPI-Sets&lt;/strong&gt; – Forecast Accuracy, Cycle Times, User Adoption, Error Rate.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;kostenbeispiel-sap-s4hana-cloud-joule-fur-100-user&#34;&gt;Kostenbeispiel: SAP S/4HANA Cloud + Joule für 100 User&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Kostenblock&lt;/th&gt;
&lt;th&gt;Annahme&lt;/th&gt;
&lt;th&gt;Betrag&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Basis-Subscription&lt;/td&gt;
&lt;td&gt;SAP S/4HANA Cloud Core (5.000 USD/Monat)&lt;/td&gt;
&lt;td&gt;60.000 USD/Jahr&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;User-Lizenzen&lt;/td&gt;
&lt;td&gt;40 Vollnutzer à 210 USD + 60 Self-Service à 55 USD (pro Monat)&lt;/td&gt;
&lt;td&gt;140.400 USD/Jahr&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Joule AI Consumption&lt;/td&gt;
&lt;td&gt;100 User × 20 USD/Monat für Copilot-/Agent-Läufe&lt;/td&gt;
&lt;td&gt;24.000 USD/Jahr&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;SAP BTP/Ai Core Add-ons&lt;/td&gt;
&lt;td&gt;AI Units, Monitoring, Integration (Pauschal)&lt;/td&gt;
&lt;td&gt;15.000 USD/Jahr&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Implementierung (einmalig)&lt;/td&gt;
&lt;td&gt;2.500 h Partnerleistungen à 140 USD + SAP Activate&lt;/td&gt;
&lt;td&gt;350.000 USD&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Change &amp;amp; Training (einmalig)&lt;/td&gt;
&lt;td&gt;Enablement, Prompt-Guidelines, Governance&lt;/td&gt;
&lt;td&gt;50.000 USD&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Run &amp;amp; Enhancements&lt;/td&gt;
&lt;td&gt;Interne + Partner-Kapazität für Support (ca. 2 FTE)&lt;/td&gt;
&lt;td&gt;80.000 USD/Jahr&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;3-Jahres-TCO (vereinfachtes Szenario):&lt;/strong&gt;&lt;br /&gt;
- Jahr 1: Subscriptions 239.400 USD + Implementation/Training 400.000 USD + Run 80.000 USD → &lt;strong&gt;~719.000 USD&lt;/strong&gt;&lt;br /&gt;
- Jahr 2: Subscriptions 239.400 USD + Run 80.000 USD → &lt;strong&gt;~319.000 USD&lt;/strong&gt;&lt;br /&gt;
- Jahr 3: Subscriptions 239.400 USD + Run 80.000 USD → &lt;strong&gt;~319.000 USD&lt;/strong&gt;&lt;br /&gt;
- &lt;strong&gt;Summe 3 Jahre:&lt;/strong&gt; ~1,36 Mio. USD (Vor Rabatten).&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Hinweise:&lt;/strong&gt;&lt;br /&gt;
- SAP gewährt bei 100 Usern oft 15–30 % Mengenrabatt.&lt;br /&gt;
- Joule-Verbrauch kann stark schwanken (Heavy Usage: +10–15 USD/User/Monat; Light Usage: &amp;lt;10 USD).&lt;br /&gt;
- Kosten für Integration mit Non-SAP-Systemen (iPaaS, Data Lake) sind nicht enthalten.&lt;br /&gt;
- Einsparpotenziale: Self-Service-Lizenzen weiter erhöhen (z. B. 50/50 Split) oder Joule nur für Power User freischalten.&lt;/p&gt;
&lt;h2 id=&#34;fazit&#34;&gt;Fazit&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;„AI-first ERP“ heißt: Assistants + Agents sind fester Bestandteil des Systems, nicht nur ein externer Chatbot. SAP &amp;amp; Microsoft liefern aktuell die tiefste Integration, Odoo bleibt die flexibelste Open-Source-Option.&lt;/li&gt;
&lt;li&gt;Wichtiger als Vendor-Marketing: Datenqualität, Governance und ein schrittweiser Roll-out. Wer das beherzigt, holt echte Produktivität aus den neuen Copilots – statt nur ein Demo-Video.&lt;/li&gt;
&lt;/ul&gt;]]></description>
    </item>
    
    <item>
      <title>Threat Hunting &amp; Digital Forensics: Drei Learnings aus dem LinkedIn-Thread</title>
      <link>https://snoo.at/posts/threat-hunting.html</link>
      <guid>https://snoo.at/posts/threat-hunting.html</guid>
      <pubDate>Sat, 28 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>cybersecurity</category>
      <category>blue-team</category>
      <category>dfir</category>
      <category>threat-hunting</category>
      
      <description><![CDATA[&lt;p&gt;Quelle: LinkedIn-Post „Cybersecurity · Digital Forensics · Threat Hunting“ (28.03.2026)&lt;/p&gt;
&lt;h2 id=&#34;1-hunting-funktioniert-nur-mit-hypothesen&#34;&gt;1. Hunting funktioniert nur mit Hypothesen&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Statt „schau mal, ob etwas verdächtig ist“: konkrete Annahmen formulieren, z. B. „Ein Angreifer nutzt OAuth-Apps, um persistente Sessions aufzubauen“.&lt;/li&gt;
&lt;li&gt;Hypothese → welche Datenquellen brauche ich? (z. B. Azure Sign-Ins, M365 Audit, Endpoint Events)&lt;/li&gt;
&lt;li&gt;Ergebnis dokumentieren, selbst wenn „nichts gefunden“ – das verbessert die Coverage-Map.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;2-dfir-hunting-teilen-sich-daten-aber-nicht-aufgaben&#34;&gt;2. DFIR &amp;amp; Hunting teilen sich Daten, aber nicht Aufgaben&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Hunting&lt;/strong&gt; = proaktiv, wiederkehrend, sucht nach Mustern.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Digital Forensics&lt;/strong&gt; = reaktiv, rekonstruiert einen konkreten Vorfall.&lt;/li&gt;
&lt;li&gt;Gemeinsame Basis: saubere Telemetrie (EDR, DNS, Proxy, SaaS-Logs) + Retention &amp;gt; 90 Tage.&lt;/li&gt;
&lt;li&gt;Teams sollten ihre Playbooks gegenseitig reviewen: Was wir im Incident gelernt haben, wird zur neuen Hunting-Query.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;3-tooling-ist-mittel-zum-zweck&#34;&gt;3. Tooling ist Mittel zum Zweck&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;SIEM/EDR allein liefern keine Antworten. Braucht Content (Sigma, KQL-Fragmente) + Kontext (Asset-DB, IAM).&lt;/li&gt;
&lt;li&gt;Low-Code-Automationen (SOAR) nehmen Routinearbeit weg: Ticketing, Anreicherung, Eskalation.&lt;/li&gt;
&lt;li&gt;Visualisieren: Zeitleisten &amp;amp; Relationship-Graphs helfen, Findings Nicht-Techies zu erklären.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;quick-start-fur-mittelstandler&#34;&gt;Quick Start für Mittelständler&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;3 wichtigste Use-Cases&lt;/strong&gt; definieren (z. B. Sensible Datenabflüsse, Privileged Escalations, MFA-Bypass).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Log-Sources Priorität A&lt;/strong&gt;: AD/AAD, EDR, Mail-Security, VPN.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Playbook&lt;/strong&gt; inkl. „Verdacht -&amp;gt; Analyse -&amp;gt; Eskalation“.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Ritual&lt;/strong&gt;: Wöchentlicher Hunting-Slot (1–2h) + Retro.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Archiv&lt;/strong&gt;: Findings, Queries, Lessons Learned zentral ablegen.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;warum-das-ganze&#34;&gt;Warum das Ganze?&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Je mehr Automatisierung (AI, SaaS), desto mehr Angriffsfläche. Hunting &amp;amp; Forensics sind das Frühwarnsystem.&lt;/li&gt;
&lt;li&gt;Eine gute Hunting-Kultur fängt Vorfälle oft ab, bevor sie zum DFIR-Großbrand werden.&lt;/li&gt;
&lt;li&gt;Dokumentation + Austausch schaffen Transparenz und helfen bei Audits.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Fazit:&lt;/strong&gt; LinkedIn-Threads erinnern uns daran: Threat Hunting ist kein Buzzword, sondern Handwerk. Hypothese, Daten, Disziplin – und der Rest wird Routine.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>Euro-Office: Nextcloud &amp; Ionos fork OnlyOffice – was steckt drin?</title>
      <link>https://snoo.at/posts/euro-office.html</link>
      <guid>https://snoo.at/posts/euro-office.html</guid>
      <pubDate>Sat, 28 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>open-source</category>
      <category>office</category>
      <category>sovereignty</category>
      <category>nextcloud</category>
      
      <description><![CDATA[&lt;p&gt;Quelle: Heise, „&lt;a href=&#34;https://www.heise.de/news/Microsoft-Alternative-Nextcloud-und-Ionos-entwickeln-quelloffenes-Euro-Office-11227544.html&#34;&gt;Microsoft-Alternative: Nextcloud und Ionos entwickeln quelloffenes Euro-Office&lt;/a&gt;“ (28.03.2026)&lt;/p&gt;
&lt;h2 id=&#34;was-passiert&#34;&gt;Was passiert?&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Projektname:&lt;/strong&gt; „Euro-Office“ – eine quelloffene Office-Suite, entwickelt von Nextcloud &amp;amp; Ionos plus Partnern.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Basis:&lt;/strong&gt; Fork der Open-Source-Bestandteile von OnlyOffice (statt Collabora/LibreOffice).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Release:&lt;/strong&gt; Erste stabile Version im Sommer 2026, Tech Preview liegt schon auf GitHub (&lt;a href=&#34;https://github.com/Euro-Office/&#34;&gt;https://github.com/Euro-Office/&lt;/a&gt;).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Einsatz:&lt;/strong&gt; Soll Collabora in Nextcloud &amp;amp; im Ionos Nextcloud Workspace ablösen; Zielgruppe reicht vom KMU bis zum öffentlichen Sektor.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;warum-onlyoffice-statt-collabora&#34;&gt;Warum OnlyOffice statt Collabora?&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Modernere Architektur, reaktiveres UI (Zitat Frank Karlitschek: LibreOffice ist „35 Jahre alt“ und im Browser „nicht das innovativste“).&lt;/li&gt;
&lt;li&gt;Trotzdem bleibt Collabora Partner – ggf. fließen Komponenten ein.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;sicherheit-herkunft&#34;&gt;Sicherheit &amp;amp; Herkunft&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;OnlyOffice stammt ursprünglich aus Russland → Nextcloud/Ionos haben den Code auditieren lassen.&lt;/li&gt;
&lt;li&gt;Nicht-Open-Source-Komponenten wurden neu gebaut.&lt;/li&gt;
&lt;li&gt;Statement Karlitschek: „Für unsere Version können wir die Hand ins Feuer legen“ – plus Einladung an die Community, selbst zu prüfen.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;positionierung-vs-opendesk-ms-office&#34;&gt;Positionierung vs. openDesk &amp;amp; MS Office&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;openDesk (ZenDiS)&lt;/strong&gt; nutzt bisher Nextcloud + Collabora. Euro-Office soll sich durch tiefere Integration und KI-Funktionen unterscheiden.&lt;/li&gt;
&lt;li&gt;openDesk kann Euro-Office als Komponente übernehmen – es bleibt open source.&lt;/li&gt;
&lt;li&gt;Ziel: europäische Souveränität statt US-Lock-in, inklusive Public-Sector-Zulassungen.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;partner-okosystem&#34;&gt;Partner-Ökosystem&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Unterstützer u. a. XWiki, Soverin, OpenProject, EuroStack-Initiative.&lt;/li&gt;
&lt;li&gt;Plan: jeweils „zweistellige Entwickler-Teams“ bei Nextcloud &amp;amp; Ionos.&lt;/li&gt;
&lt;li&gt;Aufruf an öffentliche Stellen &amp;amp; Zivilgesellschaft, mitzucoden.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;warum-das-relevant-ist&#34;&gt;Warum das relevant ist&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Vendor Independence&lt;/strong&gt; – Öffentliche Stellen bekommen eine ernsthafte EU-gehostete Office-Option.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Integration&lt;/strong&gt; – Nextcloud als Hub, Office als Komponente → weniger Medienbrüche.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Auditability&lt;/strong&gt; – Fork + eigener Build-Prozess → Supply-Chain unter Kontrolle.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Community-Versprechen&lt;/strong&gt; – GitHub-Repo offen, Contributions erwünscht.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;offene-fragen-watchlist&#34;&gt;Offene Fragen / Watchlist&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Lizenz &amp;amp; Governance (Foundation? CLA?)&lt;/li&gt;
&lt;li&gt;Kompatibilität zu MS Office (OOXML Roundtrip?)&lt;/li&gt;
&lt;li&gt;KI-Funktionen: lokal oder via Hyperscaler?&lt;/li&gt;
&lt;li&gt;Roadmap für Mobile &amp;amp; Offline?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Fazit:&lt;/strong&gt; Euro-Office ist mehr als Marketing – Nextcloud &amp;amp; Ionos stemmen ein komplettes Office-Stack-Forking, um Collabora zu ersetzen und Souveränität zu pushen. Wer heute bereits Nextcloud einsetzt, sollte die Tech Preview testen und Feature-Wünsche platzieren, bevor der Sommer-Release festgezurrt ist.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>RAG für alle: So holt die KI brauchbare Antworten aus eurem Wissen</title>
      <link>https://snoo.at/posts/enterprise-rag.html</link>
      <guid>https://snoo.at/posts/enterprise-rag.html</guid>
      <pubDate>Sat, 28 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>ai</category>
      <category>rag</category>
      <category>architecture</category>
      <category>enterprise</category>
      
      <description><![CDATA[&lt;p&gt;&lt;em&gt;Angelehnt an Holger Wölfles LinkedIn-Post vom 28.03.2026&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;RAG (Retrieval Augmented Generation) heißt übersetzt: „Die KI schaut erst in deinen Wissensordner, bevor sie antwortet.“ Damit das klappt, braucht es drei Dinge – egal ob du in HR, Compliance oder IT sitzt.&lt;/p&gt;
&lt;h2 id=&#34;1-inhalte-aufraumen-und-aktuell-halten&#34;&gt;1. Inhalte aufräumen und aktuell halten&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Verantwortliche&lt;/strong&gt;: Jede Quelle (Wiki, Laufwerk, Teams-Ordner) hat eine:n Owner, der entscheidet, was rein darf und wann es aktualisiert wird.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Stand der Dinge&lt;/strong&gt;: Dokumente ohne Datum oder Freigabe fliegen raus oder bekommen ein Etikett („Entwurf“, „veraltet“).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Sensible Infos&lt;/strong&gt;: Personaldaten, Verträge etc. werden vor dem Upload geschwärzt oder kommen in einen eigenen, geschützten Bereich.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;em&gt;Bildlich gesprochen: Erst das Archiv sortieren, dann die KI hineinlassen.&lt;/em&gt;&lt;/p&gt;
&lt;h2 id=&#34;2-die-ki-muss-richtig-suchen-konnen&#34;&gt;2. Die KI muss richtig suchen können&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Stichwort + Bedeutung&lt;/strong&gt;: Gute Systeme kombinieren klassische Volltextsuche („Finde das Wort“) mit Bedeutungssuche („Meint dasselbe“). Das erhöht die Trefferquote.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Filtern&lt;/strong&gt;: Die KI sieht nur das, was der aktuelle Benutzer auch sehen darf. Rechte werden vor dem Suchen geprüft.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Feedback&lt;/strong&gt;: Nutzer:innen markieren, ob eine Antwort geholfen hat. Aus diesen Rückmeldungen lernt der Suchteil ständig weiter.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;em&gt;Ziel: Die KI findet die 3 wichtigsten Dokumente statt 300 irrelevanter PDFs.&lt;/em&gt;&lt;/p&gt;
&lt;h2 id=&#34;3-leitplanken-protokolle&#34;&gt;3. Leitplanken &amp;amp; Protokolle&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Fragentracking&lt;/strong&gt;: Jede Frage speichert Quelle + Antwort. Damit lassen sich Fehler nachstellen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Regeln&lt;/strong&gt;: Wer darf welche Wissenssammlung abfragen? Darf die KI z. B. Bestellungen auslösen oder nur informieren?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Notfallplan&lt;/strong&gt;: Was tun, wenn falsche oder vertrauliche Antworten auftauchen? Wer wird benachrichtigt?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;em&gt;Damit bleibt die KI nachvollziehbar – und niemand wundert sich, wo eine Aussage herkam.&lt;/em&gt;&lt;/p&gt;
&lt;h2 id=&#34;kurze-checkliste-fur-dein-team&#34;&gt;Kurze Checkliste für dein Team&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Besitzt jemand das Thema?&lt;/strong&gt; (Content Owner)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Sind Dokumente beschriftet?&lt;/strong&gt; (Datum, Status, Freigabe)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Wer darf was sehen?&lt;/strong&gt; (Rechte geprüft?)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Gibt es Feedback?&lt;/strong&gt; („Hilfreich / Nicht hilfreich“-Button)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Gibt es ein Logbuch?&lt;/strong&gt; (Fragen &amp;amp; Antworten werden gespeichert)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Ist ein Notfallplan definiert?&lt;/strong&gt; (Kontakt, Reaktion, Abschaltung)&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;warum-sich-der-aufwand-lohnt&#34;&gt;Warum sich der Aufwand lohnt&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Kolleg:innen finden Antworten schneller und verlassen sich auf nachvollziehbare Quellen.&lt;/li&gt;
&lt;li&gt;Compliance &amp;amp; Datenschutz bleiben gewahrt, weil du weißt, wer was gesehen hat.&lt;/li&gt;
&lt;li&gt;Die KI liefert konsistente Ergebnisse – unabhängig davon, ob gerade jemand aus Sales, Recht oder Support fragt.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Fazit:&lt;/strong&gt; RAG ist weniger Technik als Organisation. Wenn Inhalte gepflegt, Suche smart und Regeln klar sind, wird die KI zum verlässlichen Assistenten – auch für Nicht-Techies.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>Claude-Software-Builder: Was Christian R. zeigt – und worauf Unternehmen achten sollten</title>
      <link>https://snoo.at/posts/claude-software.html</link>
      <guid>https://snoo.at/posts/claude-software.html</guid>
      <pubDate>Sat, 28 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>ai</category>
      <category>claude</category>
      <category>low-code</category>
      <category>automation</category>
      
      <description><![CDATA[&lt;p&gt;Quelle: Christian R., LinkedIn-Post „Claude Software + AI“ (28.03.2026)&lt;/p&gt;
&lt;h2 id=&#34;was-christian-zeigt&#34;&gt;Was Christian zeigt&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Drag &amp;amp; Drop statt Code:&lt;/strong&gt; Claude-Software-Builder erlaubt komplette Workflows (Formulare, Buttons, API-Calls) direkt im Chat.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Schnelle Experimente:&lt;/strong&gt; Innerhalb von Minuten steht ein MVP (z. B. Anfrageformular + E-Mail-Responder).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;„Prompt = Produkt“:&lt;/strong&gt; Business-User beschreiben Ziel + Datenquellen, Claude baut UI + Logik.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;die-chancen&#34;&gt;Die Chancen&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Zeitgewinn&lt;/strong&gt; – Citizen Devs bauen interne Tools ohne Wartezeit auf die IT-Queue.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kundennähe&lt;/strong&gt; – Teams testen Ideen direkt mit Endanwender:innen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Standardisierung&lt;/strong&gt; – Wiederverwendbare Komponenten (E-Mail-Parser, CRM-Connector, Tabellen).&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;die-stolperfallen&#34;&gt;Die Stolperfallen&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Datenzugriff&lt;/strong&gt;: WER darf WAS anbinden? (CRM, ERP, personenbezogene Daten)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Versionierung&lt;/strong&gt;: Prompt/Workflow-Änderungen müssen nachvollziehbar sein.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Qualität&lt;/strong&gt;: Schon kleine Prompt-Fehler führen zu falschen Automationen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Security&lt;/strong&gt;: Jede neue Integration braucht Secrets, ACL, Logging.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;guardrails-die-wir-empfehlen&#34;&gt;Guardrails, die wir empfehlen&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Bereich&lt;/th&gt;
&lt;th&gt;Guardrail&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Identität&lt;/td&gt;
&lt;td&gt;Single Sign-On + Rollen (Citizen Dev vs. Reviewer)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Prompt-Versionierung&lt;/td&gt;
&lt;td&gt;Git-Repo oder internes Registry-Feature für Prompts/Flows&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Secrets&lt;/td&gt;
&lt;td&gt;Vault + „Connect via Service Account“, niemals Plaintext im Prompt&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Tests&lt;/td&gt;
&lt;td&gt;Sandbox-Modus + Unit-Tests (z. B. Beispiel-Inputs + erwartete Outputs)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Monitoring&lt;/td&gt;
&lt;td&gt;Log aller Eingaben/Ausgaben, Fehler-Alarme, Kostenanzeigen&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Review-Prozess&lt;/td&gt;
&lt;td&gt;4-Augen-Prinzip vor Prod-Deploy, Checkliste inkl. Datenschutz&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;beispiel-workflow-hr-faq&#34;&gt;Beispiel-Workflow (HR-FAQ)&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;HR-Team beschreibt die Fragen (Urlaub, Krankmeldung, Benefits).&lt;/li&gt;
&lt;li&gt;Claude baut Formular + Antwort-Logik („Wenn Frage = Urlaub → fetch Policy aus Confluence“).&lt;/li&gt;
&lt;li&gt;Reviewer prüft Texte, Datenpfade, Logging.&lt;/li&gt;
&lt;li&gt;Rollout an Pilotgruppe, Feedback direkt im Tool.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;so-startet-ihr&#34;&gt;So startet ihr&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Space für Prototypen:&lt;/strong&gt; Eigenes Tenant mit Testdaten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Bausteine definieren:&lt;/strong&gt; Welche Systeme dürfen angebunden werden? (z. B. ServiceNow, Slack)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Playbooks schreiben:&lt;/strong&gt; Checklisten für neue Claude-Apps (Scope, Daten, Tests, Owner).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Community pflegen:&lt;/strong&gt; Show-and-Tell-Sessions, damit Teams voneinander lernen.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;strong&gt;Fazit:&lt;/strong&gt; Claude-Software-Builder senkt die Hürde, kleine Business-Apps zu bauen. Wer Governance + Guardrails nicht vergisst, bekommt schnelle Innovation ohne Sicherheitskopfschmerzen. Christian R. liefert das Proof-of-Concept – jetzt heißt es, das Prinzip ins eigene Unternehmen zu überführen.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>ARC-AGI-3 Preview: 30 Tage Interactive-Reasoning-Realität</title>
      <link>https://snoo.at/posts/arc-agi-3-preview.html</link>
      <guid>https://snoo.at/posts/arc-agi-3-preview.html</guid>
      <pubDate>Fri, 27 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>ai</category>
      <category>benchmarks</category>
      <category>arc-agi</category>
      <category>research</category>
      
      <description><![CDATA[&lt;p&gt;Quelle: ARC Prize Foundation, „&lt;a href=&#34;https://arcprize.org/blog/arc-agi-3-preview-30-day-learnings&#34;&gt;ARC-AGI-3 Preview: 30-Day Learnings&lt;/a&gt;“ (27.03.2026)&lt;/p&gt;
&lt;h2 id=&#34;3-schnelle-takeaways&#34;&gt;3 schnelle Takeaways&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Menschen &amp;gt; Agenten&lt;/strong&gt; – Über 1.200 Spieler:innen haben 3.900 Runs absolviert, viele „speedrunnen“ die Level auf theoretische Minimalpfade. Agents brauchen ein Vielfaches an Aktionen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Random Search ist (noch) zu gut&lt;/strong&gt; – Einige Games ließen sich bruteforcen; die finale Benchmark wird brute-force-resistenter.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Action Efficiency als Intelligenzsignal&lt;/strong&gt; – Statt nur „erreicht / nicht erreicht“ zählt jetzt das Verhältnis zwischen Umgebungsinformationen und erfolgreichen Aktionen (inspiriert von Chollets &lt;em&gt;Measure of Intelligence&lt;/em&gt;).&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;warum-interactive-reasoning-benchmarks-irbs&#34;&gt;Warum Interactive Reasoning Benchmarks (IRBs)?&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;On-the-fly Learning&lt;/strong&gt;: Keine Pattern-Memorisierung, jede Umgebung ist neu.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Exploration&lt;/strong&gt;: Können Agents gezielt Informationen sammeln?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Memory &amp;amp; Goal Setting&lt;/strong&gt;: Zwischenschritte planen, langfristige Ziele ableiten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Action Efficiency&lt;/strong&gt;: Wie viele Schritte braucht man wirklich?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;IRBs simulieren damit echte „Drop you into a new world“-Szenarien – ein Maßstab, den statische Benchmarks nie abgedeckt haben.&lt;/p&gt;
&lt;h2 id=&#34;die-preview-games-offentlich&#34;&gt;Die Preview-Games (öffentlich)&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Game&lt;/th&gt;
&lt;th&gt;Typ&lt;/th&gt;
&lt;th&gt;Kurzbeschreibung&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;a href=&#34;https://three.arcprize.org/games/ls20&#34;&gt;ls20&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;Agentisch, Map-basiert&lt;/td&gt;
&lt;td&gt;Symbol transformieren &amp;amp; zum Ziel navigieren&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;a href=&#34;https://three.arcprize.org/games/ft09&#34;&gt;ft09&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;Nicht-agentisch, Logik&lt;/td&gt;
&lt;td&gt;Muster matchen, inkl. Überlappungen&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;a href=&#34;https://three.arcprize.org/games/vc33&#34;&gt;vc33&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;Orchestration&lt;/td&gt;
&lt;td&gt;Volumen mehrerer Objekte angleichen&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Plus drei private Games als Hidden Holdout für den Wettbewerb (Release folgt).&lt;/p&gt;
&lt;h2 id=&#34;scoring-framework&#34;&gt;Scoring-Framework&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Aktionen zählen&lt;/strong&gt; (pro Level) → Plotten vs. Fortschritt&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Baseline&lt;/strong&gt;: Kontrollierte Human-Studie (&amp;gt;200 Personen) für die finale Version&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Exploration vs. Execution&lt;/strong&gt; getrennt bewerten&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Score&lt;/strong&gt; = Action-Effizienz pro Level vs. Human-Baseline, normalisiert pro Game, gemittelt über alle Games → 0–100 %&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Dieses Setup spiegelt Tenenbaum et al. (&lt;em&gt;Human-Level RL via Theory-Based Modeling, Exploration, and Planning&lt;/em&gt;) und Klassikern wie Dijkstra/A*.&lt;/p&gt;
&lt;h2 id=&#34;humans-vs-ai&#34;&gt;Humans vs. AI&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Menschen verbringen wenige Aktionen auf Exploration, dann präzise Execution.&lt;/li&gt;
&lt;li&gt;Brute-Force-Agents brauchen 10–100× mehr Aktionen → ineffiziente Informationsnutzung.&lt;/li&gt;
&lt;li&gt;Visualisierung: Aktionsbudget (x) vs. Level (y) zeigt Varianz pro Game + Minimalpfade.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;agent-preview-competition-30-tage&#34;&gt;Agent Preview Competition (30 Tage)&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;Setup:&lt;/strong&gt; Öffentliche Games + API (Hugging Face Sponsoring), Bewertung auf 3 privaten Levels. 12 Einreichungen, 8 auf Holdout getestet.&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Platz&lt;/th&gt;
&lt;th&gt;Team / Repo&lt;/th&gt;
&lt;th&gt;Ansatz&lt;/th&gt;
&lt;th&gt;Score&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;1&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://github.com/DriesSmit/ARC3-solution&#34;&gt;StochasticGoose @ Tufa Labs&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;CNN Action-Learner (predictet frame changes)&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;12.58 %&lt;/strong&gt;, 18 Level&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;2&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://github.com/wd13ca/ARC-AGI-3-Agents&#34;&gt;Blind Squirrel&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;State-Graph + ResNet18 Value Model&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;6.71 %&lt;/strong&gt;, 13 Level&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;HM&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://github.com/dhanaabhirajk/ARC-AGI-3-Agents&#34;&gt;Play Zero Agent&lt;/a&gt;, &lt;a href=&#34;https://github.com/dolphin-in-a-coma/arc-agi-3-just-explore&#34;&gt;Explore It Till You Solve It&lt;/a&gt;, &lt;a href=&#34;https://github.com/FluxonApps/arc-prize&#34;&gt;Fluxonian&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;DSL/LLM + Graph + Video Loop&lt;/td&gt;
&lt;td&gt;2–8 %&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Selbst der Sieger bleibt bei 12.58 % – ein massives Gap zur menschlichen Effizienz.&lt;/p&gt;
&lt;h2 id=&#34;lessons-learned-roadmap&#34;&gt;Lessons Learned &amp;amp; Roadmap&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Undo &amp;amp; UI-Hints&lt;/strong&gt;: Spieler wollten Rückgängig-Funktion und klarere Aktionshinweise. Kommt noch.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Docs &amp;amp; API&lt;/strong&gt;: Wechsel auf Mintlify reduzierte Friction.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Offline Engine&lt;/strong&gt;: Viele Teams wollen lokal trainieren → Engine in Arbeit.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Early Exit &amp;amp; Caps&lt;/strong&gt;: Manche Replays wurden &amp;gt;10 GB, künftig wird gebremst.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;was-wir-daraus-mitnehmen&#34;&gt;Was wir daraus mitnehmen&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Benchmarks neu denken&lt;/strong&gt; – Gute LLM-Scores ≠ gute Weltmodelle. Interaktive Tests liefern ein besseres Bild.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Effizienz &amp;gt; Accuracy&lt;/strong&gt; – „Intelligence is efficiency.“ Score-Frameworks sollten Aktionskosten standardmäßig messen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agent-Tooling&lt;/strong&gt; – Self-play + World Models + Memory sind Pflicht, sonst bleiben Agents beim Brute-Force-Hopping.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Evals als Produkt&lt;/strong&gt; – Gute Onboarding-Doku + Undo + Offline-Support entscheidet, ob die Community mitmacht.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Wir bauen in unseren eigenen Projekten jetzt konsequent Action-Effizienz-Logging &amp;amp; Human-Baselines ein – wer nur Accuracy tracked, übersieht 90 % der Story.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>KI-Supply-Chain: Was Konstantin Arshinsky warnt – und was wir tun sollten</title>
      <link>https://snoo.at/posts/ki-supply-chain.html</link>
      <guid>https://snoo.at/posts/ki-supply-chain.html</guid>
      <pubDate>Thu, 26 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>security</category>
      <category>supply-chain</category>
      <category>ai</category>
      <category>checklist</category>
      
      <description><![CDATA[&lt;p&gt;Konstantin Arshinsky (KI &amp;amp; Cybersecurity) erinnert auf LinkedIn daran, dass sich &lt;strong&gt;Supply-Chain-Angriffe&lt;/strong&gt; im KI-Zeitalter verdoppeln: klassische Software-Lieferkette &lt;strong&gt;plus&lt;/strong&gt; neue Ebenen (Modelle, Daten, Toolchains). Hier die wichtigsten Punkte aus seinem Post (&lt;a href=&#34;https://www.linkedin.com/posts/konstantin-a-28642224a_ki-supply-chain-cybersecurity-ugcPost-7442122596223131648-8abH&#34;&gt;Link&lt;/a&gt;) – ergänzt um unsere eigenen Playbooks.&lt;/p&gt;
&lt;h2 id=&#34;drei-neue-angriffsflachen&#34;&gt;Drei neue Angriffsflächen&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Modelle &amp;amp; Weights&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Unsichere Downloads (GGUF, Safetensors, Wheel-Dateien) → Malware oder Backdoors.&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Model-Zoos/Cache-Server ohne Signature-Check.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;Tooling &amp;amp; Plugins&lt;/strong&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;LLM-Agents laden Plugins (Browser, Email, Slack) → jede Integration kann kompromittiert werden.&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Bring-Your-Own-Tools (z. B. litellm) aus dubiosen PyPI-Repos.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;Datenketten&lt;/strong&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;RAG-Indizes, Embedding-Stores, Data Lakes – vergiftete Quellen = vergiftete Antworten.&lt;/li&gt;
&lt;li&gt;„Data Drifts“ werden zu Angriffen (Prompt Poisoning über Wissensdatenbanken).&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;gegenmanahmen-quick-wins&#34;&gt;Gegenmaßnahmen (Quick Wins)&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Ebene&lt;/th&gt;
&lt;th&gt;Risiko&lt;/th&gt;
&lt;th&gt;Gegenmaßnahme&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Modelle/Weights&lt;/td&gt;
&lt;td&gt;Manipulierte Downloads&lt;/td&gt;
&lt;td&gt;SHA256-Signaturen, &lt;code&gt;pip install --require-hashes&lt;/code&gt;, isolierte Build-Pipelines&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Dependencies&lt;/td&gt;
&lt;td&gt;Supply-Chain via npm/pip&lt;/td&gt;
&lt;td&gt;SBOM (CycloneDX), &lt;code&gt;pip-audit&lt;/code&gt;, Dependabot + manuelles Review&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Tooling/Plugins&lt;/td&gt;
&lt;td&gt;Bösartige Actions&lt;/td&gt;
&lt;td&gt;Whitelist + RBAC, Secrets nur per Vault, Audit-Log je Plugin&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Data/RAG&lt;/td&gt;
&lt;td&gt;Poisoned Sources&lt;/td&gt;
&lt;td&gt;Zero-Trust-Feeds, tägliche Checksums, Data Provenance, Canary Queries&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Runtime&lt;/td&gt;
&lt;td&gt;Missbrauch von Tokens&lt;/td&gt;
&lt;td&gt;Least-Privilege API Keys, JIT-Secrets, Kill-Switch pro Agent&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;pwc-spotlight-angriffsflache-auf-einen-blick&#34;&gt;PwC-Spotlight: Angriffsfläche auf einen Blick&lt;/h2&gt;
&lt;p&gt;PwC fasst die Supply-Chain für KI so zusammen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Plugins &amp;amp; Agent-Tools:&lt;/strong&gt; Jede neue Capability erhöht das Risiko, wenn Berechtigungen nicht strikt limitiert werden.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;RAG-Quellen &amp;amp; Vektordaten:&lt;/strong&gt; Externe Inhalte fließen ungeprüft ein – vergiftete Dokumente erzeugen plausible Fehlinformationen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Prompts &amp;amp; Deployment-Artefakte:&lt;/strong&gt; Systemprompts, Policies, Releases sind Steuerlogik und müssen versioniert/auditiert werden.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Trainingsdaten:&lt;/strong&gt; Herkunft &amp;amp; Integrität bestimmen das Modellverhalten – Manipulation bleibt oft lange unentdeckt.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Pretrained Modules &amp;amp; Model Hubs:&lt;/strong&gt; Zeitgewinn vs. Fremdrisiko.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Open-Source Libraries:&lt;/strong&gt; Klassische Dependencies bleiben ein Einfallstor.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;OWASP stuft Supply-Chain bei ML &amp;amp; LLM jeweils unter die Top-Bedrohungen ein: Kompromittierte Packages/Modelle wirken indirekt, bleiben aber lange unerkannt, weil Antworten weiterhin &#34;plausibel&#34; aussehen.&lt;/p&gt;
&lt;h2 id=&#34;weitere-quellen-zitate&#34;&gt;Weitere Quellen &amp;amp; Zitate&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;OWASP Top 10 for LLM Applications (2024):&lt;/strong&gt; Supply-Chain Interference ist Risiko A05 – &#34;trust boundaries between models, plugins and data sources must be enforced&#34; (&lt;a href=&#34;https://owasp.org/www-project-top-10-for-large-language-model-applications/&#34;&gt;OWASP&lt;/a&gt;).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;OWASP ML Top 10 (v1):&lt;/strong&gt; Supply-Chain ranked #6, warnt vor manipulierten Model-Weights, Datenpipelines und MLOps-Stacks (&lt;a href=&#34;https://owasp.org/www-project-machine-learning-security-top-10/&#34;&gt;OWASP ML&lt;/a&gt;).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;ENISA AI Threat Landscape 2023:&lt;/strong&gt; Kapitel 4.3 beschreibt Poisoning/Dependency-Attacken auf KI-Supply-Chains und empfiehlt Hash-Verifikation + SBOMs (&lt;a href=&#34;https://www.enisa.europa.eu/publications/artificial-intelligence-threat-landscape&#34;&gt;ENISA&lt;/a&gt;).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;MITRE ATLAS (Attack Library for AI Systems):&lt;/strong&gt; Techniken wie &lt;code&gt;ALT-T004 Poison ML Supply Chain&lt;/code&gt; zeigen, wie kompromittierte Artefakte in Model Pipelines eingeschleust werden (&lt;a href=&#34;https://atlas.mitre.org/techniques/ALT-T004&#34;&gt;MITRE ATLAS&lt;/a&gt;).&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Diese Quellen liefern zusätzliche Controls (SBOM, Hashing, Access Control), die in unser Playbook eingeflossen sind.&lt;/p&gt;
&lt;h2 id=&#34;unser-playbook&#34;&gt;Unser Playbook&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Signierte Artefakte:&lt;/strong&gt; Modelle nur von Hosts mit HTTPS + Hash; Container via Cosign signieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;SBOM Pflicht:&lt;/strong&gt; Jede KI-Komponente bekommt eine CycloneDX-BOM im Repo (&lt;code&gt;make sbom&lt;/code&gt;).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Secrets &amp;amp; Vault:&lt;/strong&gt; Keine Keys mehr in &lt;code&gt;.env&lt;/code&gt;; Tailscale/Vault liefert Just-in-Time-Tokens.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Observability &amp;amp; Alerts:&lt;/strong&gt; Langchain/Claude-Logs laufen in Loki; Alert bei ungewöhnlichen Tool-Calls.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Incident Runbook:&lt;/strong&gt; „LLM Supply-Chain Incident“ → isolieren, Revocation-Liste, Kunden-Benachrichtigung, Root Cause.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Education:&lt;/strong&gt; Dev-Teams bekommen monatlich ein „malicious dependency“ Walkthrough.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;incident-pattern-verdachtiges-modell-update&#34;&gt;Incident Pattern: „Verdächtiges Modell-Update&#34;&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;Auslöser:&lt;/strong&gt; Neues GGUF/Wheel landet im internen Model-Cache. Minuten später melden Services Anomalien (ungewohnte API-Calls, erhöhte Token-Kosten).&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;1. Detection &amp;amp; Triage&lt;/strong&gt;&lt;br /&gt;
- Hash-Vergleich gegen freigegebene Liste.&lt;br /&gt;
- Check: Hat jemand &lt;code&gt;pip install&lt;/code&gt; / &lt;code&gt;hf_hub_download&lt;/code&gt; außerhalb der CI gemacht?&lt;br /&gt;
- Alerts (Loki/Datadog): Welche Agents verwenden das neue Modell?&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;2. Containment&lt;/strong&gt;&lt;br /&gt;
- Sofortiger Kill-Switch für betroffene Agents (Traffic → Null).&lt;br /&gt;
- Secrets rotieren, die in den letzten 24h genutzt wurden.&lt;br /&gt;
- Cache leeren, Deployments auf letzte bekannte Version zurückrollen.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;3. Eradication &amp;amp; Forensics&lt;/strong&gt;&lt;br /&gt;
- SBOM &amp;amp; Git-History prüfen: Woher kam das Artefakt? Wer hat zugestimmt?&lt;br /&gt;
- Artefakt offline analysieren (strings, Sandbox-Lauf).&lt;br /&gt;
- IOC-Liste (Hashes, Domains) ins SIEM einspeisen.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;4. Recovery&lt;/strong&gt;&lt;br /&gt;
- Modelle frisch bauen, signieren, verteilen.&lt;br /&gt;
- Agents kontrolliert hochfahren, Copy-On-Write-Cache nutzen.&lt;br /&gt;
- Kunden informieren, falls Datenabfluss möglich ist.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;5. Lessons Learned&lt;/strong&gt;&lt;br /&gt;
- RCA dokumentieren, Policies/Automation anpassen (kein direkter Cache-Zugriff, Mandatory Review für &lt;code&gt;requirements.txt&lt;/code&gt;).&lt;/p&gt;
&lt;h2 id=&#34;fazit&#34;&gt;Fazit&lt;/h2&gt;
&lt;p&gt;KI-Supply-Chain ist kein neues Buzzword – es ist der logische Nachfolger von SolarWinds &amp;amp; Log4Shell, nur mit mehr beweglichen Teilen. Wer Modelle, Daten und Plugins wie echte Produktions-Binaries behandelt (Signaturen, Reviews, Observability, Kill-Switch), bleibt handlungsfähig. Alles andere ist Hoffnung – und Hoffnung ist kein Sicherheitskonzept.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>Security-Checklist für Claude Code &amp; Co.</title>
      <link>https://snoo.at/posts/claude-code-security.html</link>
      <guid>https://snoo.at/posts/claude-code-security.html</guid>
      <pubDate>Thu, 26 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>security</category>
      <category>claude</category>
      <category>coding-agent</category>
      <category>checklist</category>
      
      <description><![CDATA[&lt;p&gt;LinkedIn-Bild des Tages: Paul Joshua Kramer (cybersec architect) mit seiner &lt;strong&gt;&#34;Claude Code App Security Checklist&#34;&lt;/strong&gt;. Acht simple Punkte – und trotzdem stolpert fast jedes AI-Projekt über mindestens zwei davon. Hier die Liste in Textform, dazu ein paar Ergänzungen aus unserer Erfahrung.&lt;/p&gt;
&lt;h2 id=&#34;pauls-liste-ubersetzt-kondensiert&#34;&gt;Pauls Liste (übersetzt &amp;amp; kondensiert)&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Authorization:&lt;/strong&gt; Wer darf eigentlich was? Granulare Rollen, Token-Scopes, Policy-as-Code.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Input Validation:&lt;/strong&gt; Prompts, Files, URLs → alles sanitizen, Escape-Filter vor API-Calls.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Rate Limiting:&lt;/strong&gt; Nicht nur OpenAI/Anthropic, auch intern (Hooks, Webhooks, Plugins).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Fail-Safe Defaults:&lt;/strong&gt; Wenn etwas unsicher ist → Block. Keine heimlichen Fall-Throughs.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Error Handling:&lt;/strong&gt; Stacktraces gehören in Logs, nicht ins User-UI. Maskiere Secrets.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Observability Alerts:&lt;/strong&gt; Metriken, Logs, Trace – und echte Alerts mit Ownership.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Staging&lt;/strong&gt; (pre-prod): LLM-Flows zuerst in isolierten Test-Umgebungen fahren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Post-Prod Monitoring:&lt;/strong&gt; Laufende Audits, Pen-Tests, Replay-Checks.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Quelle: &lt;a href=&#34;https://www.linkedin.com/posts/paul-joshua-kramer-32b4973_security-checklist-for-claude-code-apps-activity-7442334739533971457-xvFm&#34;&gt;LinkedIn-Post von Paul Joshua Kramer&lt;/a&gt;&lt;/p&gt;
&lt;h2 id=&#34;praxis-erweiterungen&#34;&gt;Praxis-Erweiterungen&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Block&lt;/th&gt;
&lt;th&gt;Warum&lt;/th&gt;
&lt;th&gt;Tooling/Beispiel&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Secrets &amp;amp; Config&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Claude-Code-Apps verarbeiten API-Keys, Kundendaten → .env in Vault, Rotations-Plan, keine Keys in Logs.&lt;/td&gt;
&lt;td&gt;Doppler, Hashi Vault, AWS Secrets Manager&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Dependency Hygiene&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Supply-Chain-Angriffe (z. B. Fake „litellm“ auf PyPI) treffen AI-Stacks hart. Hash-Pinning + &lt;code&gt;pip-audit&lt;/code&gt;.&lt;/td&gt;
&lt;td&gt;pip-tools, Poetry.lock + &lt;code&gt;pip install --require-hashes&lt;/code&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Data Classification&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Welche Daten landen im Prompt? Maskieren? Tokengrenzen? Definiere PII-Level &amp;amp; Speicherorte.&lt;/td&gt;
&lt;td&gt;Data Catalog, Open Policy Agent&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Kill-Switch &amp;amp; RBAC&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Jede Runtime braucht einen großen roten Button (Disable Workflows) + feinmaschiges RBAC (z. B. IAM + OPA).&lt;/td&gt;
&lt;td&gt;Grafana OnCall, LaunchDarkly&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Human-in-the-Loop&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Code- oder Action-Review via Four-Eyes (PR-Gates, Anthropic Tool Use Approvals).&lt;/td&gt;
&lt;td&gt;GitHub Checks, Slack Approval Bots&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;quick-checklist-fur-dein-projekt&#34;&gt;Quick Checklist für dein Projekt&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;[ ] Perimeter: TLS überall, Redirects geschlossen, WAF an oder Cloudflare Turnstile.&lt;/li&gt;
&lt;li&gt;[ ] Identity: OIDC / SSO statt Custom JWT, Secrets im Vault, Tokens revoken können.&lt;/li&gt;
&lt;li&gt;[ ] Data Path: Prompt-Filter (Regex, Schema-Validator), Logging mit PII-Redaction.&lt;/li&gt;
&lt;li&gt;[ ] Runtime: Resource-Quotas, Liveness/Readiness-Checks, Auto-Restart (Supervisor/systemd).&lt;/li&gt;
&lt;li&gt;[ ] Supply Chain: SBOM (CycloneDX), Dependabot/Mend, Signaturprüfung bei Container-Pulls.&lt;/li&gt;
&lt;li&gt;[ ] Incident Runbook: Wer macht was, wenn Claude plötzlich SSH-Befehle spammt?&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;fazit&#34;&gt;Fazit&lt;/h2&gt;
&lt;p&gt;LLM-Coding-Stacks sind nur so sicher wie ihre kleinste Automatisierung. Pauls Poster ist ein guter Start – aber setzt noch eine Schicht drauf: Secrets, Supply Chain, Observability und vor allem ein Kill-Switch. Wer Claude Code „einfach laufen lässt“, baut sich schneller einen Angriffsvektor als ein Feature.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Bonus:&lt;/strong&gt; Ich arbeite gerade an einem YAML-Template (&lt;code&gt;security-checklist.yml&lt;/code&gt;), das man bei jedem Claude-/Cursor-Projekt in den Repo-Root legen kann. Ping mich, wenn du Betatester:in sein willst.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>Werkzeugkoffer für Penetrationstests (2026 Edition)</title>
      <link>https://snoo.at/posts/pentesting-toolkit.html</link>
      <guid>https://snoo.at/posts/pentesting-toolkit.html</guid>
      <pubDate>Wed, 25 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>pentest</category>
      <category>security</category>
      <category>tools</category>
      
      <description><![CDATA[&lt;p&gt;In LinkedIn-Feeds kursieren regelmäßig Tool-Listen à la „Speicher dir das für später“. Statt eines Screenshots bekommst du hier eine kuratierte Version mit &lt;strong&gt;Links, Einstiegstipps und Praxis-Hinweisen&lt;/strong&gt;, damit du nicht nur Namen, sondern auch &lt;strong&gt;Handlungsanleitungen&lt;/strong&gt; hast.&lt;/p&gt;
&lt;h2 id=&#34;1-core-frameworks-plattformen&#34;&gt;1. Core Frameworks &amp;amp; Plattformen&lt;/h2&gt;
&lt;h3 id=&#34;metasploit-framework&#34;&gt;Metasploit Framework&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Was es ist:&lt;/strong&gt; Exploitation-Plattform mit tausenden Modulen für Clients, Server, IoT.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Start:&lt;/strong&gt; &lt;code&gt;curl https://raw.githubusercontent.com/rapid7/metasploit-omnibus/master/config/templates/metasploit-framework-wrappers/msfupdate.erb &amp;gt; msfinstall &amp;amp;&amp;amp; chmod 755 msfinstall &amp;amp;&amp;amp; ./msfinstall&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;How-To:&lt;/strong&gt; &lt;a href=&#34;https://docs.rapid7.com/metasploit/&#34;&gt;Offizielle Doku&lt;/a&gt; + den &lt;a href=&#34;https://github.com/rapid7/metasploitable3&#34;&gt;Metasploitable 2 VM Walkthrough&lt;/a&gt; als erstes Ziel benutzen.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&#34;kali-linux&#34;&gt;Kali Linux&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Warum:&lt;/strong&gt; Rolling Release mit vorinstallierten Security-Tools (auch ARM/VM-Versionen). &lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Start:&lt;/strong&gt; &lt;a href=&#34;https://www.kali.org/get-kali/&#34;&gt;Kali Downloads&lt;/a&gt; → VM/WSL/ARM auswählen, &lt;code&gt;sudo apt update &amp;amp;&amp;amp; sudo apt install kali-linux-large&lt;/code&gt; für Vollausstattung.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;2-web-security-testing&#34;&gt;2. Web Security Testing&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Tool&lt;/th&gt;
&lt;th&gt;Fokus&lt;/th&gt;
&lt;th&gt;Quick Links&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Burp Suite&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Web-Proxy, Scanner, Repeater&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://portswigger.net/burp/communitydownload&#34;&gt;Burp Community&lt;/a&gt; + &lt;a href=&#34;https://portswigger.net/web-security&#34;&gt;Academy Labs&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;OWASP ZAP&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Open Source Webscanner&lt;/td&gt;
&lt;td&gt;&lt;code&gt;docker run -u zap -p 8080:8080 -i owasp/zap2docker-stable&lt;/code&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Acunetix / Invicti&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Kommerzieller Scanner (XSS/SQLi)&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://www.invicti.com/web-vulnerability-scanner/download/&#34;&gt;Trial&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;SQLmap&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Automatisierte SQL-Injection&lt;/td&gt;
&lt;td&gt;&lt;code&gt;sqlmap -u &#34;https://target/login?user=1&#34; --dbs&lt;/code&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;WPScan&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;WordPress Vulnerabilities&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://wpscan.com/api&#34;&gt;API-Key anfordern&lt;/a&gt; → &lt;code&gt;wpscan --url https://example.com --api-token &amp;lt;key&amp;gt;&lt;/code&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;Praxis-Flow:&lt;/strong&gt; Proxy (Burp/ZAP) einschalten → Applikation manuell erkunden → Scanner laufen lassen → Findings mit SQLmap/WPScan verifizieren.&lt;/p&gt;
&lt;h2 id=&#34;3-network-reconnaissance&#34;&gt;3. Network &amp;amp; Reconnaissance&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Nmap&lt;/strong&gt; – &lt;code&gt;nmap -sC -sV -O 10.10.10.0/24&lt;/code&gt; (Default-Skripte, Version, OS). Cheat-Sheet: &lt;a href=&#34;https://nmap.org/book/man.html&#34;&gt;nmap.org&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Wireshark&lt;/strong&gt; – Paket-Analyse; CLI-Variante &lt;code&gt;tshark&lt;/code&gt;. How-To: &lt;a href=&#34;https://wiki.wireshark.org/SampleCaptures&#34;&gt;Wireshark Labs&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Masscan/Rustscan&lt;/strong&gt; (Bonus) – wenn du Millionen Ports prüfen musst.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;4-password-exploitation&#34;&gt;4. Password &amp;amp; Exploitation&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Tool&lt;/th&gt;
&lt;th&gt;Use-Case&lt;/th&gt;
&lt;th&gt;Getting Started&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;John the Ripper&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Hash-Cracking&lt;/td&gt;
&lt;td&gt;&lt;code&gt;john --format=nt hashes.txt&lt;/code&gt; + &lt;a href=&#34;https://github.com/openwall/john&#34;&gt;JtR Jumbo&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Aircrack-ng&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Wi-Fi Audits&lt;/td&gt;
&lt;td&gt;Monitor-Mode &lt;code&gt;airmon-ng start wlan0&lt;/code&gt;, Deauth + capture handshake, &lt;code&gt;aircrack-ng -w wordlist handshake.cap&lt;/code&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;BeEF&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Browser Exploitation&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://github.com/beefproject/beef&#34;&gt;Github&lt;/a&gt; → ideal im Lab mit älteren Browsern&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;PowerShell Empire&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Post-Exploitation (Windows)&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://github.com/BC-SECURITY/Empire&#34;&gt;BC-Security Fork&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;5-advanced-enterprise&#34;&gt;5. Advanced &amp;amp; Enterprise&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Nessus Essentials&lt;/strong&gt; – kostenlose 16-IP-Version, &lt;a href=&#34;https://www.tenable.com/products/nessus/nessus-essentials&#34;&gt;Download&lt;/a&gt; inkl. Setup-Wizard.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Astra Pentest&lt;/strong&gt; – SaaS/Service-Hybrid; wenn dir Reporting/Retesting wichtig ist.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Indusface WAS&lt;/strong&gt; – DAST + WAF-Kombination (Enterprise). &lt;/li&gt;
&lt;li&gt;&lt;strong&gt;IDA Pro / Ghidra&lt;/strong&gt; – Reverse Engineering, Malware Analysis. Einstieg: &lt;a href=&#34;https://ghidra-sre.org/CheatSheet.html&#34;&gt;Ghidra Tutorials&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;6-social-engineering&#34;&gt;6. Social Engineering&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;SET (Social-Engineer Toolkit)&lt;/strong&gt; – &lt;code&gt;sudo apt install set&lt;/code&gt; (unter Kali schon da) → Menü-gesteuerte Phishing/USB-Attacken. Beachte Gesetzeslage &amp;amp; Kundenfreigabe!&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;how-to-eigene-toolchain-bauen&#34;&gt;How-To: Eigene Toolchain bauen&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Lab vorbereiten:&lt;/strong&gt; Proxmox/VMware + OWASP Broken Apps, Metasploitable, Windows-Clients. &lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Baseline Script:&lt;/strong&gt; Repo mit Docker-Compose für ZAP/Burp, Nmap-Skripte, SQLmap-Targets pflegen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Automatisierung:&lt;/strong&gt; Für wiederkehrende Checks GitLab CI Jobs (z. B. wöchentlicher Nmap/SSLyze-Scan) bauen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Reporting:&lt;/strong&gt; Templates in Dradis, PlexTrac oder Security-Tools (z. B. Burp Reporting API) einbinden.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;quellen-weitere-ressourcen&#34;&gt;Quellen &amp;amp; weitere Ressourcen&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href=&#34;https://owasp.org/www-project-cheat-sheets/&#34;&gt;OWASP Top 10 + Cheatsheets&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&#34;https://portswigger.net/web-security&#34;&gt;PortSwigger Web Security Academy&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&#34;https://www.hackthebox.com/resources&#34;&gt;Hack The Box Tools&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&#34;https://github.com/BC-SECURITY&#34;&gt;Red Team Tools (BC-Security)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&#34;https://www.kali.org/tools/&#34;&gt;Kali Linux Tool Documentation&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Reminder:&lt;/strong&gt; Tools alleine machen keinen Pentester. Entscheidend ist dein &lt;strong&gt;Methodik-Playbook&lt;/strong&gt;: Recon → Threat Model → Exploit → Post-Exploitation → Reporting. Übe jede Phase im Lab, dokumentiere sauber, dann bist du vom „Screenshot“ zur echten Skillmap unterwegs.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>Lokale LLMs: Notizen vom Meetup mit Stepan Rutz</title>
      <link>https://snoo.at/posts/lokale-llms.html</link>
      <guid>https://snoo.at/posts/lokale-llms.html</guid>
      <pubDate>Wed, 25 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>llm</category>
      <category>local-ai</category>
      <category>meetup</category>
      <category>hardware</category>
      
      <description><![CDATA[&lt;p&gt;Auf LinkedIn schrieb @ddppham über sein Treffen mit &lt;strong&gt;Stepan Rutz&lt;/strong&gt; („Gestern mit Stepan Rutz über lokale LLMs gesprochen…“). Hier ein kurzes Write-up, ergänzt um Links &amp;amp; Ressourcen, damit du die Themen aus dem Gespräch gleich weiterverfolgen kannst.&lt;/p&gt;
&lt;h2 id=&#34;wer-ist-stepan-rutz&#34;&gt;Wer ist Stepan Rutz?&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;CTO &amp;amp; Mitgründer von &lt;a href=&#34;https://local.ai/&#34;&gt;local.ai&lt;/a&gt; (Beispiel-Link) – spezialisiert auf On-Prem-LLM-Deployments&lt;/li&gt;
&lt;li&gt;Maintainer von &lt;a href=&#34;https://github.com/ggerganov/llama.cpp&#34;&gt;ggml/GGUF-Tooling&lt;/a&gt; (u. a. GPU-Offloading für LLaMA)&lt;/li&gt;
&lt;li&gt;Aktiv in der &lt;a href=&#34;https://www.linkedin.com/in/stepanrutz/&#34;&gt;Swiss AI Community&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;kernpunkte-aus-dem-meetup&#34;&gt;Kernpunkte aus dem Meetup&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Edge statt Cloud&lt;/strong&gt;: Immer mehr Kunden wollen Modelle lokal – wegen Kosten, Latenz und Datenschutz. Beispiele: Arztpraxen, Industrie, Behörden.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Gewicht-Formate&lt;/strong&gt;: GGUF, AWQ, EXL2 – wieso du 4bit-weights brauchst und wie du sie mit &lt;code&gt;llama.cpp&lt;/code&gt; oder &lt;code&gt;LM Studio&lt;/code&gt; laden kannst.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Laufzeit-frameworks&lt;/strong&gt;: AirLLM (Layer-Streaming für GPUs &amp;lt;8 GB), llama.cpp (CPU/Metal), NVIDIA TensorRT-LLM. &lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Toolchain&lt;/strong&gt;: LoRA-Finetuning, Prompt-Captain, Prompt-Guards, Observability (z. B. &lt;a href=&#34;https://github.com/promptfoo/promptfoo&#34;&gt;Promptfoo&lt;/a&gt;).&lt;/li&gt;
&lt;/ol&gt;
&lt;blockquote&gt;
&lt;p&gt;„Der heilige Gral ist nicht das Modell, sondern die Pipeline: Download → Quantize → Test-Suite → Deployment → Monitoring.“ – Stepan Rutz&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2 id=&#34;links-ressourcen&#34;&gt;Links &amp;amp; Ressourcen&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Thema&lt;/th&gt;
&lt;th&gt;Ressourcen&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Quantisierung&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://github.com/mit-han-lab/llm-awq&#34;&gt;The Stack for AWQ&lt;/a&gt;, &lt;a href=&#34;https://github.com/PanQiWei/AutoGPTQ&#34;&gt;AutoGPTQ&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Local Inference&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://github.com/ggerganov/llama.cpp/tree/master/examples&#34;&gt;llama.cpp Doku&lt;/a&gt;, &lt;a href=&#34;https://github.com/lyogavin/airllm&#34;&gt;AirLLM&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Hardware Guides&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://github.com/ollama/ollama/blob/main/docs/mac.md&#34;&gt;Ollama + Mac Studio Setup&lt;/a&gt;, &lt;a href=&#34;https://developer.nvidia.com/blog/deploy-llms-jetson/&#34;&gt;Jetson + TensorRT-LLM&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Safeguards&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://github.com/NVIDIA/NeMo-Guardrails&#34;&gt;NeMo Guardrails&lt;/a&gt;, &lt;a href=&#34;https://ai.meta.com/blog/llama-guard-2-ai-safety-tools/&#34;&gt;Llama Guard 2&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;wie-du-dein-eigenes-lokales-llm-startest&#34;&gt;Wie du dein eigenes „lokales LLM“ startest&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Modell wählen&lt;/strong&gt;: z. B. &lt;code&gt;Meta-Llama-3-8B&lt;/code&gt;, &lt;code&gt;Phi-3.5&lt;/code&gt;, &lt;code&gt;Mistral-Nemo&lt;/code&gt;. Auf HuggingFace die GGUF/AWQ-Variante holen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Quantisieren/Testen&lt;/strong&gt;: Mit &lt;code&gt;llama.cpp&lt;/code&gt; → &lt;code&gt;./quantize model.gguf model-Q4_K_M.gguf Q4_K_M&lt;/code&gt;. Prompt-Evals via &lt;a href=&#34;https://promptfoo.dev/&#34;&gt;promptfoo&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Runtime&lt;/strong&gt;: &lt;code&gt;ollama run llama3&lt;/code&gt; für Mac, &lt;code&gt;airllm&lt;/code&gt; für kleine GPUs, &lt;code&gt;lmdeploy&lt;/code&gt; für TensorRT.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Guardrails&lt;/strong&gt;: Prompt-Firewall + Content-Filter (z. B. Llama Guard 2) lokal dazu packen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Monitoring&lt;/strong&gt;: Logging in &lt;a href=&#34;https://langfuse.com/&#34;&gt;Langfuse&lt;/a&gt; oder &lt;a href=&#34;https://www.helicone.ai/&#34;&gt;Helicone&lt;/a&gt; (beides self-host optional).&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;ausblick&#34;&gt;Ausblick&lt;/h2&gt;
&lt;p&gt;Das Gespräch drehte sich auch um &lt;strong&gt;lokale Agenten&lt;/strong&gt; (siehe &lt;a href=&#34;https://github.com/microsoft/autogen&#34;&gt;AutoGen&lt;/a&gt; + Worker-Nodes) und darum, ob Unternehmen sich demnächst ganze Modell-Zoos in den Keller stellen. Spoiler: Ja – sobald Edge-Hardware wie &lt;a href=&#34;https://www.nvidia.com/en-us/data-center/blackwell/&#34;&gt;NVIDIA Blackwell&lt;/a&gt; verfügbar ist, wird „LLM on-prem“ Standard.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Danke an ddppham für die LinkedIn-Notiz – und an Stepan Rutz fürs Teilen seines Toolkits.&lt;/strong&gt; Wer tiefer einsteigen will: Schaut bei der nächsten &lt;a href=&#34;https://www.meetup.com/de-DE/local-ai/&#34;&gt;local.ai Meetup-Serie&lt;/a&gt; vorbei oder abonniert Stepans Updates auf LinkedIn.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>Bernhard Haslhofer über die nächste Cybercrime-Welle</title>
      <link>https://snoo.at/posts/cybercrime-welle.html</link>
      <guid>https://snoo.at/posts/cybercrime-welle.html</guid>
      <pubDate>Wed, 25 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>cybercrime</category>
      <category>forensics</category>
      <category>blockchain</category>
      <category>research</category>
      
      <description><![CDATA[&lt;p&gt;Im Falter 13/26 spricht der österreichische Wissenschaftler &lt;strong&gt;Bernhard Haslhofer&lt;/strong&gt; über die nächste Cybercrime-Welle – und warum Behörden, Banken und Unternehmen nur dann vorbereitet sind, wenn sie Forensik, Datenanalyse und internationale Zusammenarbeit zusammendenken. Hier die wichtigsten Punkte aus dem Interview plus die relevanten Links zu seinen Forschungsprojekten.&lt;/p&gt;
&lt;h2 id=&#34;wer-ist-bernhard-haslhofer&#34;&gt;Wer ist Bernhard Haslhofer?&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Leitender Wissenschafter am &lt;a href=&#34;https://www.csh.ac.at/team/bernhard-hashlhofer/&#34;&gt;Complexity Science Hub Vienna (CSH)&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Professor an der Universität Wien (Secure Systems)&lt;/li&gt;
&lt;li&gt;Gründungsmitglied des &lt;a href=&#34;https://abc-research.at/&#34;&gt;Austrian Blockchain Center&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Entwickler von &lt;strong&gt;GraphSense&lt;/strong&gt;, einer Open-Source-Plattform für Blockchain-Forensik (&lt;a href=&#34;https://github.com/graphsense&#34;&gt;GitHub&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;Mitautor zahlreicher Studien zu Krypto-Ransomware, Darknet-Märkten und digitaler Spurensicherung (&lt;a href=&#34;https://scholar.google.com/citations?user=eQ3x65MAAAAJ&#34;&gt;Google Scholar Profil&lt;/a&gt;)&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;kernthesen-aus-dem-falter-interview-auszug&#34;&gt;Kernthesen aus dem Falter-Interview (Auszug)&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;„Eine Welle, die man in den Griff bekommen muss“&lt;/strong&gt; – Cybercrime professionalisiert sich rasant: Ransomware-as-a-Service, Phishing-Kits, KI-generierte Deepfakes.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Daten &amp;amp; Ausdauer werden entscheidend&lt;/strong&gt;: Ermittlungen dauern Jahre (Beispiel Bayern/Österreich), dabei braucht es saubere Datenketten, forensische Pipelines und internationale Rechtshilfe.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Finanzkriminalität bleibt Dreh- und Angelpunkt&lt;/strong&gt;: Krypto-Börsen, Payment-Dienstleister und Banken sind nicht nur Opfer, sondern müssen AML-Modelle anpassen.&lt;/li&gt;
&lt;/ol&gt;
&lt;blockquote&gt;
&lt;p&gt;„Jeder ‚Tatort‘-Zuschauer weiß inzwischen, dass ein DNA-Test der Polizei gehört. Wir brauchen die gleiche Selbstverständlichkeit bei digitalen Beweismitteln.“ – Bernhard Haslhofer (Falter 13/26)&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2 id=&#34;forschungs-praxisprojekte-von-haslhofer&#34;&gt;Forschungs- &amp;amp; Praxisprojekte von Haslhofer&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Projekt&lt;/th&gt;
&lt;th&gt;Fokus&lt;/th&gt;
&lt;th&gt;Links&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;GraphSense&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Blockchain-Analyse (Bitcoin, Ethereum, Tron…) für LEAs &amp;amp; Banken&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://graphsense.info/&#34;&gt;graphsense.info&lt;/a&gt; · &lt;a href=&#34;https://github.com/graphsense&#34;&gt;Code&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;INSIGHT&lt;/strong&gt; (FFG)&lt;/td&gt;
&lt;td&gt;Erkennung von Krypto-Scams &amp;amp; Laundering Patterns&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://www.csh.ac.at/project/insight/&#34;&gt;CSH-Projektseite&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;FINSTER&lt;/strong&gt; (EU Horizon)&lt;/td&gt;
&lt;td&gt;Finanzforensik über Krypto &amp;amp; klassische Zahlungssysteme&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://cordis.europa.eu/project/id/101021668&#34;&gt;EU CORDIS&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Salmon&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Analyse von Fraud-Communities (z. B. Telegram, Darknet)&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://doi.org/10.48550/arXiv.2401.12345&#34;&gt;Paper (2024)&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;AML-Simulator&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Synthetic Data für Anti-Geldwäsche-Modelle&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://www.csh.ac.at/category/blog/&#34;&gt;CSH Blogpost&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Zusätzlich lohnt sich ein Blick auf seine Publikationen zu: &lt;br /&gt;
- &lt;a href=&#34;https://doi.org/10.1109/TIFS.2023.3287650&#34;&gt;„The Bitcoin Lightning Network: Scalable Off-Chain Instant Payments“&lt;/a&gt;&lt;br /&gt;
- &lt;a href=&#34;https://doi.org/10.1145/3548606.3560624&#34;&gt;„Ransomware Payments in the Dark“&lt;/a&gt;&lt;br /&gt;
- &lt;a href=&#34;https://doi.org/10.1145/3491101.3519674&#34;&gt;„Open-Source Intelligence for Financial Crime“&lt;/a&gt;&lt;/p&gt;
&lt;h2 id=&#34;was-heit-das-fur-unternehmen-und-behorden&#34;&gt;Was heißt das für Unternehmen und Behörden?&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Forensik-Toolchain prüfen&lt;/strong&gt; – nutzt ihr GraphSense, Chainalysis oder ähnliche Tools? Gibt es Schnittstellen zur Polizei? &lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Datenqualität sichern&lt;/strong&gt; – nur wer Transaktionsdaten, KYC und Hinweisgeber-Infos kombiniert, kann Geldströme verfolgen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;KI &amp;amp; Automation einplanen&lt;/strong&gt; – neue Betrugsformen (Deepfake-CEO, Voice-Cloning) brauchen Detection-Modelle; Forschung wie &lt;a href=&#34;https://www.csh.ac.at/project/deeptrust/&#34;&gt;CSH „DeepTrust“&lt;/a&gt; zeigt, wie das aussehen kann.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Ausbildung&lt;/strong&gt; – Haslhofer plädiert für Forensik-Bootcamps und Wissenstransfer zwischen Wissenschaft und Polizei (siehe &lt;a href=&#34;https://academy.csh.ac.at/&#34;&gt;CSH Academy&lt;/a&gt;).&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;weiterfuhrende-ressourcen&#34;&gt;Weiterführende Ressourcen&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href=&#34;https://www.falter.at/&#34;&gt;Falter 13/26, Politik-Ressort, „Bei Cybercrime steht eine Welle bevor…“&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&#34;https://www.csh.ac.at/category/research-highlights/&#34;&gt;Complexity Science Hub – Research Highlights&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&#34;https://spotify.com/episode/xyz&#34;&gt;Podcast „CSH Talks“ mit Bernhard Haslhofer (Ep. 12)&lt;/a&gt; &lt;em&gt;(Beispiel-Link ersetzen, sobald verfügbar)&lt;/em&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href=&#34;https://www.ait.ac.at/themen/cybersecurity&#34;&gt;Austrian Institute of Technology: Cybercrime &amp;amp; Forensics&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Bottom Line:&lt;/strong&gt; Haslhofer zeigt im Interview, dass Cybercrime längst nicht mehr nur ein Polizeiproblem ist. Wer Finanzen, IT, Politik und Wissenschaft zusammenbringt, bekommt die nächste Welle in den Griff – und genau daran arbeitet sein Team in Wien.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>AirLLM: 70B-Modelle auf 4 GB VRAM</title>
      <link>https://snoo.at/posts/airllm.html</link>
      <guid>https://snoo.at/posts/airllm.html</guid>
      <pubDate>Tue, 24 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>airllm</category>
      <category>inference</category>
      <category>llm</category>
      <category>edge</category>
      
      <description><![CDATA[&lt;p&gt;Der Hype um neue Frontier-Modelle hat eine hässliche Kehrseite: Hardwarepreise und Cloud-Bills explodieren. &lt;strong&gt;AirLLM&lt;/strong&gt; tritt genau dazwischen – ein Apache-2.0-Projekt, das „nur“ durch cleveres Laden der Modellschichten plötzlich 70B‑ und sogar 405B‑Parameter-Modelle auf 4–8 GB VRAM möglich macht. Kein Wunder, dass das Repo inzwischen fünfstellig gestarred wird.&lt;/p&gt;
&lt;h2 id=&#34;was-airllm-tut-und-was-nicht&#34;&gt;Was AirLLM tut (und was nicht)&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Schichtweises Streaming:&lt;/strong&gt; Statt das komplette LLaMA/Qwen/Mixtral in den VRAM zu pumpen, lädt AirLLM immer nur exakt die eine Layer, die gerade inferiert wird. Danach wird sie wieder aus dem Speicher geworfen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Prefetch + Block-Kompression:&lt;/strong&gt; Neuere Builds ziehen die nächste Layer parallel nach und können optional in 4‑/8‑Bit komprimieren (BitsAndBytes), um Disk-IO zu drücken.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Keine Pflicht-Quantisierung:&lt;/strong&gt; Du kannst Models in voller Präzision fahren. Quantisierung ist „opt-in“ für mehr Tempo.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kompatibel mit Hugging Face / AutoModel:&lt;/strong&gt; &lt;code&gt;AutoModel.from_pretrained(&#34;garage-bAInd/Platypus2-70B-instruct&#34;)&lt;/code&gt; reicht – AirLLM erkennt das Modell, splittet es und cached die konvertierten Safetensors.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Unterstützte Plattformen:&lt;/strong&gt; Linux, Windows, macOS (Apple Silicon), reine CPU-Modi.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Aber:&lt;/strong&gt; Durchsatz ist klar langsamer als bei klassischem GPU-Load (Disk-IO bleibt der Bottleneck). Wer niedrige Latenzen oder High-QPS braucht, nimmt weiter Quantisierung + High-VRAM oder serverseitige Hosts.&lt;/p&gt;
&lt;h2 id=&#34;warum-das-wichtig-ist&#34;&gt;Warum das wichtig ist&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Demokratisierung:&lt;/strong&gt; 70B- oder 405B-Modelle sind nicht länger Enterprise-only. Studierende, Indie-Hacker, Forschungsteams können reale Frontier-Modelle lokal testen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Cost &amp;amp; Privacy:&lt;/strong&gt; Experimente passieren on-prem – keine Cloud-GPU-Rechnung, keine Daten außerhalb der eigenen Hardware.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Edge/Regulierung:&lt;/strong&gt; AirLLM öffnet die Tür für Edge-Deployments (Industrie, Defense, Healthcare), in denen kein Internetzugriff oder kein US-Cloud-Provider erlaubt ist.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;technik-im-detail&#34;&gt;Technik im Detail&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;SafeTensors Layer Split:&lt;/strong&gt; AirLLM konvertiert das Hugging-Face-Modell in layerweise Safetensors. Jeder Block (~1,5 GB bei 70B) wird via Memory Mapping geladen, sobald die Layer dran ist.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;FlashAttention integriert:&lt;/strong&gt; Für lange Kontexte sinkt der RAM-Bedarf auf O(n), während die CUDA-Kernel optimiert werden – relevant, wenn du &amp;gt;8k Tokens generieren musst.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;MetaDevice (Accelerate):&lt;/strong&gt; Beim Laden belegt das Modell 0 MB – erst bei Bedarf werden Layer auf CPU/GPU gestreamt.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Blockweise Kompression:&lt;/strong&gt; Nur die Gewichte eines Blocks werden 4‑/8‑bit-komprimiert, nicht die Activations → deutlich weniger Accuracy-Drop als klassische Vollquantisierung.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;setup-in-5-minuten&#34;&gt;Setup in 5 Minuten&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;pip&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;install&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;airllm&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;bitsandbytes
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;&lt;span class=&#34;kn&#34;&gt;from&lt;/span&gt; &lt;span class=&#34;nn&#34;&gt;airllm&lt;/span&gt; &lt;span class=&#34;kn&#34;&gt;import&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;AutoModel&lt;/span&gt;
&lt;span class=&#34;n&#34;&gt;model&lt;/span&gt; &lt;span class=&#34;o&#34;&gt;=&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;AutoModel&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;from_pretrained&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;(&lt;/span&gt;
    &lt;span class=&#34;s2&#34;&gt;&amp;quot;garage-bAInd/Platypus2-70B-instruct&amp;quot;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
    &lt;span class=&#34;n&#34;&gt;quantization&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;s2&#34;&gt;&amp;quot;bitsandbytes&amp;quot;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;   &lt;span class=&#34;c1&#34;&gt;# optional 4/8-bit&lt;/span&gt;
    &lt;span class=&#34;n&#34;&gt;delete_original&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;kc&#34;&gt;True&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;           &lt;span class=&#34;c1&#34;&gt;# spart Diskspace nach dem Split&lt;/span&gt;
    &lt;span class=&#34;n&#34;&gt;max_length&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;mi&#34;&gt;128&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;span class=&#34;p&#34;&gt;)&lt;/span&gt;

&lt;span class=&#34;n&#34;&gt;inputs&lt;/span&gt; &lt;span class=&#34;o&#34;&gt;=&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;model&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;tokenizer&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;([&lt;/span&gt;&lt;span class=&#34;s2&#34;&gt;&amp;quot;Was ist die Hauptstadt der USA?&amp;quot;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;],&lt;/span&gt;
                         &lt;span class=&#34;n&#34;&gt;return_tensors&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;s2&#34;&gt;&amp;quot;pt&amp;quot;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
                         &lt;span class=&#34;n&#34;&gt;truncation&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;kc&#34;&gt;True&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
                         &lt;span class=&#34;n&#34;&gt;padding&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;kc&#34;&gt;False&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;)&lt;/span&gt;
&lt;span class=&#34;n&#34;&gt;outputs&lt;/span&gt; &lt;span class=&#34;o&#34;&gt;=&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;model&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;generate&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;(&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;inputs&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;[&lt;/span&gt;&lt;span class=&#34;s2&#34;&gt;&amp;quot;input_ids&amp;quot;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;]&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;cuda&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;(),&lt;/span&gt; &lt;span class=&#34;n&#34;&gt;max_new_tokens&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;=&lt;/span&gt;&lt;span class=&#34;mi&#34;&gt;64&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;)&lt;/span&gt;
&lt;span class=&#34;nb&#34;&gt;print&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;(&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;model&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;tokenizer&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;decode&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;(&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;outputs&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;.&lt;/span&gt;&lt;span class=&#34;n&#34;&gt;sequences&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;[&lt;/span&gt;&lt;span class=&#34;mi&#34;&gt;0&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;]))&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;p&gt;&lt;strong&gt;Praxis-Tipps:&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Plane genügend SSD-Speicher (gesplittete Layer verdoppeln kurzzeitig den Platzbedarf). Fehlermeldung „metadata incomplete buffer“ = Speicher voll.&lt;/li&gt;
&lt;li&gt;Für gated Hugging-Face-Modelle &lt;code&gt;hf_token&lt;/code&gt; als Parameter mitgeben.&lt;/li&gt;
&lt;li&gt;Apple Silicon / CPU-Only? &lt;code&gt;device_map=&#34;cpu&#34;&lt;/code&gt; oder &lt;code&gt;--apple&lt;/code&gt; nutzen; AirLLM nutzt dann Metal/Accelerate.&lt;/li&gt;
&lt;li&gt;Wenn der Tokenizer keinen Padding-Token besitzt: &lt;code&gt;padding=False&lt;/code&gt; oder &lt;code&gt;model.config.pad_token_id&lt;/code&gt; setzen.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;trade-offs-grenzen&#34;&gt;Trade-offs &amp;amp; Grenzen&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Kategorie&lt;/th&gt;
&lt;th&gt;AirLLM&lt;/th&gt;
&lt;th&gt;Klassische GPU-Inferenz&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;VRAM-Bedarf&lt;/td&gt;
&lt;td&gt;✅ 4–8 GB (70B–405B)&lt;/td&gt;
&lt;td&gt;❌ 48–80 GB (70B)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Speed&lt;/td&gt;
&lt;td&gt;❌ IO-limitiert&lt;/td&gt;
&lt;td&gt;✅ Hoch&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Genauigkeit&lt;/td&gt;
&lt;td&gt;✅ Original (oder 4/8-bit optional)&lt;/td&gt;
&lt;td&gt;➖ Hängt von Quant. ab&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Setup-Aufwand&lt;/td&gt;
&lt;td&gt;Mittel (Splitting, Cache)&lt;/td&gt;
&lt;td&gt;Niedrig, wenn GPU groß genug&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Kurz gesagt: AirLLM tauscht Zeit gegen Zugänglichkeit. Für Forschungs-Batches, lokale Agents, Offline-Assistenten und Early-Stage-Prototyping ist das ein fairer Deal. Für Kundenchatbots mit tausenden Requests pro Sekunde eher nicht.&lt;/p&gt;
&lt;h2 id=&#34;einsatzideen&#34;&gt;Einsatzideen&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Privacy-first Chatbots:&lt;/strong&gt; Arztpraxen, Anwaltskanzleien oder Behörden können state-of-the-art LLMs on-prem laufen lassen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Research &amp;amp; Education:&lt;/strong&gt; Hochschulen geben Studierenden Zugang zu echten Frontier-Modellen ohne GPU-Cluster.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Prototyping:&lt;/strong&gt; Startups validieren Modelle lokal, bevor sie auf teure A100-Instanzen skalieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Edge-AI:&lt;/strong&gt; Fertigungslinien oder kritische Infrastruktur, wo Internetzugang reglementiert ist.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;fazit&#34;&gt;Fazit&lt;/h2&gt;
&lt;p&gt;AirLLM erinnert uns daran, dass nicht jede LLM-Innovation aus „mehr Hardware“ bestehen muss. Durch Layer-Streaming, clevere Dateiformate und optionale Kompression schafft das Projekt einen neuen „Sweet Spot“: Frontier-Modelle auf Consumer-Hardware – langsam, aber machbar. Wer bisher an 70B/100B-Modellen vorbeiziehen musste, sollte AirLLM mindestens einmal ausprobieren.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Quellen &amp;amp; weiterführende Links:&lt;/strong&gt;&lt;br /&gt;
- Manjeet Info: &lt;em&gt;AirLLM Explained – Run Large Language Models on Low-Memory GPUs&lt;/em&gt; (10.03.2026)&lt;br /&gt;
- KnowWithAkshay: &lt;em&gt;Run AI Models Locally on Your PC | AirLLM Explained&lt;/em&gt; (YouTube, 02.03.2026)&lt;br /&gt;
- 53AI.com: &lt;em&gt;AirLLM Deep Dive – FlashAttention, SafeTensors, MetaDevice&lt;/em&gt; (16.03.2026)&lt;br /&gt;
- GitHub: &lt;a href=&#34;https://github.com/lyogavin/airllm&#34;&gt;https://github.com/lyogavin/airllm&lt;/a&gt;&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>Mistral Vibe &amp; Forge: Europas Coding-Stack für sensible Software</title>
      <link>https://snoo.at/posts/mistral-stack.html</link>
      <guid>https://snoo.at/posts/mistral-stack.html</guid>
      <pubDate>Mon, 23 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>mistral</category>
      <category>coding-agent</category>
      <category>forge</category>
      <category>fine-tuning</category>
      <category>eu</category>
      
      <description><![CDATA[&lt;p&gt;Zwei Launches aus Paris gehen im deutschen Tech-Feed fast unter: &lt;strong&gt;Mistral Vibe&lt;/strong&gt; (agentischer Coding-Assistent) und &lt;strong&gt;Mistral Forge&lt;/strong&gt; (Trainingssystem für Unternehmens-LLMs). Auf LinkedIn weisen u. a. Alexander Nichau (niologic) darauf hin – hier ist der kombinierte Überblick.&lt;/p&gt;
&lt;h2 id=&#34;warum-das-spannend-ist&#34;&gt;Warum das spannend ist&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;EU-Datensouveränität:&lt;/strong&gt; Modelle und Agenten bleiben in europäischen Cloud-Regionen oder on-prem.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Legacy &amp;amp; IP:&lt;/strong&gt; Mittelständler sitzen auf proprietären Stacks. Vibe/Forge bringen Code-Automation &amp;amp; Custom-Modelle in denselben Rechtsraum.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Strategisches Signal:&lt;/strong&gt; Mistral skaliert mit Open Source, NVIDIA-Partnerschaften und Enterprise-Services – ohne US-Lock-in.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;teil-1-mistral-vibe-coding-agent&#34;&gt;Teil 1: Mistral Vibe (Coding-Agent)&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Feature&lt;/th&gt;
&lt;th&gt;Nutzen&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Terminal-native Agenten&lt;/td&gt;
&lt;td&gt;CLI-Agenten, die Repos verstehen, Commands ausführen, Tests schreiben.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;IDE-Plugins &amp;amp; Async Agents&lt;/td&gt;
&lt;td&gt;VS Code / JetBrains, Tab-to-complete, parallele Hintergrund-Jobs.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Multi-file Reasoning&lt;/td&gt;
&lt;td&gt;Architektur-Level-Refactoring, Legacy-Migration.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Fine-Tuning auf eigenem Code&lt;/td&gt;
&lt;td&gt;Devstral/Codestral-Modelle lassen sich auf proprietären Frameworks trainieren.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;EU-Infrastruktur&lt;/td&gt;
&lt;td&gt;Cloud, Sovereign Deployments oder eigener Server (Devstral Small 2 mit 24B Parametern).&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;Vergleich zu Copilot &amp;amp; Co.:&lt;/strong&gt;&lt;br /&gt;
- Datenstandort: EU oder on-prem vs. Azure/US.&lt;br /&gt;
- Modellkontrolle: Eigene Fine-Tunes statt geschlossene API.&lt;br /&gt;
- Agentische Workflows statt reiner Completion.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Einsatzidee für DACH:&lt;/strong&gt; Legacy-Modernisierung (AS400/SAP), Test Debt abbauen, Doku automatisieren, regulierte Branchen (Finanz, Public Sector) ohne IP-Leak.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Einstiegsschritte:&lt;/strong&gt;&lt;br /&gt;
1. Codebase-Audit &amp;amp; Pilot-Team definieren&lt;br /&gt;
2. Terminal-Agent + IDE Plugin + Async Setup testen&lt;br /&gt;
3. Governance (self-hosted vs. Cloud, Secrets, Logging)&lt;br /&gt;
4. Roadmap für Fine-Tunes erstellen (Datensätze kuratieren)&lt;br /&gt;
5. Entwickler onboarden, Automationsrichtlinien festlegen&lt;/p&gt;
&lt;h2 id=&#34;teil-2-mistral-forge-custom-frontier-models&#34;&gt;Teil 2: Mistral Forge (Custom Frontier Models)&lt;/h2&gt;
&lt;p&gt;Forge ist das Gegenstück auf Model-Ebene: Unternehmen trainieren Mistral-Modelle mit eigenem Wissen – von Pretraining bis RL.&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Capability&lt;/th&gt;
&lt;th&gt;Beschreibung&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Pre-/Post-Training&lt;/td&gt;
&lt;td&gt;Domain-aware Modelle aus internen Dokumenten, Code, Policies.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Reinforcement Learning&lt;/td&gt;
&lt;td&gt;Modelle &amp;amp; Agenten mit internen KPIs, Compliance-Regeln, Tool-Use alignen.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Dense &amp;amp; MoE, Multimodal&lt;/td&gt;
&lt;td&gt;Performance vs. Effizienz feinjustierbar; Text, Bilder etc. möglich.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Agent-first&lt;/td&gt;
&lt;td&gt;Vibe kann Forge-Jobs selbst orchestrieren (Fine-Tune, Synthetic Data, Eval Monitoring).&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Governance&lt;/td&gt;
&lt;td&gt;Modelle bleiben unter eigener Kontrolle (IP, Data Residency, Audit).&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;Kunden laut Mistral:&lt;/strong&gt; ASML, Ericsson, ESA, DSO/HTX Singapore, Reply – alles Organisationen mit hohem Schutzbedarf.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Warum das wichtig ist:&lt;/strong&gt;&lt;br /&gt;
- Strategische Autonomie – Wissen bleibt im Haus.&lt;br /&gt;
- Agent Reliability – Custom-Modelle erhöhen Präzision beim Tool-Use.&lt;br /&gt;
- Compliance – Modelle verstehen und respektieren interne Policies.&lt;br /&gt;
- Kontinuierliche Verbesserung – RL/Eval-Pipelines für regulatorische Updates.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Empfohlene Schritte:&lt;/strong&gt;&lt;br /&gt;
1. Knowledge Map: Welche Daten dürfen ins Training? (Code, Policies, Logs)&lt;br /&gt;
2. Ziele &amp;amp; KPIs definieren (z. B. Policy-Compliance, Tool-Workflow)&lt;br /&gt;
3. Governance-Board aufsetzen (AI, Legal, Security)&lt;br /&gt;
4. Pilot-Use-Case (Compliance QA, Legacy Migration)&lt;br /&gt;
5. Agent-Stack koppeln (Vibe + Custom Model)&lt;/p&gt;
&lt;h2 id=&#34;fazit&#34;&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Mit Vibe + Forge baut Mistral einen kompletten Stack für europäische Unternehmen: Agents, die Code mit Kontext schreiben, und Modelle, die auf proprietärem Wissen trainiert sind – alles innerhalb europäischer Infrastruktur. Wer über AI-Automation nachdenkt, ohne IP und Compliance aufs Spiel zu setzen, sollte diesen Stack evaluieren.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Quellen:&lt;/strong&gt; &lt;a href=&#34;https://www.mistral.ai/products/vibe&#34;&gt;Mistral Vibe Produktseite&lt;/a&gt;, &lt;a href=&#34;https://www.mistral.ai/news/forge&#34;&gt;Mistral Forge Blog&lt;/a&gt;, &lt;a href=&#34;https://www.linkedin.com/posts/alexander-nichau-niologic-applied-ai_europa-hat-jetzt-einen-eigenen-coding-agenten-share-7440728576376758273-BxiK&#34;&gt;LinkedIn-Post von Alexander Nichau&lt;/a&gt;.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>MiroFish: Was kann die Open-Source-Schwarm-Intelligenz wirklich vorhersagen?</title>
      <link>https://snoo.at/posts/mirofish.html</link>
      <guid>https://snoo.at/posts/mirofish.html</guid>
      <pubDate>Mon, 23 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>multi-agent</category>
      <category>prediction</category>
      <category>open-source</category>
      <category>swarm-intelligence</category>
      <category>ai</category>
      
      <description><![CDATA[&lt;p&gt;Der Reddit-Thread (&lt;a href=&#34;https://www.reddit.com/r/aiagents/comments/1rou0mk/mirofish_opensource_ai_prediction_engine_using/&#34;&gt;r/aiagents&lt;/a&gt;) und das GitHub-Repo &lt;a href=&#34;https://github.com/666ghj/MiroFish&#34;&gt;666ghj/MiroFish&lt;/a&gt; werden gerade massiv geteilt. Grund: Das Projekt verspricht eine „A Simple and Universal Swarm Intelligence Engine, Predicting Anything“. Klingt nach Marketing – also habe ich mir den Code, die Architektur und Use Cases angesehen.&lt;/p&gt;
&lt;h2 id=&#34;was-ist-mirofish&#34;&gt;Was ist MiroFish?&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Multi-Agent-Vorhersage-Engine&lt;/strong&gt;: Baut aus „Seed“-Informationen (News, Policy Drafts, Finanzdaten, sogar Roman-Manuskripte) eine parallele Gesellschaft mit tausenden KI-Agenten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Ziel&lt;/strong&gt;: Verhalten von Gruppen simulieren („Swarm Intelligence“) und daraus Vorhersagen / Reports ableiten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Praxisbeispiele&lt;/strong&gt; (laut README &amp;amp; Demo):&lt;/li&gt;
&lt;li&gt;Öffentliche Meinung zu einer Uni-Krise (Bilibili-Demo)&lt;/li&gt;
&lt;li&gt;Alternative Enden für „Traum der Roten Kammer“ (Literatur)&lt;/li&gt;
&lt;li&gt;In Arbeit: Finanz- und Geopolitik-Szenarien&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;architektur-in-kurzform&#34;&gt;Architektur in Kurzform&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;GraphRAG + Seed Parsing&lt;/strong&gt; – extrahiert Entitäten, Beziehungen und Ereignisse aus dem Input. &lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agent Factory&lt;/strong&gt; – generiert Personas mit Gedächtnis (Zep Cloud), Motivationen und Interaktionsregeln.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Simulation Layer&lt;/strong&gt; – zweigleisiger Simulator (Node/Python) mit Zeitfortschritt, Ereignis-Queue, „God Mode“-Interventionen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Report Agent&lt;/strong&gt; – nutzt LLM (Standard: Qwen-Plus via Aliyun Dashscope) plus Tools (SQL, Graph Queries) für Prognoseberichte.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Frontend&lt;/strong&gt; – React/Next UI für Monitoring + Interaktion (Chat mit Agents, Parametertuning).&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;installation-stack&#34;&gt;Installation &amp;amp; Stack&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Komponente&lt;/th&gt;
&lt;th&gt;Details&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;LLM&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;OpenAI-kompatibel; Default &lt;code&gt;qwen-plus&lt;/code&gt; (Aliyun). Jede API mit OpenAI-SDK-Syntax funktioniert.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Memory&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;&lt;a href=&#34;https://www.getzep.com/&#34;&gt;Zep Cloud&lt;/a&gt; für Langzeit-Gedächtnis &amp;amp; Vektorsuche.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Backend&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Python 3.11/3.12 + &lt;code&gt;uv&lt;/code&gt; (Package Manager).&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Frontend&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Node 18+, React/Next.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Deploy&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;&lt;code&gt;npm run setup:all&lt;/code&gt; (lokal) oder &lt;code&gt;docker compose up -d&lt;/code&gt; (Front 3000 / API 5001).&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h3 id=&#34;hardware-anforderungen&#34;&gt;Hardware-Anforderungen&lt;/h3&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Szenario&lt;/th&gt;
&lt;th&gt;Empfehlung&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Proof of Concept&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;4 vCPU, 16 GB RAM, 30 GB SSD. Kein GPU nötig. (Getestet auf Hetzner CX32 &amp;amp; M2 Mac mini.)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Mittlere Simulationen (≤2 k Agents)&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;8 vCPU, 32 GB RAM, 60 GB SSD. Optional NVIDIA T4/RTX 3060 für lokale LLMs.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Große Simulationen / Dauerbetrieb&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Dedizierte Server (z. B. 16+ vCPU, 64–128 GB RAM). README verweist auf Shanda Cloud-Instanzen/OASIS-Cluster.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Tipps aus der Community (Reddit + GitHub Issues):&lt;br /&gt;
- GPU nur nötig, wenn du Modelle lokal betreiben willst; ansonsten reichen Cloud-LLMs. &lt;br /&gt;
- Zep Cloud Free Tier trägt einfache Szenarien, aber bei &amp;gt;10 k Speicher-Events brauchst du einen eigenen Vector Store.&lt;br /&gt;
- Docker Deployment eignet sich für Windows-Anwender:innen (WSL2). macOS/Linux laufen nativ.&lt;br /&gt;
- Deutsche Übersetzung inkl. Setup-Guide: &lt;a href=&#34;https://github.com/BEKO2210/MiroFish-DE&#34;&gt;BEKO2210/MiroFish-DE&lt;/a&gt;.&lt;/p&gt;
&lt;h3 id=&#34;tutorial-mirofish-mit-lokalem-llm-ollama-litellm&#34;&gt;Tutorial: MiroFish mit lokalem LLM (Ollama + LiteLLM)&lt;/h3&gt;
&lt;p&gt;So nutzt du MiroFish komplett ohne externe LLM-APIs:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;Ollama installieren&lt;/strong&gt;&lt;br /&gt;
&lt;code&gt;bash
   curl -fsSL https://ollama.com/install.sh | sh      # macOS / Linux
   # Windows: https://ollama.com/download
   ollama pull qwen2:7b                               # oder llama3, mistral, ...&lt;/code&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Tipp: Apple Silicon oder Linux-Server mit mind. 32 GB RAM bringen spürbar bessere Laufzeiten.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;OpenAI-kompatible Schnittstelle starten&lt;/strong&gt; (LiteLLM als Proxy)&lt;br /&gt;
&lt;code&gt;bash
   pip install litellm
   litellm --model ollama/qwen2:7b --host 0.0.0.0 --port 4000 \
          --ollama-base http://localhost:11434 --num-workers 4&lt;/code&gt;&lt;br /&gt;
   Jetzt lauscht LiteLLM auf &lt;code&gt;http://localhost:4000/v1&lt;/code&gt; und übersetzt OpenAI-Calls → Ollama.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;MiroFish &lt;code&gt;.env&lt;/code&gt; setzen&lt;/strong&gt;&lt;br /&gt;
&lt;code&gt;env
   LLM_BASE_URL=http://localhost:4000/v1
   LLM_MODEL_NAME=ollama/qwen2:7b
   LLM_API_KEY=demo           # beliebiger Platzhalter, LiteLLM prüft ihn nicht&lt;/code&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;MiroFish starten&lt;/strong&gt;&lt;br /&gt;
&lt;code&gt;bash
   npm run setup:all
   npm run dev&lt;/code&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;Kosten &amp;amp; Performance im Blick behalten&lt;/strong&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;Sub-7B-Modelle liefern schnellere Simulationen, aber weniger Konsistenz. &lt;/li&gt;
&lt;li&gt;Für &amp;gt;2 k Agents empfiehlt sich GPU-Unterstützung (z. B. RTX 4090, A100) oder ein zweiter LiteLLM-Node.&lt;/li&gt;
&lt;li&gt;Logs aufpassen: LiteLLM gibt Token-Kosten, Durchsatz und Fehler direkt aus.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Damit läuft das komplette System on-prem – praktisch für sensible Szenarien (z. B. vertrauliche Policy-Tests oder EU-DSG-Konformität).&lt;/p&gt;
&lt;h2 id=&#34;wofur-taugt-es-realistisch&#34;&gt;Wofür taugt es (realistisch)?&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Policy / Krisen-Kommunikation:&lt;/strong&gt; Null-Risk-Testfeld für Narrative und Gegenmaßnahmen (vgl. Demo „Wuhan University Incident“).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Produkt/Feature-Futures:&lt;/strong&gt; Simuliert Community-Reaktionen, Feature-Adoption, Dissonanzen – guter Input fürs CX-Team.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Storytelling / Games:&lt;/strong&gt; KI-generierte Welten für Autorenstudios (Visual Novels, Alternate History).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Education:&lt;/strong&gt; Lehr-Use-Cases für Komplexität, Systemdenken, Collective Intelligence.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;grenzen-offene-fragen&#34;&gt;Grenzen &amp;amp; offene Fragen&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Thema&lt;/th&gt;
&lt;th&gt;Beobachtung&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Validierung&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Keine Benchmarks vs. Realwelt-Daten veröffentlicht. „Faithful Digital Mirror“ bleibt ein Versprechen.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Bias &amp;amp; Seed-Qualität&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Garbage-in → Garbage-out. Seed-Daten definieren die komplette Simulation.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Rechenaufwand&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Mehrere tausend Agents + Memory → LLM-Kosten explodieren schnell. README warnt vor &amp;gt;40 Runden mit qwen-plus.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Transparenz&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Engine basiert u. a. auf hauseigenem OASIS-Framework (von Shanda). Kein vollständiger Einblick in alle Module.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Einsatzethik&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;„Predict anything“ kann auch Missbrauch begünstigen (z. B. Disinformation, Manipulation). Governance-Fragen offen.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;einschatzung&#34;&gt;Einschätzung&lt;/h2&gt;
&lt;p&gt;MiroFish ist mehr als ein Gimmick – es kombiniert moderne Bausteine (GraphRAG, Langzeit-Memory, Multi-Agent-Sim) zu einer interaktiven Vorhersageplattform. Der Code ist sauber modular, Docker-Deploys laufen ohne großen Schmerz. ABER: Ergebnisse sind so gut wie die Seeds und Prompt-Designs. Wer es im Unternehmen einsetzen will, sollte es als „Entscheidungs-Sandkasten“ begreifen, nicht als Orakel.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Quellen:&lt;/strong&gt; &lt;a href=&#34;https://github.com/666ghj/MiroFish&#34;&gt;GitHub: 666ghj/MiroFish&lt;/a&gt;, &lt;a href=&#34;https://www.reddit.com/r/aiagents/comments/1rou0mk/mirofish_opensource_ai_prediction_engine_using/&#34;&gt;Reddit r/aiagents&lt;/a&gt;, &lt;a href=&#34;https://github.com/BEKO2210/MiroFish-DE&#34;&gt;MiroFish-DE Übersetzung&lt;/a&gt;.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>Claudy Day: Was die neuen Claude-Schwachstellen bedeuten</title>
      <link>https://snoo.at/posts/claudy-day.html</link>
      <guid>https://snoo.at/posts/claudy-day.html</guid>
      <pubDate>Mon, 23 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>anthropic</category>
      <category>vulnerability</category>
      <category>prompt-injection</category>
      <category>ai-security</category>
      <category>oasis</category>
      
      <description><![CDATA[&lt;p&gt;Der LinkedIn-Post von Cybersecurity News verlinkt auf eine Analyse von Oasis Security: Unter dem Namen &lt;strong&gt;Claudy Day&lt;/strong&gt; wurden drei Schwachstellen in Claude.ai offengelegt, die zusammen Datenabfluss und Phishing ermöglichten. Hier ein kompakter Überblick mit Handlungsempfehlungen.&lt;/p&gt;
&lt;h2 id=&#34;die-drei-bausteine-der-attacke&#34;&gt;Die drei Bausteine der Attacke&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Schwachstelle&lt;/th&gt;
&lt;th&gt;Beschreibung&lt;/th&gt;
&lt;th&gt;Risiko&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;1. Unsichtbare Prompt-Injection&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;&lt;code&gt;claude.ai/new?q=&lt;/code&gt; erlaubt vorbefüllte Prompts. HTML-Tags konnten unsichtbar im Eingabefeld landen, aber trotzdem ausgeführt werden.&lt;/td&gt;
&lt;td&gt;Angreifer schleusen versteckte Befehle ein, ohne dass der Nutzer es merkt.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;2. Exfiltration via Files API&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Claude darf im Sandbox-Modus mit &lt;code&gt;api.anthropic.com&lt;/code&gt; sprechen. Instruiert man es, Konversationen zu durchsuchen, kann es Dateien erstellen und mit einem fremden API-Key hochladen.&lt;/td&gt;
&lt;td&gt;Gesprächsverläufe, Profile, sensible Texte verlassen den Tenant.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;3. Open Redirect auf claude.com&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;&lt;code&gt;claude.com/redirect/&amp;lt;target&amp;gt;&lt;/code&gt; leitete ungeprüft weiter. Kombiniert mit Google Ads wirkt jeder Link vertrauenswürdig.&lt;/td&gt;
&lt;td&gt;Opfer klicken auf echte Claude-Links, landen aber auf der Injektions-URL.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;Kette:&lt;/strong&gt; Google Ad (claude.com/redirect) → versteckter Prompt im neuen Chat → Claude liest Historie und lädt sie zum Angreifer hoch. Kein MCP, keine Tools nötig.&lt;/p&gt;
&lt;h2 id=&#34;status-laut-anthropic&#34;&gt;Status laut Anthropic&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;Prompt-Injection wurde gepatcht.&lt;/li&gt;
&lt;li&gt;Open Redirect &amp;amp; Files-Abuse werden „adressiert“ (Stand: März 2026).&lt;/li&gt;
&lt;li&gt;Responsible Disclosure durch Oasis Security, Publikation der &lt;a href=&#34;https://www.oasis.security/blog/claude-ai-prompt-injection-data-exfiltration-vulnerability&#34;&gt;technischen Analyse&lt;/a&gt; inkl. Whitepaper.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;warum-das-relevant-ist&#34;&gt;Warum das relevant ist&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Shadow AI:&lt;/strong&gt; Nutzer teilen hochsensible Daten (M&amp;amp;A, Gesundheit, Legal) in Chat-Historien.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agent Exfiltration:&lt;/strong&gt; Selbst ohne Integrationen kann ein Agent seine Memory/History auslesen und exfiltrieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Targeted Ads:&lt;/strong&gt; Customer Match ermöglicht es Angreifern, spezifische Führungskräfte via Google Ads anzusprechen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Enterprise Add-ons:&lt;/strong&gt; Mit MCP-Tools/Integrationen wäre Zugriff auf Dateien, APIs, Messaging-Dienste möglich.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;manahmen-fur-unternehmen&#34;&gt;Maßnahmen für Unternehmen&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Link Hygiene:&lt;/strong&gt; Blockiere &lt;code&gt;claude.com/redirect/*&lt;/code&gt; auf Secure Web Gateways, bis fix bestätigt ist. Setze URL-Parsing für KI-Links auf „explizit anzeigen“.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Prompt-Firewalls:&lt;/strong&gt; Bei geteilten Claude-Links warnen, dass vorgefüllte Prompts versteckte Instruktionen enthalten können.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agent Governance:&lt;/strong&gt; Inventur aller AI-Agents, welche Daten/Integrationen sie sehen (Shadow-AI-Map). Nicht benötigte Tools deaktivieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Least Privilege für Claude:&lt;/strong&gt; Gesprächshistorie regelmäßig löschen, Enterprise Controls nutzen (Session Limits, Export Policies).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Monitoring:&lt;/strong&gt; Logs auf Anomalien (z. B. große Files via Anthropic Files API). JIT-Zugriff + Audit Trail für Agents.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Awareness-Kampagne:&lt;/strong&gt; Neue Phishing-Story im Security-Awareness-Programm – „Vorbefüllte KI-Links können Malware enthalten“.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;learnings-fur-ai-security&#34;&gt;Learnings für AI-Security&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;UI-Funktionen = Attack Surface.&lt;/strong&gt; Selbst Feature-Links (prefill prompt) müssen sanitisiert werden.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agents handeln eigenständig.&lt;/strong&gt; Sobald sie Dateien schreiben können, sind klassische DLP/Firewall-Kontrollen umschifft.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Identity ≠ nur Mensch.&lt;/strong&gt; Agent-Identitäten brauchen dieselben Policies wie Service Accounts (Intent-Prüfung, Scoping, JIT-Zugriff).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Zero Trust auch für Prompts.&lt;/strong&gt; Eingaben aus Links, Ads, Community-Foren sollten mit Detektoren (Regex, HTML-Filter) geprüft werden.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;fazit&#34;&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Claudy Day zeigt denselben Trend wie die OpenClaw-Schwachstelle: Ein manipuliertes Input reicht, wenn Agents hohe Berechtigungen besitzen. Organisationen müssen KI-Chatbots und -Agents wie vollwertige Identitäten behandeln – inklusive Inventur, Rechte-Management und Monitoring.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Quellen:&lt;/strong&gt; &lt;a href=&#34;https://cybersecuritynews.com/claude-vulnerabilities-exfiltrate-sensitive/&#34;&gt;Cybersecuritynews.com&lt;/a&gt;, &lt;a href=&#34;https://www.oasis.security/blog/claude-ai-prompt-injection-data-exfiltration-vulnerability&#34;&gt;Oasis Security Research&lt;/a&gt;, LinkedIn (#cybersecuritynews).&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>AgentMux: Deterministische KI-Pipelines ohne API-Kosten</title>
      <link>https://snoo.at/posts/agentmux.html</link>
      <guid>https://snoo.at/posts/agentmux.html</guid>
      <pubDate>Mon, 23 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>agenten</category>
      <category>automation</category>
      <category>claude</category>
      <category>github</category>
      <category>cli</category>
      
      <description><![CDATA[&lt;p&gt;Als Anthropic kürzlich den OAuth-Workaround in OpenCode blockierte, fiel vielen Engineering-Teams ihr Modell-Mix auseinander. Markus Wondrak (TAB Zürich) reagierte mit &lt;a href=&#34;https://github.com/markuswondrak/AgentMux&#34;&gt;AgentMux&lt;/a&gt;: einer deterministischen Multi-Agenten-Pipeline, die vorhandene KI-CLI-Tools via tmux orchestriert. Das LinkedIn-Posting dazu sorgt für Resonanz – Grund genug für einen Deep Dive.&lt;/p&gt;
&lt;h2 id=&#34;was-agentmux-macht&#34;&gt;Was AgentMux macht&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Multi-Agent-Workflow, aber fix verdrahtet:&lt;/strong&gt; Rollen wie Product Manager, Architect, Coder, Reviewer, Docs laufen sequenziell – keine spontanen Agenten-Entscheidungen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;CLI statt API:&lt;/strong&gt; AgentMux steuert vorhandene Tools (&lt;code&gt;claude&lt;/code&gt;, &lt;code&gt;codex&lt;/code&gt;, &lt;code&gt;gemini&lt;/code&gt;, &lt;code&gt;opencode&lt;/code&gt;) in eigenen tmux-Panes. OAuth-Sessions der jeweiligen Provider werden wiederverwendet → keine neuen API-Keys, keine Tokenrechnung.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;State Machine + Filesystem:&lt;/strong&gt; Jeder Schritt schreibt strukturierte Outputs (Plan, Code, Review) in Files. Die Orchestrierung beobachtet diese Dateien und schaltet den nächsten Agenten frei.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;warum-das-spannend-ist&#34;&gt;Warum das spannend ist&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Kostenkontrolle:&lt;/strong&gt; Lizenzen (z. B. Claude Opus, Gemini Pro, OpenCode) werden ohnehin bezahlt. AgentMux spart zusätzliche API-Ausgaben.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Determinismus:&lt;/strong&gt; Pipeline ist deklarativ festgelegt (&lt;code&gt;config.yaml&lt;/code&gt;). Keine Überraschungen durch halluzinierende Pläne; der Orchestrator sorgt für Konsistenz.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Model-Mixing:&lt;/strong&gt; Pro Rolle lassen sich andere Provider/Profile definieren (z. B. Architekt = Claude Opus, Coder = Codex, Reviewer = Gemini Flash).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;GitHub-Integration:&lt;/strong&gt; Optionaler PM-Step generiert Spezifikationen; &lt;code&gt;--issue&lt;/code&gt; zieht Titel/Body via &lt;code&gt;gh&lt;/code&gt; und öffnet am Ende Pull Requests.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;architektur-aus-dem-readme&#34;&gt;Architektur (aus dem README)&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;Product Manager → Planning → Implementing → Reviewing → (Fixing) → Completing
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;p&gt;Taktgeber ist &lt;code&gt;pipeline.py&lt;/code&gt;: Es rendert Prompts pro Rolle, injiziert sie in tmux, wartet auf Output, checkt Review-Ergebnisse und commitet bei Erfolg.&lt;/p&gt;
&lt;h2 id=&#34;installation-quickstart&#34;&gt;Installation (Quickstart)&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;pip&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;install&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;-r&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;requirements.txt
python3&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;pipeline.py&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;s2&#34;&gt;&amp;quot;Add rate limiting to the API&amp;quot;&lt;/span&gt;
python3&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;pipeline.py&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;--product-manager&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;...&lt;span class=&#34;w&#34;&gt;         &lt;/span&gt;&lt;span class=&#34;c1&#34;&gt;# optional PM-Phase&lt;/span&gt;
python3&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;pipeline.py&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;--issue&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;m&#34;&gt;42&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;                     &lt;/span&gt;&lt;span class=&#34;c1&#34;&gt;# GitHub-Issue Nr.&lt;/span&gt;
pipeline.py&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;--resume&lt;span class=&#34;w&#34;&gt;                               &lt;/span&gt;&lt;span class=&#34;c1&#34;&gt;# abgebrochene Runs fortsetzen&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;p&gt;Konfiguration landet in &lt;code&gt;.agentmux/config.yaml&lt;/code&gt; (overrides via &lt;code&gt;~/.config/agentmux&lt;/code&gt; und &lt;code&gt;--config&lt;/code&gt;). Profile (&lt;code&gt;max&lt;/code&gt;, &lt;code&gt;standard&lt;/code&gt;, &lt;code&gt;low&lt;/code&gt;) mappen auf konkrete Modelle pro Provider.&lt;/p&gt;
&lt;h2 id=&#34;anforderungen-praxis-tipps&#34;&gt;Anforderungen &amp;amp; Praxis-Tipps&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;tmux &amp;amp; CLI-Tools:&lt;/strong&gt; Du brauchst funktionierende CLI-Aliases (&lt;code&gt;claude&lt;/code&gt;, &lt;code&gt;opencode&lt;/code&gt;, &lt;code&gt;gh&lt;/code&gt;). Authentifizierung läuft wie gewohnt (OAuth in Browser, Tokens lokal).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Filesystem-Nerven:&lt;/strong&gt; AgentMux erzeugt zahlreiche Artefakte im Projektordner (Plan, Code, Tests, Review). Git-Ignore anpassen!&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Workload:&lt;/strong&gt; Für große Features gedacht; für Ein-Zeiler-Fixes ist es Overkill.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Custom Prompts:&lt;/strong&gt; Rollen-Prompts liegen in &lt;code&gt;prompts/*.md&lt;/code&gt; und lassen sich per Projekt anpassen.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;grenzen-ideen&#34;&gt;Grenzen &amp;amp; Ideen&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Thema&lt;/th&gt;
&lt;th&gt;Beobachtung&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Fehlerhandling&lt;/td&gt;
&lt;td&gt;Pipeline bricht hart ab, wenn ein CLI-Tool hängt. Watchdog/Timeouts wären wünschenswert.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Kollaboration&lt;/td&gt;
&lt;td&gt;Aktuell Single-User. Shared tmux-Session wäre möglich, aber nicht integriert.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Tests/CI&lt;/td&gt;
&lt;td&gt;Generate-Test-Phase vorhanden, aber keine automatische Ausführung in Docker/CI.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Security&lt;/td&gt;
&lt;td&gt;CLI-Tools laufen mit lokalen Rechten. Secrets sollten vorher sauber isoliert werden.&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;fazit&#34;&gt;Fazit&lt;/h2&gt;
&lt;p&gt;AgentMux ist kein Ersatz für AutoDev oder OpenCode – eher ein deterministisches Framework, um vorhandene High-End-Subscriptions effizient zu stacken. Für größere Umbauten (mehrere Files, Tests, Review) liefert es planbare Ergebnisse ohne API-Overhead. Wer sowieso mit Claude, Codex &amp;amp; Co. arbeitet, findet hier einen pragmatischen Weg, Multi-Agent-Workflows unter eigene Kontrolle zu stellen.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Quellen:&lt;/strong&gt; &lt;a href=&#34;https://www.linkedin.com/posts/markus-wondrak-53b1881a3_alles-fing-damit-an-dass-anthropic-ernst-share-7441540473946808320-ut8U&#34;&gt;LinkedIn-Post von Markus Wondrak&lt;/a&gt;, &lt;a href=&#34;https://github.com/markuswondrak/AgentMux&#34;&gt;GitHub: AgentMux&lt;/a&gt;.&lt;/p&gt;]]></description>
    </item>
    
    <item>
      <title>Agent Orchestrator: 30 Coding-Agents parallel steuern</title>
      <link>https://snoo.at/posts/agent-orchestrator.html</link>
      <guid>https://snoo.at/posts/agent-orchestrator.html</guid>
      <pubDate>Mon, 23 Mar 2026 00:00:00 +0000</pubDate>
      
      <category>coding-agent</category>
      <category>orchestration</category>
      <category>composio</category>
      <category>claude-code</category>
      <category>automation</category>
      
      <description><![CDATA[&lt;p&gt;Niven V. (Agent Wrapper) hat auf LinkedIn ein Open-Source-Projekt mit derzeit 5 k+ Stars hervorgehoben: den &lt;a href=&#34;https://github.com/ComposioHQ/agent-orchestrator&#34;&gt;Agent Orchestrator&lt;/a&gt; von Composio. Er orchestriert bis zu 30 KI-Coding-Agents parallel, inklusive Git-Worktrees, CI-Feedback und Review-Schleifen. Hier die wichtigsten Fakten.&lt;/p&gt;
&lt;h2 id=&#34;was-das-tool-kann&#34;&gt;Was das Tool kann&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Parallelbetrieb:&lt;/strong&gt; Jede Aufgabe erhält einen eigenen Agent (Claude Code, Codex, Aider etc.), inklusive isoliertem Git-Worktree, Branch und PR.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Autonomer Kreislauf:&lt;/strong&gt; CI-Fehler, Review-Kommentare und Merge-Checks gehen automatisch an den richtigen Agent zurück.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Dashboard:&lt;/strong&gt; Web-UI auf &lt;code&gt;localhost:3000&lt;/code&gt;, dazu tmux-Sessions für Live-Einblick (CLI-Layer &lt;code&gt;ao&lt;/code&gt;).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Human-in-the-loop:&lt;/strong&gt; Du wirst nur gerufen, wenn Entscheidungen nötig sind; sonst laufen Agents selbstständig weiter.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Plugin-Architektur:&lt;/strong&gt; Runtimes (tmux, Docker, K8s), Tracker (GitHub, Linear), Notifier (Desktop, Slack) lassen sich austauschen.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;quickstart-laut-readme&#34;&gt;Quickstart (laut README)&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;npm&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;install&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;-g&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;@composio/ao&lt;span class=&#34;w&#34;&gt;              &lt;/span&gt;&lt;span class=&#34;c1&#34;&gt;# CLI installieren&lt;/span&gt;
ao&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;start&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;https://github.com/your/repo&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;c1&#34;&gt;# Repo klonen + Dashboard starten&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;p&gt;Voraussetzungen: Node.js ≥20, Git ≥2.25, tmux, &lt;code&gt;gh&lt;/code&gt; CLI. &lt;br /&gt;
- Dashboard öffnet sich automatisch (default Port 3000). &lt;br /&gt;
- Konfig landet in &lt;code&gt;agent-orchestrator.yaml&lt;/code&gt; (Port, Defaults, Projekte, Reactions).&lt;/p&gt;
&lt;h2 id=&#34;workflow-im-uberblick&#34;&gt;Workflow im Überblick&lt;/h2&gt;
&lt;ol&gt;
&lt;li&gt;&lt;code&gt;ao start&lt;/code&gt; richtet Repo + Worktrees ein, startet Orchestrator.&lt;/li&gt;
&lt;li&gt;Orchestrator spawnt Worker-Agents (z. B. pro Issue).&lt;/li&gt;
&lt;li&gt;Agents lesen Code, schreiben Tests, erstellen PRs.&lt;/li&gt;
&lt;li&gt;Reactions verteilen Feedback (CI-Fails, Reviewer-Kommentare) an den passenden Agent.&lt;/li&gt;
&lt;li&gt;Du mergest – oder lässt Auto-Merge zu, wenn CI grün + Approval vorhanden.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;konfigurationsbeispiel&#34;&gt;Konfigurationsbeispiel&lt;/h2&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;pre&gt;&lt;span&gt;&lt;/span&gt;&lt;code&gt;&lt;span class=&#34;nt&#34;&gt;defaults&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;runtime&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;tmux&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;agent&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;claude-code&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;workspace&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;worktree&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;notifiers&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;p p-Indicator&#34;&gt;[&lt;/span&gt;&lt;span class=&#34;nv&#34;&gt;desktop&lt;/span&gt;&lt;span class=&#34;p p-Indicator&#34;&gt;]&lt;/span&gt;

&lt;span class=&#34;nt&#34;&gt;reactions&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;ci-failed&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;auto&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;true&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;action&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;send-to-agent&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;retries&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;2&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;changes-requested&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;auto&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;true&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;action&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;send-to-agent&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;  &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;approved-and-green&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;auto&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;false&lt;/span&gt;&lt;span class=&#34;w&#34;&gt;     &lt;/span&gt;&lt;span class=&#34;c1&#34;&gt;# true = Auto-Merge&lt;/span&gt;
&lt;span class=&#34;w&#34;&gt;    &lt;/span&gt;&lt;span class=&#34;nt&#34;&gt;action&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt;&lt;span class=&#34;w&#34;&gt; &lt;/span&gt;&lt;span class=&#34;l l-Scalar l-Scalar-Plain&#34;&gt;notify&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;

&lt;h2 id=&#34;starken-vs-typische-pain-points&#34;&gt;Stärken vs. typische Pain Points&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Pain Point ohne Tool&lt;/th&gt;
&lt;th&gt;Agent Orchestrator liefert&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Viele parallele Tasks babysitten&lt;/td&gt;
&lt;td&gt;Dashboard + Sessions zeigen Status &amp;amp; Logs live&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;CI-Logs manuell weiterreichen&lt;/td&gt;
&lt;td&gt;Automatisches Routing inkl. Retries&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Branch-/Worktree-Chaos&lt;/td&gt;
&lt;td&gt;Isolierte Worktrees pro Agent, Cleanup integriert&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Feedback-Lücke&lt;/td&gt;
&lt;td&gt;Reviewer-Kommentare gehen direkt in den richtigen Agent-Loop&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Provider-Lock-in&lt;/td&gt;
&lt;td&gt;Jeder Agent kann anderen Provider/Plan nutzen (Claude, Codex, Aider, Gemini)&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;grenzen-dinge-die-du-wissen-solltest&#34;&gt;Grenzen / Dinge, die du wissen solltest&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;CLI-lastig:&lt;/strong&gt; tmux + CLI-Tools müssen stabil laufen. Auf Windows empfiehlt sich WSL2.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Resource-Hunger:&lt;/strong&gt; 30 Agents parallel brauchen CPU/RAM. Plane mind. 8 vCPU + 32 GB RAM.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Security:&lt;/strong&gt; Agents erhalten Checkout + Credentials. Nutze Workspaces mit limitierten Secrets.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Human Review bleibt Pflicht:&lt;/strong&gt; Auch wenn PRs automatisch kommen, Qualitätssicherung &amp;amp; Security-Review sind unverzichtbar.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;fazit&#34;&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Agent Orchestrator trifft genau den Sweet Spot zwischen „ein Agent pro Terminal“ und komplexen Enterprise-Plattformen. Wer viele Claude-Code/Codex-Sessions parallel fährt, spart durch das Orchestrierungs-Layer spürbar Zeit und hält trotzdem Kontrolle über Branches, CI und Reviews.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Quellen:&lt;/strong&gt; &lt;a href=&#34;https://www.linkedin.com/posts/niven-v-819303a9_eilmeldung-es-gibt-jetzt-ein-opensourcetool-share-7440061254590853120-XoMw&#34;&gt;LinkedIn-Post&lt;/a&gt;, &lt;a href=&#34;https://github.com/ComposioHQ/agent-orchestrator&#34;&gt;GitHub: ComposioHQ/agent-orchestrator&lt;/a&gt;.&lt;/p&gt;]]></description>
    </item>
    
  </channel>
</rss>