top of page

Mein erster AI-Agent mit n8n - lokale Datenkontrolle mit der Intelligenz von OpenAI

  • Autorenbild: Philipp Sauber
    Philipp Sauber
  • vor 17 Stunden
  • 2 Min. Lesezeit

Die Herausforderung: Datenberge bändigen

Eines meiner Mandate beschäftigt sich mit der Verwaltung eines Immobilienportfolios.

Dort jongliere ich täglich mit sehr vielen Informationen, z.B. zu Mietverträgen, Handwerkerrechnungen, Handbücher zur Gebäudeautomation und Lieferantendetails. Über die Jahre ist ein riesiger Wissensschatz in Form von PDFs entstanden.

Die Herausforderung? Die Suche nach der sprichwörtlichen Nadel im Heuhaufen kostet Zeit. Mein Ziel: Ich wollte ein eigenes, geschütztes System, das meine privaten Daten versteht und mir sekundenschnell präzise Antworten liefert – ohne dass diese sensiblen Infos für Externe zugänglich sind. Und das in einer Qualität, wie wir's uns von LLMs wie Gemini und ChatGPT gewohnt sind.


AI-Agent in der Funktion eines RAG mit n8n
AI-Agent mit 1. Load Data Flow (links) und 2. Retriever Flow (rechts)

Die Lösung: Ein massgeschneiderter n8n-Agent

Mit dem Automatisierungstool n8n habe ich einen AI-Agenten gebaut, der auf der RAG-Technologie (Retrieval-Augmented Generation) basiert. Das System besteht aus zwei wesentlichen Teilen:


1. Der Load Data Flow im AI-Agent (das Gedächtnis füllen)

In diesem ersten Schritt werden meine Dokumente aus Google Drive "lesbar" gemacht. Ein Default Data Loader extrahiert den Text aus den PDFs und zerlegt ihn in kleine Abschnitte. Das Embeddings OpenAI Modul (hier ChatGPT) übersetzt diese Texte in eine mathematische Sprache (Vektoren), die dann dauerhaft im Pinecone Vector Store gespeichert werden.

So entsteht ein digitaler Wissensspeicher, der aktuell meine wichtigsten Dokumente aus Google Drive umfasst. Das ist jedoch erst der Anfang. Mein Ziel ist es, diesen Agenten zu einer zentralen Wissensdrehscheibe auszubauen, indem ich schrittweise auch Datenquellen wie Dropbox, Trello und Evernote anzapfe, um mein gesamtes Ökosystem nahtlos zu vernetzen.


Load Data Flow mit Pinecone Vektordatenbank

2. Der Retriever Flow im AI-Agent (das Wissen abfragen)

Das ist die eigentliche Schnittstelle. Wenn ich im Chat eine Frage stelle, nutzt der AI Agent das sogenannte Query Data Tool. Dieses Tool sucht blitzschnell im Pinecone-Speicher nach den relevantesten Textstellen zu meiner Frage. Dank eines Simple Memory Moduls vergisst der Agent auch den Kontext des Gesprächs nicht und weiß bei Rückfragen immer genau, worüber wir gerade sprechen.


Retriever Flow mit dem AI-Agent und dem Query Data Tool als Schnittstelle zum Wissen

Effizienz auf einem neuen Level

Das Ergebnis ist beeindruckend. Ich frage meinen Agenten einfach: „Welche Firma hat den die Fenster im letzten Jahr renoviert?" und erhalte sofort die Antwort inklusive Telefonnummer des Handwerkers.

Die Kombination aus lokaler Datenkontrolle und der Intelligenz von OpenAI macht meinen Job massiv effizienter. Es ist, als hätte ich einen Assistenten, der jedes Detail meiner 67 PDFs auswendig kennt.


Sie fragen sich, wie man einen solchen AI-Agenten, der Abfragen über eigene Daten ausführt, aufbaut? Melden Sie sich gerne, ich zeige Ihnen wie's geht.


Kommentare


Kontakt:

© by Philipp Sauber

  • Schwarz LinkedIn Icon
  • Black YouTube Icon
  • Black Twitter Icon
  • Black Facebook Icon
  • Black Instagram Icon

sauber.digital AG

+41 78 885 54 20​

philipp@sauber.digital

Danke für die Anfrage. Ich melde mich umgehend. Philipp Sauber

bottom of page