KI E-Mail Assistent mit n8n & lokalem LLM bauen
Du verbringst also 28% deiner Arbeitszeit damit, E-Mails zu lesen und zu beantworten - und ein Digitalisierungsberater will dir für 15.000 Euro erklären, dass du "effizienter kommunizieren" solltest? Herzlichen Glückwunsch, du hast gerade den teuersten Tipp deines Lebens bekommen. Hier ist der bessere Weg: Bau dir einfach selbst einen KI E-Mail Assistenten. Kostenlos. Lokal. Ohne dass deine sensiblen Geschäftsdaten durch irgendwelche Cloud-Server wandern.
Das Problem: E-Mails fressen deine Produktivität
Bevor wir loslegen, lass mich dir kurz die brutale Wahrheit servieren. Laut einer Studie über Arbeitsunterbrechungen wirst du durchschnittlich 3,3 Mal pro Stunde durch E-Mails unterbrochen. Das klingt harmlos? Ist es nicht. Denn nach jeder Unterbrechung brauchst du laut Forschung der Uni Erlangen bis zu 23 Minuten, um wieder in deinen ursprünglichen Workflow zu finden.
Rechne das mal hoch: Das sind laut Persoblogger bis zu 11,5 Tage Produktivitätsverlust pro Jahr - nur durch ineffiziente Kommunikation. Und 70% aller E-Mails werden innerhalb von 6 Sekunden nach Eingang geöffnet. Wir sind wie Pawlows Hunde, nur mit Outlook statt Glocke.
Die Lösung? Ein KI-Assistent, der deine E-Mails vorsortiert, kategorisiert und sogar Antwortentwürfe erstellt - während du dich auf das konzentrierst, wofür du eigentlich bezahlt wirst.
Warum n8n + lokales LLM die beste Kombination ist
Klar, du könntest einfach die OpenAI API nutzen. Aber dann zahlst du pro Token, deine Daten landen auf fremden Servern, und der nächste DSGVO-Audit wird zum Albtraum. Die Alternative: n8n mit Ollama - alles läuft lokal auf deinem Rechner.
Die Vorteile auf einen Blick:
- Keine API-Kosten: Null. Nada. Nichts. Das LLM läuft auf deiner Hardware.
- Volle Datenkontrolle: Deine E-Mails verlassen niemals deinen Rechner.
- DSGVO-konform: Keine Drittanbieter, keine Kopfschmerzen.
- Unbegrenzte Nutzung: Egal ob 10 oder 10.000 E-Mails pro Tag.
Und das Beste: Du brauchst keinen Informatik-Abschluss. Wenn du einen Computer einschalten kannst, schaffst du das hier auch.
Schritt 1: Die Grundinstallation mit Docker
Wir starten mit Docker, weil es die sauberste Lösung ist. Kein Gefrickel mit Dependencies, keine Konflikte mit anderen Programmen. Erstelle eine docker-compose.yml Datei:
version: '3.8'
services:
n8n:
image: docker.n8n.io/n8nio/n8n
ports:
- "5678:5678"
environment:
- N8N_BASIC_AUTH_ACTIVE=true
- N8N_BASIC_AUTH_USER=admin
- N8N_BASIC_AUTH_PASSWORD=dein-sicheres-passwort
volumes:
- n8n_data:/home/node/.n8n
restart: unless-stopped
ollama:
image: ollama/ollama
ports:
- "11434:11434"
volumes:
- ollama_data:/root/.ollama
restart: unless-stopped
volumes:
n8n_data:
ollama_data:
Starte alles mit docker-compose up -d und lade dann dein LLM-Modell. Öffne ein Terminal zum Ollama-Container und führe aus:
docker exec -it ollama ollama pull llama3:8b
Llama 3 mit 8 Milliarden Parametern ist der Sweet Spot zwischen Qualität und Performance. Auf einem halbwegs modernen Rechner mit 16GB RAM läuft das flüssig.
Schritt 2: Gmail mit n8n verbinden
Öffne n8n unter http://localhost:5678 und erstelle einen neuen Workflow. Der erste Node ist der Gmail Trigger:
- Füge den "Gmail Trigger" Node hinzu
- Verbinde dein Google-Konto (OAuth2)
- Setze "Poll Times" auf "Every 15 minutes"
- Wähle "INBOX" als Label
- Aktiviere "Download Attachments" falls gewünscht
Für die OAuth2-Authentifizierung brauchst du ein Google Cloud Projekt mit aktivierter Gmail API. Klingt kompliziert, dauert aber nur 5 Minuten - Google hat das gut dokumentiert.
Schritt 3: Das lokale LLM einbinden
Jetzt wird es spannend. Laut der offiziellen n8n Dokumentation gibt es native Ollama-Nodes. Füge folgende Nodes hinzu:
- Ollama Chat Model: Verbinde mit
http://ollama:11434(Docker-internes Netzwerk) und wähle "llama3:8b" - AI Agent: Dieser orchestriert die Konversation
Die Verbindung zwischen n8n und Ollama funktioniert über die lokale API. Kein Internet nötig, keine Latenz durch Cloud-Calls.
Schritt 4: Prompt Engineering für E-Mail Klassifizierung
Hier trennt sich die Spreu vom Weizen. Ein guter Prompt macht den Unterschied zwischen "nützlich" und "nerviger Spielerei". Hier ist mein Battle-Tested Prompt:
Du bist ein E-Mail-Assistent für einen Selbstständigen. Analysiere die folgende E-Mail und gib ein JSON zurück:
{
"kategorie": "DRINGEND" | "WICHTIG" | "NORMAL" | "NEWSLETTER" | "SPAM",
"zusammenfassung": "Max 2 Sätze",
"aktion_erforderlich": true/false,
"termine": [{"datum": "YYYY-MM-DD", "uhrzeit": "HH:MM", "beschreibung": "..."}],
"antwort_entwurf": "Falls aktion_erforderlich=true, ein höflicher Antwortentwurf"
}
E-Mail:
Von: {{$json.from}}
Betreff: {{$json.subject}}
Inhalt: {{$json.text}}
Antworte NUR mit dem JSON, keine Erklärungen.
Der Trick: Sei spezifisch. Gib dem LLM klare Kategorien vor, fordere strukturierte Ausgabe (JSON), und verbiete Geschwätz. Lokale LLMs neigen dazu, zu viel zu labern - das JSON-Format zwingt sie zur Disziplin.
Schritt 5: Termine automatisch in den Kalender
Wenn das LLM Termine erkennt, sollen die direkt in deinen Google Calendar. Füge einen IF Node hinzu, der prüft ob termine.length > 0, und dann einen Google Calendar Node:
// Expression für den Calendar Node
Summary: {{$json.termine[0].beschreibung}}
Start: {{$json.termine[0].datum}}T{{$json.termine[0].uhrzeit}}:00
End: // 1 Stunde später berechnen
Bonus-Tipp: Erstelle einen separaten Kalender namens "KI-Vorschläge". So siehst du auf einen Blick, was der Assistent gefunden hat, ohne dass es mit deinen manuellen Einträgen kollidiert.
Schritt 6: Antwortentwürfe als Gmail-Drafts speichern
Der letzte Schritt: Wenn das LLM einen Antwortentwurf erstellt, speichere ihn als Draft in Gmail. So hast du die volle Kontrolle und kannst vor dem Absenden noch anpassen:
- Füge einen weiteren IF Node hinzu:
{{$json.aktion_erforderlich}} === true - Verbinde mit dem Gmail Node (Operation: "Create Draft")
- Setze "In Reply To" auf die Message-ID der Original-Mail
Der komplette Workflow im Überblick
So sieht der fertige Flow aus:
Gmail Trigger (alle 15 Min)
↓
Ollama Chat Model + AI Agent (Klassifizierung)
↓
IF: Termine erkannt?
→ JA: Google Calendar (Event erstellen)
↓
IF: Antwort erforderlich?
→ JA: Gmail (Draft erstellen)
↓
Google Sheets (Logging - optional)
Das optionale Google Sheets Logging hilft dir, den Assistenten zu verbessern. Schau dir regelmäßig an, welche E-Mails falsch kategorisiert wurden, und passe den Prompt entsprechend an.
Performance-Tipps für lokale LLMs
Lokale LLMs sind langsamer als Cloud-APIs - das ist der Trade-off für Datenschutz und Kostenfreiheit. Hier ein paar Optimierungen:
- GPU nutzen: Mit einer NVIDIA-Grafikkarte (und nvidia-docker) ist Ollama 5-10x schneller
- Kleinere Modelle testen: Llama 3 8B ist gut, aber Mistral 7B oder Phi-3 sind schneller bei ähnlicher Qualität für einfache Aufgaben
- Batch Processing: Statt alle 15 Minuten kannst du auch stündlich laufen lassen und mehrere E-Mails auf einmal verarbeiten
- Context Window beachten: Sehr lange E-Mails kürzen, sonst wird das LLM langsam
Alternativen zu Ollama: LM Studio
Wenn du eine grafische Oberfläche bevorzugst, ist LM Studio eine Alternative. Es bietet eine OpenAI-kompatible API, die du in n8n über den "HTTP Request" Node ansprechen kannst. Der Vorteil: Du kannst Modelle per Klick herunterladen und testen. Der Nachteil: Etwas mehr Ressourcenverbrauch durch die GUI.
Was kostet das Ganze wirklich?
Lass uns mal rechnen. Ein Digitalisierungsberater nimmt für so ein Projekt locker 10.000-20.000 Euro. Deine Kosten:
- n8n: Open Source, kostenlos (Self-Hosted)
- Ollama: Open Source, kostenlos
- Llama 3: Open Source, kostenlos
- Strom: Ca. 5-10 Euro/Monat für den Server
- Zeit: 2-4 Stunden für Setup und Feintuning
Vergleiche das mit OpenAI API-Kosten: Bei 100 E-Mails pro Tag mit durchschnittlich 500 Tokens Input und 200 Tokens Output landest du bei GPT-4 schnell bei 50-100 Euro pro Monat. Nach einem Jahr hast du 600-1200 Euro gespart - und deine Daten sind immer noch bei dir.
Fazit: Mach es einfach selbst
Du brauchst keinen teuren Berater, keine Cloud-Abhängigkeit und keine Angst vor API-Kosten. Mit n8n und einem lokalen LLM baust du dir in einem Nachmittag einen E-Mail-Assistenten, der dir laut Studien bis zu 55% Schreibzeit spart und dich vor dem ewigen E-Mail-Ping-Pong schützt.
Der Workflow aus diesem Tutorial ist nur der Anfang. Du kannst ihn erweitern: Slack-Benachrichtigungen für dringende E-Mails, automatische CRM-Updates, Sentiment-Analyse für Kundenfeedback. Die Möglichkeiten sind endlos - und kosten dich keinen Cent extra.
Also: Schluss mit dem E-Mail-Chaos. Deine Inbox sollte für dich arbeiten, nicht umgekehrt. Und wenn der nächste Berater dir erzählen will, dass "Digitalisierung komplex ist" - zeig ihm diesen Artikel und schick ihn nach Hause.
P.S.: Das komplette Workflow-Template findest du in der n8n Template Library. Einfach importieren, Credentials eintragen, fertig.
Über Fabian Bitzer
Fabian Bitzer studiert Digitale Medien und erstellt seit mehreren Jahren professionelle Webseiten. Mit seiner Expertise in modernem Webdesign und Online-Marketing unterstützt er Unternehmen dabei, ihre digitale Präsenz aufzubauen und nachhaltig zu wachsen.