Warum dieser Beitrag#
Wenn du Rechtsanwältin in München bist, Hausarzt in einer Einzelpraxis in Bern oder Steuerberater in Wien, verbergen die Schlagzeilen über KI-Produktivität eine harte rechtliche Wahrheit: Wer Mandanten-, Patienten- oder Mandatsdetails in die Standard-Weboberfläche von ChatGPT einfügt, begeht in Deutschland eine Straftat nach § 203 StGB, verletzt das Anwaltsgeheimnis nach § 43a BRAO und verstößt klar gegen die DSGVO. Keines dieser Ergebnisse verschwindet, weil die KI nützlich war.
Dieser Beitrag richtet sich an Solo- oder Kleinst-Praktiker, die KI in einem regulierten Beruf einsetzen möchten, ohne 2026 zum Präzedenzfall zu werden. Er kartiert die vier Compliance-Pfade in der Reihenfolge der Rechtsexposition, gibt reale Hardware-Zahlen für die Lokal-LLM-Option und ist ehrlich darüber, welche Anwendungsfälle schlicht tabu bleiben.
Keine Rechts-, Medizin- oder Steuerberatung. Für die verbindliche Auslegung in deinem Fall: deine Berufskammer fragen.
Die rechtliche Klippe#
Drei Rahmenwerke stapeln sich übereinander für regulierte DACH-Berufe:
§ 203 StGB - Verletzung von Privatgeheimnissen. Strafrechtliche Haftung für jeden, der ein "fremdes Geheimnis" offenbart, das ihm in seiner beruflichen Eigenschaft anvertraut wurde. Erfasst Ärzte, Anwälte, Steuerberater, Psychologen und eine lange Liste weiterer Berufe in Absatz 1. Cloud-KI-Anbieter werden durch die Reform 2017 in § 203 Abs. 3 StGB explizit adressiert: Eine berufstragende Person darf Geheimnisse an "mitwirkende Personen" nur offenbaren, wenn diese zur Verschwiegenheit verpflichtet sind und die Offenbarung erforderlich ist. Quelle: § 203 StGB auf gesetze-im-internet.de. Eine detaillierte Analyse speziell zu Cloud-KI in der Arztpraxis: Kleiboldt - § 203 StGB und Cloud-KI.
DSGVO. Gesundheits-, biometrische und besondere Kategorien von Daten nach Art. 9 erfordern ausdrückliche Einwilligung oder eine andere enge Rechtsgrundlage. Auch für nicht-besondere Daten löst die Übermittlung an einen Drittlandanbieter Pflichten nach Art. 44+ aus: Standardvertragsklauseln, Transfer-Folgenabschätzung, ergänzende Maßnahmen. Die meisten "EU-Residency"-Schalter auf Consumer-KI-Produkten erfüllen diese Anforderungen nicht ohne einen schriftlichen Auftragsverarbeitungsvertrag (AVV) nach Art. 28.
Berufsspezifische Pflichten. BRAO § 43a, MBO-Ä § 9, StBerG § 62a - jeweils eine zusätzliche Schicht oben auf § 203 StGB. Die Berufskammern haben alle 2024 und 2025 KI-spezifische Leitlinien herausgegeben.
Was die Berufskammern tatsächlich sagen#
BRAK (Anwälte): Leitlinien vom Dezember 2024#
Die Bundesrechtsanwaltskammer hat im Dezember 2024 ihre 25-seitigen "Hinweise zum Einsatz von künstlicher Intelligenz" veröffentlicht. Die operative Kernregel:
"Die Übermittlung von Mandantengeheimnissen ist nach derzeitigem Stand der Technik nicht erforderlich, da das System auch ohne Übermittlung solcher Daten genutzt werden kann; eine Offenlegung wäre mit unkalkulierbaren Risiken für die Mandantschaft verbunden."
Übersetzt in Praxis: Setze keine Mandantengeheimnisse in Allzweck-KI ein. Der empfohlene Workflow ist Anonymisierung oder Abstraktion vor dem Prompt. Quelle: BRAK KI-Leitfaden PDF, Dezember 2024 und die offizielle BRAK-Ankündigung.
Der von der BRAK im April 2026 referenzierte technische CCBE-Leitfaden bestätigt das: CCBE Technischer Leitfaden via BRAK Newsletter, April 2026. Ein separater Bericht von ad-hoc-news dokumentiert eine Gerichtsentscheidung, dass KI-Chat-Inhalte nicht durch das Anwaltsgeheimnis geschützt sind: KI-Chats vor Gericht: kein Schutz durch Anwaltsgeheimnis.
Bundesärztekammer (Ärzte): Position über den Wissenschaftlichen Beirat#
Der Wissenschaftliche Beirat der BÄK hat festgestellt, dass Systeme wie ChatGPT keine datenschutzkonforme Umgebung bieten und nicht für die Verarbeitung von Patientendaten oder Dokumentationszwecken eingesetzt werden können. Konkret: Wer eine Patientenkurve, Laborwerte oder auch nur pseudonymisierte, aber re-identifizierbare Fallhistorien in die Consumer-Weboberfläche von ChatGPT einfügt, handelt nicht konform. Praxisanalyse mit berufsspezifischen Fällen: Doc Report AI - ChatGPT für Ärzte und die DSGVO und Kleiboldt - ChatGPT in der Arztpraxis 2026.
BStBK (Steuerberater): FAQ-Katalog vom Januar 2026#
Der FAQ-Katalog der Bundessteuerberaterkammer vom 27. Januar 2026 adressiert KI-Tools explizit. FAQ 5.8 ("Dürfen Mandantendaten oder andere vertrauliche Informationen in KI-Tools (z.B. ChatGPT) eingegeben werden?") schließt: nicht ohne ausdrückliche Befugnis, technische Schutzmaßnahmen und einen AVV mit dem Anbieter. Dasselbe Dokument behandelt die strafrechtliche Exposition nach § 203 StGB für Steuerberater. Quelle: BStBK FAQ-Katalog Januar 2026 PDF und Haufe-Analyse zu FAQ 5.8.
Das Muster ist konsistent: Jede maßgebliche DACH-Berufskammer zwischen 2024 und 2026 sagt dasselbe. Standard-Cloud-KI ist für Mandanten-, Patienten- oder Mandatsdaten nicht sicher.
Die vier Compliance-Pfade#
Sortiert vom schutzstärksten zum permissivsten. Wähle den reibungsärmsten Pfad, der zu deiner Risikobereitschaft und der Sensibilität der Daten passt.
Pfad 1 - Keine Mandantendaten in KI#
Klingt defätistisch, ist aber die formal sicherste Position und entspricht der BRAK-Leitlinie für hochsensible Sachen.
KI nutzen für: Recherche zu öffentlichen Gesetzen, Vorlagenerstellung, Marketing-Content, internes Schulungsmaterial, Zusammenfassung öffentlich verfügbarer Rechtsprechung, Erzeugung standardisierter Vertragsgerüste, die du dann manuell befüllst.
Nicht nutzen für: Alles, was sich auf einen identifizierbaren Mandanten, Patienten oder ein Mandat zurückführen lässt. Auch pseudonymisierte Daten, die durch Kontext re-identifizierbar sind.
Kosten: Null Compliance-Aufwand. Realistische Abdeckung: vielleicht 30 bis 40 Prozent der typischen KI-Produktivitätsgewinne einer Solo-Praxis.
Pfad 2 - Cloud-KI mit AVV plus diszipliniertes Pseudonymisieren#
Setze ChatGPT Enterprise, Claude for Work oder Microsoft 365 Copilot ein (mit Auftragsverarbeitungsvertrag) und pseudonymisiere Inputs aggressiv vor dem Einfügen.
Was das praktisch heißt: Namen durch "Mandant A" ersetzen, Adressen durch "Anschrift A1", Daten durch strukturelle Platzhalter und Beträge durch relative Spannen. Das Ergebnis wird dann zurückgemappt auf den Originalfall. Das ist der von der BRAK empfohlene Workflow für "datenschutz-mittlere" Sachen.
Fallstricke:
- Die meisten Consumer-Konten wie ChatGPT Plus oder Team erfüllen keine AVV-Anforderungen. Du brauchst speziell ChatGPT Enterprise. ChatGPT Team (der KMU-Tier seit 2024) kommt näher, braucht aber sorgfältige AVV-Prüfung.
- Microsoft 365 Copilot über Azure hat die stärkste AVV-Story für DACH-Berufstragende und bleibt standardmäßig in EU-Datenresidenz.
- Claude for Work (Anthropic Enterprise) unterzeichnet DPAs und bietet seit Ende 2025 EU-Residency für Claude 4.7, aber prüfe den aktuellen DPA-Umfang vor der Annahme der Suffizienz.
- Pseudonymisierung ist schwerer, als sie scheint. Re-Identifikation durch Kontext (seltene Erkrankung, ungewöhnliche Fallhistorie, distinctive prozessuale Lage) hebelt den Schutz aus.
Kosten: ChatGPT Enterprise und Microsoft 365 Copilot sind für Teams kalkuliert; für eine Ein-Personen-Praxis erwarte 30 bis 60 Euro pro Nutzer und Monat.
Pfad 3 - Azure OpenAI Service mit EU-Residency#
Dieselben Modelle wie ChatGPT, aber konsumiert über Azure mit expliziter EU-Datenresidenz, vollem AVV unter Microsofts DSGVO-Rahmen und vertraglicher Zusicherung, dass kein Modelltraining auf Kundendaten erfolgt. Das ist der Pfad, den die meisten großen DACH-Kanzleien und Krankenhäuser tatsächlich wählen.
Für Solo-Praxen nur realistisch, wenn du bereits Azure-Infrastruktur hast oder bereit bist, Azure Resource Management zu lernen. Das Setup ist nicht trivial: Resource Group, Cognitive-Services-Account, Content-Filter-Konfiguration, Netzwerkregeln. Es gibt eine spürbare Lernkurve.
Kosten: nutzungsabhängig pro Token, ähnlich der direkten OpenAI-Preisgestaltung, plus moderater Infrastruktur-Overhead.
Pfad 4 - Selbstgehostetes lokales LLM (echte Souveränität)#
Die Daten verlassen niemals deinen Rechner oder dein lokales Netz. § 203 StGB greift nicht, weil keine Offenbarung an einen Dritten stattfindet. Die Datenübermittlungs-Kapitel der DSGVO greifen nicht, weil keine Übermittlung erfolgt.
Das ist der einzige Pfad, der echte Sicherheit für die sensibelsten Sachen gibt: Strafverteidigung, psychiatrische Akten, laufende Steuerprüfungen, Sorgerechtsstreitigkeiten, M&A unter NDA.
Die Hardware-Realität 2026 folgt im nächsten Abschnitt.
Lokale LLM Hardware-Realität, April 2026#
Die nachfolgenden Zahlen sind für tatsächlich nutzbare Modelle, nicht Spielzeug-Demos.
Was "nutzbar" 2026 bedeutet#
Für Workflows in regulierten Berufen ist das realistische Minimum ein Modell mit:
- Solider deutschsprachiger Argumentation (die meisten Llama-, Mistral- und Qwen-Varianten sind inzwischen ausreichend; kleinere Modelle nicht).
- 70B+ Parameter oder ein starkes 30B+ MoE.
- 32k+ Kontextfenster für Dokumentenanalyse.
Llama 3.3 70B und Modelle der DeepSeek-V3-Klasse sind aktuell der Sweet Spot. Llama 3.3 70B benötigt mit Q4_K_M-Quantisierung etwa 35 GB VRAM. Quelle: APXML - Systemanforderungen für die Llama-3-Familie.
Hardware-Optionen#
RTX 4090 oder 5090 als Single-Workstation. Eine 24-GB-Consumer-GPU plus 64 bis 128 GB Systemspeicher kann Llama 3.3 70B mit Q4_K_M und Offloading betreiben. Performance ist akzeptabel für Single-Document-Aufgaben; Durchsatz ist der Engpass. Build-Kosten: 3.500 bis 5.000 Euro.
Mac Studio M3 Ultra (oder M4 Ultra, sobald lieferbar). Die Unified-Memory-Architektur bedeutet, dass ein 192-GB-Mac-Studio ein 70B-Modell vollständig im Speicher bei FP16 halten kann, und 70B bei Q4 lässt reichlich Platz für Kontext. Inferenz ist langsamer als CUDA bei gleicher Modellgröße, aber für Schreibtisch-Arbeit ausreichend. Kosten: 5.500 bis 8.000 Euro voll ausgestattet. Diese Option wählen viele Solo-Praktiker, weil sie zugleich die tägliche Workstation ist.
Workstation mit einer A6000 Ada (48 GB). Läuft 70B Q8 sauber. Kosten: 6.500 bis 8.000 Euro für das ganze System. Geeignet für Kliniken oder Kanzleien mit mehreren gleichzeitigen Nutzern.
Multi-GPU 70B bei FP16 oder 405B-Llama-Varianten. Genuin Enterprise. Überspringen, wenn du nicht für ein Krankenhaus oder eine 20-plus-Anwälte-Kanzlei deployst.
Der Software-Stack (nach Reibung sortiert)#
- Ollama. Ein-Zeilen-Install auf macOS, Linux, Windows. Stellt automatisch eine OpenAI-kompatible API auf
localhost:11434bereit. Quelle: die offizielle Llama-3.3-70B-Modellseite auf Ollama. Für die meisten Solo-Praktiker der richtige Startpunkt. - LM Studio. GUI-getrieben, niedrigschwelliger für nicht-technische Nutzer, etwas weniger flexibel als Ollama. Hervorragend für Ärzte und Anwälte ohne IT-Personal.
- Open WebUI. Web-Interface, das auf Ollama aufsetzt. Gibt dir eine ChatGPT-artige Oberfläche im lokalen Netz. Mit Tailscale paaren, wenn du sicheren Zugriff von Tablet oder Laptop unterwegs willst.
- AnythingLLM. RAG-fähiger Wrapper. Du kannst Akten, Urteile, Gesetze oder medizinische Leitlinien hochladen und das lokale LLM zitiert sie. Die RAG-Pipeline hält alles lokal.
Ein typisches Deployment für eine 5-Personen-Kanzlei in DACH: Mac Studio M3 Ultra mit Ollama und Llama 3.3 70B, Open WebUI im LAN, AnythingLLM, das das Aktenarchiv der Kanzlei einliest. Gesamtkosten 7.000 bis 9.000 Euro plus 4 bis 8 Stunden Beraterzeit. Keine wiederkehrenden KI-Abokosten, keine Daten verlassen je das Büro.
Realistische Anwendungsfälle pro Beruf#
Für Anwälte#
- Rechtsrecherche aus öffentlichen Quellen. Lokales LLM liest Rechtsprechung, die du von openJur, dejure.org, BVerfG-Datenbank etc. heruntergeladen hast. RAG liefert Antworten mit Zitaten. Keine Mandantendaten beteiligt.
- Vertragsvorlagen-Review und Drafting. Mit pseudonymisiertem Kontext.
- Dokumentenzusammenfassung für nicht zusammenhängende Sachen. Abgeschlossene und für Schulungszwecke anonymisierte Altfälle.
- Interne Wissensbasis. Sozietätshandbuch, interne Richtlinien, Partnerschaftsverträge.
- Kontrollesen und Stilpolitur wenn du der Sprachmodell einen redigierten Text gibst.
Was weiterhin nicht geht: vollständige Aktenanalyse mit lebenden Mandantendaten, sofern du nicht vollständig lokal auf Hardware in deinem physischen Besitz arbeitest.
Für Ärzte#
- Anamnesefragen-Generierung. Generische Entscheidungsunterstützung, die keine echten Patientendaten sieht.
- Öffentliche Medizinliteratur-Zusammenfassung. Pubmed-Pulls, AWMF-Leitlinien, IQWiG-Berichte.
- Patienteninformations-Dokumente. Erzeugung von Aufklärungsbögen und Informationsblättern.
- Interne Trainingsszenarien. Synthetische Fallstudien für Mitarbeiterschulungen.
- Lokales Arztbrief-Drafting mit strikter Trennung: Das LLM sieht strukturelle Felder und freie Notizen, die pseudonymisiert wurden, der finale Output wird auf einem separaten Bildschirm geprüft und re-personalisiert. In einem voll lokalen Setup akzeptabel; in Cloud-KI auch mit AVV nicht akzeptabel, sofern der AVV nicht ausdrücklich Gesundheitsdaten abdeckt und dein DSB freigegeben hat.
Was weiterhin nicht geht: Live-Patientenakten-Analyse in Cloud-KI. Bildgebungs-Analyse mit Consumer-Tools. Jeder Workflow, in dem der Arzt der Datenkette nicht voll vertrauen kann.
Für Steuerberater#
DATEVs eigener KI-Stack deckt die meisten täglichen Automatisierungsbedarfe ab. Siehe den dedizierten Beitrag DATEV und KI 2026 für diese Seite.
Für nicht-DATEV-abgedeckte Arbeit:
- Recherche zu öffentlichem Steuerrecht. BFH-Datenbank, BMF-Schreiben, JStG-Entwürfe. Lokales LLM mit RAG funktioniert gut.
- Generisches E-Mail-Drafting mit pseudonymisiertem Mandatskontext.
- Prüfungsvorbereitungs-Checklisten. Erzeugt gegen öffentliche Prüfungsschwerpunkte.
- Onboarding-Prozess-Automatisierung für neue Mandate, bevor tatsächliche Mandantendaten erhoben werden.
Was weiterhin nicht geht: Lose Cloud-KI mit Roh-Buchhaltungsdaten. BStBK FAQ 5.8 ist hier explizit.
Der Kostenvergleich, den die meisten Beiträge auslassen#
Für eine Solo-Praxis mit ernsthafter KI-Nutzung (50 bis 100 Prompts pro Arbeitstag mit substanziellem Kontext):
- Cloud Pfad 2 (ChatGPT Enterprise oder Copilot): 30 bis 60 Euro pro Monat, dauerhaft. Fünf-Jahres-Kosten: 1.800 bis 3.600 Euro.
- Cloud Pfad 3 (Azure OpenAI direkt): Variabel, oft 50 bis 200 Euro pro Monat in Solo-Größe. Fünf-Jahres-Kosten: 3.000 bis 12.000 Euro.
- Lokal Pfad 4 (Mac Studio oder RTX-Workstation): 5.000 bis 8.000 Euro einmalig. Fünf-Jahres-Kosten: dasselbe plus moderate Stromkosten (grobe Schätzung 200 bis 400 Euro pro Jahr).
Die lokale Option ist im Fünf-Jahres-TCO für jeden volumenstarken Nutzer günstiger. Sie ist im Cashflow materiell teurer beim Start. Der ausschlaggebende Faktor sind selten Kosten. Es sind operative Bequemlichkeit und IT-Support-Verfügbarkeit.
Was 2026 weiterhin nicht funktioniert (sei ehrlich zu dir selbst)#
- OCR plus strukturierte Extraktion auf dem Niveau von Adobe Acrobat AI oder Azure Document Intelligence. Lokale Pipelines existieren (PaddleOCR, Tesseract plus LLM), aber der Engineering-Aufwand ist real.
- Echtzeit-Sprachtranskription auf dem Niveau von Otter.ai oder Microsoft Teams. Whisper Large V3 läuft lokal, aber die Latenz ist höher und die Qualität leicht hinter Cloud-APIs.
- Multimodale medizinische Bildgebung auf dem Niveau cloud-only spezialisierter Modelle. Solo-Praxen brauchen das selten; Fachkliniken schon.
- Dokumentenvergleich über Hunderte von Seiten. Mit der richtigen RAG-Pipeline möglich, aber engineering-intensiv.
Aktions-Checkliste für die nächsten zwei Wochen#
-
Mappe deine Datensensibilität. Klassifiziere für jede KI-relevante Aufgabe die Daten: öffentlich, ohne Re-Identifikationsrisiko pseudonymisierbar, sensibel aber mit Aufwand pseudonymisierbar, besondere Kategorien und niemals offenbarbar.
-
Ordne jede Kategorie einem der vier Pfade zu. Öffentlich geht frei zu Pfad 1 oder 2. Pseudonymisierbar geht zu Pfad 2 mit Disziplin. Sensibel geht zu Pfad 3 oder 4. Besondere Kategorien gehen ausschließlich zu Pfad 4 oder bleiben ganz aus der KI raus.
-
Wenn Pfad 4 sinnvoll ist, mache einen Probelauf auf einem Mac mini oder deiner bestehenden GPU. Bevor du 5.000 bis 8.000 Euro ausgibst, installiere Ollama mit einem kleineren Modell (Llama 3.3 8B oder Phi-4) und bestätige, dass die Workflow-Form für dich funktioniert. Die meisten Enttäuschungen mit lokalen LLMs entstehen, weil dieser Schritt übersprungen wird.
-
Aktualisiere dein AVV-Inventar. Stelle sicher, dass jedes aktuell genutzte Cloud-KI-Tool durch einen schriftlichen AVV und eine EU-Residency-Klausel abgedeckt ist. Falls nicht, entweder auf Enterprise-Tier upgraden oder das Tool wechseln.
-
Dokumentiere deine Entscheidungen. Artikel 4 der EU-KI-Verordnung verlangt jetzt, dass du KI-Kompetenz auf Praxisebene nachweisen kannst. Ein zweiseitiges Memo, das deine Datenklassifikations-Karte, Pfad-Zuordnungen und Pseudonymisierungs-Regeln beschreibt, ist dein Compliance-Artefakt. Siehe den EU-KI-Verordnung 2026 Solopreneure-Leitfaden für den Kompetenz-Pflicht-Kontext.
Die ehrliche Zusammenfassung#
Standard-Cloud-KI ist schnell, leistungsfähig und für lebende Mandanten- und Patientendaten in DACH-regulierten Berufen weitgehend illegal. Die Berufskammern haben das zwischen 2024 und 2026 alle ausdrücklich gesagt. Die Exposition ist § 203 StGB strafrechtliche Haftung plus DSGVO plus berufsspezifische Sanktionen. Keine davon ist theoretisch.
Die zwei praktischen Wege nach vorn sind entweder disziplinierte Cloud-KI-Nutzung mit rigoroser Pseudonymisierung und einem durchsetzbaren AVV oder volles lokales Deployment auf Hardware, die du physisch kontrollierst. Die Lokal-LLM-Option ist 2026 endlich gut genug. Llama 3.3 70B auf einem Mac Studio M3 Ultra ist ein nutzbares Arbeitspferd für ernsthafte Kanzleiarbeit, mit Fünf-Jahres-TCO konkurrenzfähig zu Enterprise-Cloud-KI.
Wähle einen Pfad bewusst. Der falsche Default ist das Standard-ChatGPT-Abo, das 70 Prozent der Berufstragenden ohnehin (still) bereits nutzen.
Quellen#
Gesetze und Primärregelung
Berufskammern
- BRAK KI-Leitlinien Dezember 2024 (PDF)
- BRAK Ankündigung der KI-Leitlinien
- BRAK Newsletter zum CCBE Technischen KI-Leitfaden, April 2026
- BRAK Publikationen Hub
- Rechtsanwaltskammer Sachsen - BRAK KI-Leitfaden Zusammenfassung
- BStBK FAQ-Katalog Januar 2026 (PDF)
Unabhängige berufliche Analyse
- Haufe - BStBK FAQ 5.8 Kommentar
- Clara Agent - § 203 StGB und KI für Steuerberater
- Anwaltspraxis Magazin - Darf die KI Anwalt sein?
- KI in Kanzleien - Übersicht der BRAK-Leitlinie
- get-aimax - praktische Zusammenfassung der BRAK-Leitlinien
- Doc Report AI - ChatGPT für Ärzte und die DSGVO
- Kleiboldt - § 203 StGB und Cloud-KI
- Kleiboldt - ChatGPT in der Arztpraxis 2026
- Kleiboldt - KI Arztbrief, was 2026 funktioniert
- Kleiboldt - ChatGPT-Arztbrief Haftung und DSGVO
- Skill-Sprinters - fünf DSGVO-sichere KI-Use-Cases für Arztpraxen
- Amplinome - DSGVO und KI in der Arztpraxis
- Klinikmanagement-Akademie - Datenschutz-Folgenabschätzung für KI in Kliniken
- bw.tech - Patientendatenschutz mit KI in Arztpraxen
- healthcare-digital - Schatten-KI-Nutzung trotz Datenschutzbedenken
- ad-hoc-news - KI-Chats und Anwaltsgeheimnis
Lokale LLM Hardware und Tooling
