chatbot-psycho-diagnose-ChatGPT#

rechtliche Regelungen allgemein#

Frage

Ich will einen KI-basierten Chatbot bauen, der eine Anfangsdiagnose im Bereich psychische Störung erstellt. Welche rechtlichen Regelungen muss ich beachten?

Ein KI-basierter Chatbot, der eine Anfangsdiagnose bei psychischen Störungen erstellt, fällt rechtlich in ein sensibles Feld, das mehrere Aspekte abdeckt – insbesondere aus Datenschutz, Medizinrecht, Haftungsrecht und Regulierung von Medizinprodukten. Hier sind die zentralen rechtlichen Regelungen und Punkte, die du beachten musst, speziell im deutschsprachigen Raum (z. B. Deutschland, Österreich, Schweiz):


1. Medizinprodukt oder nicht?#

🔍 Geregelt durch:#

  • Medizinprodukteverordnung (MDR) – EU-Verordnung 2017/745

  • Medizinproduktegesetz (MPG) (vor 2021, Ăśbergangsregelungen teilweise noch gĂĽltig)

Wenn dein Chatbot medizinische Diagnosen erstellt oder unterstützt, handelt es sich sehr wahrscheinlich um ein Medizinprodukt der Klasse IIa oder höher. Das bedeutet:

  • Zulassungspflicht (CE-Kennzeichnung)

  • Klinische Bewertung notwendig

  • Technische Dokumentation, Risikobewertung, etc.

Wichtig: Auch ein “Anfangsverdacht” oder eine “nicht-verbindliche Ersteinschätzung” kann bereits als medizinischer Zweck gelten.


2. Datenschutzrecht#

🔍 Geregelt durch:#

  • DSGVO (Datenschutz-Grundverordnung) – Art. 9 (besondere Kategorien personenbezogener Daten)

  • BDSG (Deutschland), DSG (Schweiz), DSG (Ă–sterreich)

Psychische Gesundheitsdaten gelten als besondere personenbezogene Daten und dĂĽrfen nur mit ausdrĂĽcklicher Einwilligung verarbeitet werden.

Du brauchst:

  • Datenschutzerklärung

  • Einwilligung zur Datenverarbeitung

  • Technische und organisatorische MaĂźnahmen (z. B. VerschlĂĽsselung, Zugriffsschutz)

  • ggf. Datenschutz-Folgenabschätzung (DSFA)


3. Berufsrecht / Heilkundevorbehalt#

🔍 Geregelt durch:#

  • Heilpraktikergesetz, Psychotherapeutengesetz, Ă„rztegesetz, je nach Land

Nur approbierte Ärzte oder Psychotherapeuten dürfen Diagnosen stellen.

Wenn dein Chatbot eigenständig eine Diagnose stellt (ohne ärztliche Supervision), kann das unerlaubte Ausübung der Heilkunde sein. Eine Lösung wäre:

  • Der Chatbot weist klar darauf hin, dass er keine Diagnose im medizinischen Sinn stellt, sondern lediglich eine unverbindliche Einschätzung oder ein Gesprächsangebot liefert.

  • Oder: Supervision durch Fachpersonal bzw. Integration in eine ärztlich verantwortete Anwendung.


4. Haftungsrecht#

Wenn dein Chatbot falsche Einschätzungen gibt, können gesundheitliche Schäden entstehen → Haftung für Entwickler und Anbieter.

Du brauchst:

  • Haftungsausschluss (Disclaimer) in der App

  • Gute Dokumentation und Qualitätssicherung

  • Möglicherweise eine Produkthaftpflichtversicherung


5. Kennzeichnung, Aufklärung, Transparenz#

  • Der Nutzer muss klar verstehen, dass es sich um eine KI handelt.

  • Keine IrrefĂĽhrung – klare Kommunikation ĂĽber Leistungsgrenzen.


Zusammengefasst – To-do-Liste:#

✅ Prüfung, ob dein Chatbot ein Medizinprodukt ist ✅ Datenschutzerklärung & Einwilligung ✅ DSFA durchführen ✅ Berufsgesetze prüfen (z. B. Heilkundevorbehalt) ✅ Ggf. CE-Zertifizierung beantragen ✅ Klare Kommunikation & Nutzeraufklärung ✅ Risikomanagement & technische Absicherung


Wenn du möchtest, kann ich dir ein konkretes rechtliches Checklisten-Dokument oder ein Konzept für eine datenschutzkonforme und medizinrechtlich sichere Umsetzung erstellen. Möchtest du das?

Risikoklasse EU AI Act#

Frage

Beurteile gemäß eu ai act: Welche Risikoklasse liegt vor?

Sehr gute und wichtige Frage – der EU AI Act (Verordnung zur Regulierung Künstlicher Intelligenz in der EU), der im März 2024 final verabschiedet wurde, klassifiziert KI-Systeme in vier Risikoklassen:


Die vier Risikoklassen laut EU AI Act:

  1. Verbotene KI-Systeme (Art. 5)

  2. Hochrisiko-KI-Systeme (Art. 6–29)

  3. Begrenztes Risiko (Transparenzpflicht) (Art. 52)

  4. Minimales Risiko (z. B. KI in Spamfiltern)


Dein Anwendungsfall: „KI-gestützter Chatbot zur Anfangsdiagnose psychischer Störungen“#

Einordnung: Hochrisiko-KI-System (High-Risk AI)#

→ gemäß Anhang III, Abschnitt 5(b) des EU AI Act:

“AI systems intended to be used for the purpose of making decisions or providing information with a view to influencing the decision-making of natural persons regarding their health and health care.”

Dein System:

  • Bezieht sich auf die Gesundheit (psychische Störungen)

  • Beeinflusst Entscheidungen (z. B. ob jemand professionelle Hilfe sucht, sich selbst gefährdet, etc.)

Deshalb ist dein Chatbot klar als Hochrisiko-KI-System eingestuft.


Konsequenzen der Hochrisiko-Einstufung#

Wenn deine Anwendung unter den Hochrisiko-Bereich fällt, musst du folgende Anforderungen erfüllen (Art. 8–29):

1. Risikomanagementsystem#

Systematisches Management potenzieller Schäden

2. Datenanforderungen#

  • Hochwertige Trainingsdaten (repräsentativ, keine Verzerrung)

  • Dokumentation der Datenherkunft

3. Technische Dokumentation & Logging#

  • Nachvollziehbarkeit der Entscheidungen

  • Speichern aller Aktivitäten zur späteren ĂśberprĂĽfung

4. Transparenzpflicht & Benutzerinformationen#

  • Nutzer mĂĽssen wissen, dass sie mit KI interagieren

  • Funktionsweise und Einschränkungen klar darlegen

5. Menschliche Aufsicht sicherstellen#

→ z. B. Möglichkeit, dass Fachpersonal Ergebnisse überprüft

6. Cybersicherheit & Robustheit#

  • Schutz vor Manipulation oder Fehlfunktion


âť— Fazit:#

Dein Chatbot zur psychischen Anfangsdiagnose ist nach dem EU AI Act eindeutig ein Hochrisiko-KI-System. Das bedeutet:

âś… Du darfst ihn rechtlich betreiben, aber nur unter strengen Auflagen.


Möchtest du, dass ich dir ein konkretes Konzept zur Erfüllung der Anforderungen für Hochrisiko-KI gemäß EU AI Act erstelle (z. B. Dokumentation, Aufsicht, Risikomanagementstruktur)?

Emotionserkennung#

Frage

Wie ist Emotionserkennung durch eine KI im EU AI Act eingestuft?

Emotionserkennung durch KI wird im EU AI Act (Verordnung zur Regulierung von Künstlicher Intelligenz) explizit adressiert – und ihre Einstufung hängt stark vom Anwendungsbereich ab.


  1. NICHT per se verboten, aber möglicherweise Hochrisiko oder reguliert

Der AI Act unterscheidet nicht die Technologie selbst (z. B. “Emotionserkennung”), sondern ihren Zweck und Kontext.


Drei mögliche Einordnungen im AI Act:#

A. Hochrisiko-KI (Art. 6, Anhang III), wenn im Gesundheitsbereich oder Bildung/Arbeitswelt:#

Wenn du Emotionserkennung z. B. in folgenden Bereichen einsetzt:

  • Arbeitswelt: Bewerbungsgespräche, Leistungsbeurteilung, MitarbeiterĂĽberwachung

  • Bildung: Verhaltensbewertung, PrĂĽfungssituationen

  • Gesundheit: z. B. zur psychischen Diagnose oder TherapieunterstĂĽtzung

➡️ Dann fällt sie unter Hochrisiko-KI gemäß Anhang III, Abschnitt 2 & 5:

Art. 6 + Anhang III, 2(a): „KI-Systeme zur Bewertung des Verhaltens oder Persönlichkeitsmerkmale natürlicher Personen im Beschäftigungskontext“ Anhang III, 5: Systeme, die sich auf Gesundheit und Lebensentscheidungen auswirken


B. Verbotene KI (Art. 5), wenn in besonders sensiblen Kontexten verwendet:#

Art. 5(1)(d): Verbot von biometrischer Kategorisierung, wenn sie sensible Merkmale ableitet (z. B. ethnische Herkunft, sexuelle Orientierung, politische Meinung) Art. 5(1)(c): Echtzeit-Remote-Biometrie (z. B. Gesichtserkennung auf öffentlichen Plätzen) ist verboten, es sei denn, sehr enge Ausnahmen greifen

➡️ Wenn die Emotionserkennung mit biometrischen Daten (z. B. Gesicht, Stimme) kombiniert wird, besteht ein hohes Risiko, in einen verbotenen Bereich zu geraten – vor allem bei Überwachung im öffentlichen Raum.


C. Transparenzpflicht (Art. 52), wenn Emotionserkennung fĂĽr Benutzerinteraktion genutzt wird#

Wenn Emotionserkennung:

  • rein fĂĽr Nutzererlebnis (UX),

  • z. B. zur Anpassung von Inhalten oder Avataren,

  • ohne Auswirkungen auf Rechte/Dienstzugang,

→ dann greift nur eine Transparenzpflicht:

Art. 52(1): Der Nutzer muss klar darĂĽber informiert werden, dass Emotionserkennung stattfindet.


Fazit zur Emotionserkennung im EU AI Act:#

Anwendungskontext

Einstufung

Rechtsfolge

Emotionserkennung in Bewerbung, Schule, Medizin

Hochrisiko-KI

Strenge Pflichten (Risikomanagement etc.)

Ă–ffentliche emotionale Ăśberwachung (Biometrie)

Verboten

Nicht erlaubt, auĂźer Ausnahmen

UX-Anpassung, z. B. in Chatbots oder Games

Transparenzpflicht

Info an Nutzer ist Pflicht


Wenn du mir sagst, wo genau und wie du Emotionserkennung einsetzen möchtest, kann ich dir die genaue Risikokategorie nennen – möchtest du das?

Sandbox#

Frage

ich möchtezu einer medizinischen Frage (Depression) im Forschungskontext eine KI entwickeln, also Hochrisiko. Es gibt eine “Sandbox”: Was ist das?

Perfekt, du denkst schon in die richtige Richtung – denn für die Entwicklung von Hochrisiko-KI-Systemen im medizinischen und forschungsbezogenen Kontext bietet der EU AI Act tatsächlich einen unterstützenden Rahmen: die sogenannte AI Regulatory Sandbox.


Was ist eine “AI Sandbox” laut EU AI Act?#

Die Regulatory Sandbox ist ein geschützter Raum, in dem Entwickler (v. a. Start-ups, Forschungseinrichtungen, Unternehmen) neue KI-Systeme testen und entwickeln können, bevor sie vollständig den Anforderungen des EU AI Act unterliegen.

Offiziell definiert in Art. 53 EU AI Act#

**„Regulatory sandboxes“ are controlled environments established by national competent authorities to facilitate the development, testing and validation of innovative AI systems, especially those classified as high-risk, under regulatory supervision.


Zweck der Sandbox#

  • Erlaubt frĂĽhzeitiges Testen von Hochrisiko-KI (z. B. im medizinischen Bereich)

  • Erleichtert Forschung & Innovation, ohne sofort alle bĂĽrokratischen HĂĽrden erfĂĽllen zu mĂĽssen

  • Schafft Rechtssicherheit, weil die Behörden mit einbezogen sind


Was du in der Sandbox darfst:#

Entwicklung & Testung von KI-Prototypen

Nutzung realer (ggf. pseudonymisierter) Daten

Anpassung von KI-Modellen ohne CE-Zulassung

Direkter Austausch mit Aufsichtsbehörden

UnterstĂĽtzung bei Risikobewertung, Dokumentation


Voraussetzungen fĂĽr die Teilnahme:#

  1. Nicht-kommerzieller oder experimenteller Zweck (z. B. Forschung, Prototyp)

  2. Zusammenarbeit mit zuständiger Behörde in deinem EU-Land (z. B. BfArM in Deutschland)

  3. Sorgfaltspflichten mĂĽssen trotzdem gewahrt bleiben:

    • Kein Risiko fĂĽr reale Patienten ohne Einwilligung

    • Datenschutzregeln gelten trotzdem (z. B. Pseudonymisierung)

    • Ethikvorgaben (z. B. Ethikkommission, wenn nötig)


Wer bietet die Sandboxes an?#

Jeder EU-Mitgliedstaat muss mindestens eine Sandbox einrichten. Zuständig sind meist:

  • Gesundheitsbehörden, z. B. BfArM (DE), AGES (AT), BAG (CH, falls angepasst)

  • Datenschutzbehörden

  • KI-Kompetenzzentren

Du kannst dich mit deinem KI-Projekt an die zuständige Behörde wenden und ein Gesuch auf Teilnahme stellen. In vielen Fällen gibt es Förderprogramme dazu.


Fazit:#

Die AI Sandbox ist fĂĽr dich als Entwickler einer hochrisiko-medizinischen KI im Forschungsbereich eine sehr empfehlenswerte Option, weil du:

  • Rechtlich abgesichert entwickeln kannst,

  • FrĂĽhzeitig Feedback zu Compliance bekommst,

  • Nicht alle Anforderungen sofort erfĂĽllen musst,

  • Und Zugang zu Support und Expertise hast.


Möchtest du, dass ich dir zeige, wie du konkret eine Sandbox-Teilnahme (z. B. in Deutschland oder Österreich) beantragst und welche Behörden dafür zuständig sind?