Künstliche Intelligenz durchdringt regulierte Branchen: als Feature in Medizinprodukten, als Entscheidungsunterstützung im Finanzwesen, als Entwicklungswerkzeug in Ihren Teams. Doch KI-Systeme verhalten sich fundamental anders als klassische Software. Sie liefern keine deterministischen Ergebnisse, ihre Entscheidungslogik bleibt oft opak, und ihre Performance kann sich über Zeit verschlechtern. Die Qualitätssicherung von KI-Systemen erfordert daher neue Methoden.
Mit dem EU AI Act (ab August 2026 für Hochrisiko-Systeme), aktualisierten FDA-Guidances und neuen ISO-Standards wie ISO/IEC 42001 wird die Qualitätssicherung von KI-Systemen zur Pflicht. sepp.med unterstützt Sie dabei, Ihre KI-Komponenten und KI-Werkzeuge so abzusichern, dass sie Audits standhalten und regulatorischen Anforderungen entsprechen.
Wir machen DIGITALISIERUNG – aber SICHER!
KI-basierte Komponenten Ihres Produkts unterliegen der Produktzulassung und müssen validiert werden wie jede andere sicherheitsrelevante Funktion.
Beispiele:
In regulierten Umgebungen gelten KI-Tools für Code-Generierung, Dokumentation oder Test als Computerized Systems und müssen validiert werden.
Ob Produktbestandteil oder Arbeitsmittel: Die Qualitätssicherung von KI erfordert neue Methoden, angepasste Metriken und regulatorisches Know-how.
✅ Unsere Lösung:Wir etablieren statistische Akzeptanzbänder und Metamorphic Testing: Statt exakter Matches prüfen wir Verhaltenskonsistenz und Quality Ranges. So wird nicht-deterministisches Verhalten validierbar.
✅ Unsere Lösung:Wir implementieren Continuous Model Monitoring mit Drift Detection. Kolmogorov-Smirnov-Tests, Population Stability Index und automatisierte Alerts erkennen Performance-Degradation, bevor sie zum Problem wird.
✅ Unsere Lösung:Wir integrieren Explainability-Methoden wie SHAP, LIME oder Grad-CAM. So dokumentieren Sie, welche Features Entscheidungen beeinflussen. Auditfähig und nachvollziehbar.
✅ Unsere Lösung:In regulierten Umgebungen: Ja. Wir erstellen Validierungsprotokolle für KI-Entwicklungstools nach GAMP 5 / CSV-Anforderungen, inklusive Risikobewertung und Nutzungsrichtlinien.
✅ Unsere Lösung:Wir führen eine Gap-Analyse gegen EU AI Act, ISO/IEC 42001 und branchenspezifische Standards durch. Sie erhalten eine Roadmap mit priorisierten Maßnahmen und klaren Deadlines.
✅ Regulatorische Sicherheit:Nachweise und Dokumentation entsprechen EU AI Act, ISO/IEC 42001, branchenspezifischen Standards (MDR/IVDR, ISO 26262, MaRisk) und bewährten Frameworks wie GAMP 5.
✅ Auditfähige KI-Dokumentation:Vollständige Traceability von Datenherkunft über Modellarchitektur bis zur Validierungsevidenz. Technische Dokumentation, die Notified Bodies und Aufsichtsbehörden überzeugt.
✅ Messbare Modellqualität:Performance-Baselines, Fairness-Metriken und Robustheitsnachweise machen die Qualität Ihrer KI-Systeme quantifizierbar und vergleichbar.
✅ Frühwarnsystem für Qualitätsverlust:Continuous Monitoring erkennt Model Drift, Concept Drift und Feature-Attribution-Verschiebungen, bevor sie den Produktionsbetrieb beeinträchtigen.
✅ Human-in-the-Loop-Prozesse:Definierte Oversight-Mechanismen entsprechen den Anforderungen des EU AI Act (Artikel 14) an menschliche Kontrolle und Interventionsmöglichkeiten.
Systematische Gap-Analyse gegen EU AI Act, ISO/IEC 42001 und branchenspezifische Anforderungen. Risiko-Klassifikation Ihrer KI-Systeme und -Tools. Ergebnis: priorisierte Roadmap mit Quick Wins und strategischen Maßnahmen.
Design und Durchführung von Validierungsstudien für KI-Komponenten: Bias- und Fairness-Testing, Robustheitsprüfung, Performance-Baseline-Etablierung. Für Medizinprodukte: Multi-Reader-Multi-Case-Studien (MRMC) nach IMDRF-Vorgaben.
Integration von Erklärbarkeitsverfahren (SHAP, LIME, Grad-CAM) in Ihre KI-Pipeline. Auditfähige Dokumentation der Entscheidungsfaktoren. Nachweisführung für Transparenzanforderungen nach EU AI Act.
Risikobasierte Validierung von GitHub Copilot, Claude Code und anderen GenAI-Tools für den Einsatz in regulierten Entwicklungsumgebungen. Nutzungsrichtlinien, Validierungsprotokolle und Schulungskonzepte.
Aufbau von Drift-Detection-Pipelines für Ihre produktiven KI-Modelle. Automatisierte Alerts, Retraining-Trigger und dokumentierte Eskalationsprozesse. Post-Market-Surveillance für KI-Medizinprodukte.
Unterstützung bei Conformity Assessments, Technical Documentation und Notified-Body-Interaktionen. Für FDA-Submissions: Predetermined Change Control Plans (PCCPs) für selbstlernende Systeme.
Wie wird KI vom Buzzword zum echten Business Impact? Beim Afterwork Exchange „Business Impact: AI“ können Sie sich auf kurze Praxis-Impulse und einen Blick auf den EU AI Act freuen. Im Anschluss haben Sie beim Get Together und beim Essen die Gelegenheit, zu netzwerken.
Wann: 19.03.2026, 17:00 UhrWo: sepp.med in Röttenbach
In regulierten Umgebungen (Medizintechnik, Pharma, Automotive mit ASPICE): Ja, wenn der generierte Code in das Produkt einfließt. KI-Tools gelten dann als Computerized Systems und unterliegen CSV-/GAMP-5-Anforderungen. Der Validierungsaufwand ist risikobasiert: Ein Copilot-generierter Unit-Test erfordert andere Nachweise als KI-generierter Produktcode in einem Medizinprodukt der Klasse III.
Der EU AI Act ist ein horizontales Gesetz, das KI-Systeme unabhängig von der Branche reguliert. Für Medizinprodukte und Fahrzeuge gilt er zusätzlich zu MDR/IVDR bzw. Fahrzeugzulassungsrecht. Die MDCG 2025-6 Guidance klärt die Schnittstellen. In der Praxis bedeutet das: Doppelte Compliance-Anforderungen, aber auch Synergien bei der Dokumentation.
Mit statistischen Akzeptanzbändern und Metamorphic Testing. Statt exakter Erwartungswerte definieren Sie Quality Ranges (z. B. „Genauigkeit zwischen 85–92 %“). Metamorphic Testing prüft, ob logische Beziehungen erhalten bleiben (beispielsweise sollte ein rotiertes Bild weiterhin korrekt klassifiziert werden). Diese Methoden sind inzwischen industrieller Standard.
Model Drift bezeichnet die schleichende Verschlechterung der Modellperformance, wenn sich reale Daten von den Trainingsdaten entfernen. Die meisten ML-Modelle zeigen mit der Zeit solche Leistungseinbußen. Der EU AI Act fordert kontinuierliche Überwachung und Mitigation von Post-Market-Risiken. Ohne Drift-Monitoring riskieren Sie Compliance-Verletzungen und – schwerwiegender – Qualitätsprobleme im Produktionsbetrieb.
Generative KI (LLMs) wegen Halluzinationen und Prompt-Sensitivität. Reinforcement Learning wegen der extrem großen Zustandsräume. Computer Vision wegen Adversarial Robustness (kleine Pixeländerungen können Fehlklassifikationen verursachen). Für jeden KI-Typ existieren jedoch etablierte Testmethoden. Die Herausforderung liegt in der korrekten Anwendung und regulatorischen Dokumentation.
Vorname:
Nachname:
E-Mail-Adresse:
Telefonnummer:
Betreff:
Ihre Nachricht:
Ja, ich bin einverstanden, dass meine personenbezogenen Daten elektronisch erhoben und gespeichert werden. Meine Daten werden nur zum Zweck der Beantwortung meiner Anfragen verwendet. Die Datenschutzhinweise habe ich zur Kenntnis genommen.
Sie sehen gerade einen Platzhalterinhalt von OpenStreetMap. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Sie müssen den Inhalt von hCaptcha laden, um das Formular abzuschicken. Bitte beachten Sie, dass dabei Daten mit Drittanbietern ausgetauscht werden.
Sie sehen gerade einen Platzhalterinhalt von Google Maps. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.