Quality Intelligence? – Wenn KI auf QS trifft
Das Programm
Die Vorträge
Datenqualität in der Edge für KI-Anwendungen: Fallbeispiel Umformprozesse
Obwohl Unternehmen in der Produktion große Datenmengen generieren, bleiben diese oft ungenutzt. Die Datenerhebung erfolgt bislang nur rudimentär oder gar nicht, sodass wertvolle Informationen nicht systematisch erfasst werden. Folglich wird das Potenzial zur Optimierung von Produktionsabläufen kaum ausgeschöpft. Viele Firmen sind zur Auswertung der Daten auf externe Cloudanbieter angewiesen, doch die Übermittlung sensibler Informationen an Drittanbieter ist aus Geschäfts- und Datenschutzgründen problematisch und bremst eine effiziente Nutzung zusätzlich aus.
In meinem Vortrag gebe ich Einblicke in Antworten auf diese Herausforderungen aus einem vergangenen Projekt. Im Kontext von Umformprozessen haben wir ein System zur Qualitätssicherung in der Produktion entwickelt, das sowohl die Datenqualität als auch Datensouveränität gewährleistet. Hierbei dienen dedizierte KI-Modelle nicht nur zur Erkennung und Reparatur von Ausreißern in den Produktionsdaten selbst, sondern auch zur Erkennung der Verschlechterung in der Produktionsqualität, um Predictive Maintenance zu ermöglichen. Sämtliche Auswertungen können dabei lokal und ressourcensparend in der Edge vorgenommen werden.

Marvin Vogt
Fraunhofer FOKUS
Marvin Vogt hat 2025 sein Masterstudium in Informatik abgeschlossen und forscht seit 2023 beim Fraunhofer-Institut für Offene Kommunikationssysteme an den Themen Adversarial Machine Learning, AI-Testing und Datenqualität.
KI in der Software Qualitätssicherung aus Sicht der Governance
KI in der Software Qualitätssicherung und dem Softwaretest sind in aller Munde. Tools, Vorgehensweisen, integrative Verarbeitung werden überall propagiert. Doch wie brauchbar sind Ansätze und Ideen für Unternehmen am deutschen Markt wirklich? Gemeinsam mit André Blunert von der DB InfraGO werden wir eine Sicht zu diesem Thema anbieten. Es wird dabei um die Governance-Ziele der Software Qualitätssicherung, die Einsetzbarkeit für Unternehmen, die Herausforderungen im Linzenzmanagement sowie die Anwendbarkeit für die Nutzer gehen. Mit Einsichten über unterschiedliche Projekte hinweg, bietet der Vortrag die Möglichkeit, KI nicht aus Sicht eines Toolherstellers oder Dienstleisters, sondern aus Sicht eines Abnehmers bzw. Anwenders zu bewerten. Anschließend hoffen wir auf eine anregende und gern auch kontroverse Diskussion zum Thema “KI – Hype oder realer Mehrwert”.

Andreas Neumeister
CGI Deutschland B.V. & Co . KG
Als Director Consulting Expert ist Andreas Neumeister zuständig für die strategische Ausrichtung der Qualitätssicherung der CGI in Deutschland. Im täglichen Projekteinsatz operationalisiert er Software Qualitätssicherung auf höchstem Level. Als Arbeitsgruppenleiter Agile beim German Testing Board und Funnel Board Member beim ISTQB arbeitet er aktiv an der zukünfitgen Ausrichtung des Tests mit.

André Blunert
DB InfraGO AG
André Blunert hat über 20 Jahre Erfahrung in der Software Qualitätssicherung und im Test und ist aktuell im Governance Bereich für Software Qualitätssicherung bei der DB InfraGO tätig
Barrierefreiheit testen mit KI – Pflicht, Potenzial und Perspektive
Künstliche Intelligenz (KI) verändert die Qualitätssicherung grundlegend – auch im Bereich der digitalen Barrierefreiheit. Mit dem Inkrafttreten des Barrierefreiheitsstärkungsgesetzes (BFSG) am 28. Juni 2025, das die EU-Richtlinie zur Barrierefreiheit (European Accessibility Act) in deutsches Recht überführt, sind Unternehmen erstmals gesetzlich verpflichtet, digitale Produkte und Dienstleistungen barrierefrei zu gestalten. Webseiten, Apps, Automaten und digitale Schnittstellen müssen künftig für alle Menschen – unabhängig von Einschränkungen – zugänglich und nutzbar sein. Doch wie lässt sich Barrierefreiheit effizient und zuverlässig testen? Und welche Rolle kann KI dabei spielen? In diesem Vortrag beleuchten wir, wie KI-basierte Verfahren die Barrierefreiheit von Software automatisiert prüfen können – etwa durch die Analyse von Kontrasten, Schriftgrößen, semantischer Struktur, Alternativtexten oder Überschriftenhierarchien. Gleichzeitig zeigen wir, wie KI dabei unterstützen kann, Prüfprozesse besser zu verstehen und Ergebnisse leichter zu interpretieren – ein Beitrag zur Hilfe zur Selbsthilfe, der insbesondere weniger erfahrene Tester:innen befähigt, Barrierefreiheit eigenständig zu prüfen und zu bewerten. Wir zeigen, wo die aktuellen Grenzen liegen – etwa bei der Bewertung von Kontext, logischer Reihenfolge oder emotionaler Verständlichkeit. Ebenso diskutieren wir die Mehrwerte: Skalierbarkeit, Wiederholbarkeit und die Möglichkeit, Barrierefreiheit frühzeitig im Entwicklungsprozess zu verankern. Besonders relevant ist dabei die Unterscheidung zweier Anwendungsfelder:
- Zum einen kann Barrierefreiheit direkt bei der Neuentwicklung digitaler Anwendungen mitgedacht und durch KI-gestützte Tests kontinuierlich überprüft werden.
- Zum anderen bietet KI auch bei bestehenden Webseiten und Anwendungen die Möglichkeit, Barrieren systematisch zu identifizieren und zu beheben. Gerade im Hinblick auf die gesetzlichen Anforderungen ab Mitte 2025 ist dieser retrospektive Einsatz entscheidend, um bestehende Systeme zeitnah anzupassen und rechtskonform zu machen.
Der Vortrag richtet sich an QS-Verantwortliche, Entwickler:innen, Produktmanager:innen und alle, die sich mit digitaler Inklusion beschäftigen. Anhand konkreter Beispiele und Lessons Learned aus Projekten zeigen wir, wie KI und QS gemeinsam dazu beitragen können, Barrierefreiheit nicht nur gesetzeskonform, sondern auch nutzerzentriert umzusetzen – und warum gerade 2025 der richtige Zeitpunkt ist, um darüber zu sprechen.

Dr. Eva Spieker
]init[ AG
2016 Promotion in Chemie, 2018-2025 Software Testerin mit Schwerpunkt auf Testmanagement. Seit 2024 Fokus zusätzlich auf Testen von digitaler Barrierefreiheit nach BITV.

Sajora Strohner
]init[ AG
2006 Studium Wirtschaftsinformatik mit Diplom abgeschlossen, 2008-2025 Software Testerin / Test Managerin mit den Schwerpunkten Sicherheit und eHealth und seit 2016 digitale Barrierefreiheit.
Probabilistische Modelle, Grundlage für eine Qualitätsbewertung einer KI
Wie gut arbeitet die KI, die wir für den Test einsetzen wollen, wie vertrauenswürdig ist sie, ja, wie messen wir eigentlich ihre Qualität für den Test? Von der Antwort auf diese Fragen hängt ab, wieviel Aufwand wir in ein Postprocessing stecken müssen, in anschließende Auditierungen der vorgeschlagenen Tests z.B., und, wie wir einen KI unterstützten Testprozess aufsetzen sollten. Und damit stoßen wir auf die grundlegende Frage: Wie testen wir ein KI System, messen und bewerten wir ihre Qualität?
Wir wollen in dem Vortrag diese Fragen nicht für die hochkomplexen generativen Netze angehen, wie sie z.B. hinter Copilote liegen, sondern uns auf die deutlich einfacheren Feedforward Netze konzentrieren, die für das Autonome Fahren z.B. relevant sind. Unsere Überlegungen sind im Besonderen aber auch für generative Netze bedeutsam. Als Beispiel dient uns ein Hinderniserkennungssystem, bestehend aus einer Kamera und einer KI. Es soll umgestürzte Bäume oder liegengebliebene Fahrzeuge auf der Strecke identifizieren. Die Zielumgebung dieses Systems ist offen und reichhaltig, die möglichen Situationen, in denen wir ihren Einordnungen vertrauen wollen, zu vielfältig, als dass komplexe, regelbasierte Systeme sie noch fassen könnten, weshalb wir KI einsetzen. Ihr Nachteil: Sie arbeitet statistisch, es sind stets auch Fehleinschätzungen zu erwarten und ein Fehlverhalten, ein ‘Bug’ der KI kann nicht einfach korrigiert werden. Und so kann die Güte einer KI nur statistisch bewertet werden: Arbeit sie zuverlässiger als ein Mensch?
Allgemein ist bekannt, dass die Trainingsdaten für eine KI vollständig und ausgewogen sein müssen, ansonsten sind ihre Lernergebnisse verzerrt. Und dasselbe gilt natürlich auch für die Testdaten, will man nicht blinde Flecken oder irreführende Statistiken über ihre Güte konservieren. Ein sehr gutes Verständnis der Zielumgebung ist vorab zu entwickeln! Und es genügt nicht, viele Beispiele von typischen und kritischen Situationen zu erfassen und zu testen, auch nicht in einer Kombinatorik, sondern für die Repräsentativität des Trainings und der Tests sind ebenso ihre Auftrittswahrscheinlichkeiten zu berücksichtigen. Sie erst geben den statistischen Rahmen, auf den sich eine fundierte Beurteilung der Vollständigkeit und Ausgewogenheit der Daten bezieht! Wir brauchen ein probabilistisches Modell der Umgebung, welches möglichst vollständig alle relevanten Situationen erfasst mitsamt ihren ungefähren Auftrittswahrscheinlichkeiten. Auf ein solches Modell können wir dann unsere statistische Evaluation referenzieren, die Güte der Daten, das Systems in der Zielumgebung transparent und nachvollziehbar bewerten.
Ein solches Modell zu erstellen, mag sehr ambitioniert erscheinen. Wir haben dazu verschiedene Techniken entwickelt und Toolings implementiert und werden in diesem Vortrag eine Zielumgebung mit verschiedenen Streckenführungen, Wäldern, Randbebauungen, verschiedenen Wetter- und Lichtverhältnissen modellieren. Diese Präsentation wird zeigen, dass auch komplexere Umgebungen mit vertretbarem Aufwand so beschrieben werden können. Im Anschluss zeigen wir, dass ein solches probabilistisches Modell uns nicht nur objektive Bewertungen von Trainings- und Testdaten erlaubt, sondern auch Testendekriterien: Wieviel Testfälle benötigen wir für den Nachweis vorgegebener statistischer Qualitätskriterien mit Signifikanzen, ja, sogar die Generierung abstrakter Testfälle konform zu dem statistischen Modell, die zu konkreten Testfällen dann angereichert werden können, wie wir in einem Forschungsprojekt zeigen konnten.

Hans-Werner Wiesbrock
ITPower Solutions GmbH
Dr. Wiesbrock arbeitet seit über 25 Jahren als Experte für Anforderungsmanagement und Test eingebetteter Systeme in den Bereichen Automotive, Medizintechnik und Energietechnik. Zuvor war er mehrere Jahre an verschiedenen Universitäten in der Forschung und Lehre für Mathematik und Theoretische Physik tätig. Anschließend arbeitete er zwei Jahre als wissenschaftlicher Mitarbeiter der DaimlerCrysler AG. Seit 2004 ist er Projektleiter und Fachexperte für eingebettete Systeme bei ITPower Solutions GmbH.
Build your first AI Agent for Software Testing [EN]
Are you a QA tester, developer, or just someone passionate about technology and automation? Join us for hands-onevent which will guide you through creating intelligent agents that automate UI testing like never before. No prior AIexperience is required — just bring your technical curiosity and enthusiasm!

Jonas Menesklou
askui GmbH
Jonas Menesklou isthe co-founder and CEO of AskUI, an innovative tech startup specializing in AI-powered automation solutions.
Zwischen Codezeilen und KI: Ein Erfahrungsbericht aus der Testautomatisierung mit Selenium
In meinem Vortrag gebe ich einen ehrlichen Erfahrungsbericht aus einem laufenden Projekt: Wie verändert sich meine tägliche Arbeit mit Selenium, wenn generative KI als Unterstützung hinzukommt?
Ich zeige anhand konkreter Beispiele, wie KI-basierte Tools beim Schreiben, Überarbeiten und Verstehen von Testcode helfen – etwa durch Vorschläge für Testfälle, Refactorings oder bei der Fehlersuche. Dabei geht es nicht um Technologie-Versprechen, sondern um echte Praxiserfahrungen: Wo spart KI Zeit? Wo führt sie in die Irre? Und wie verändert sich dadurch die Rolle des Testautomatisierers?
Der Vortrag richtet sich an alle, die sich für den Einsatz von KI in der Qualitätssicherung interessieren – mit Fokus auf praktische Einblicke, Stolpersteine und konkrete Learnings aus dem Projektalltag.

Boris Wrubel
Boris Wrubel ist seit über 15 Jahren im Softwaretesting tätig, spezialisiert auf Testautomatisierung in agilen Projekten. Er war zehn Jahre an der TU Wien in der Forschung und Lehre aktiv und engagiert sich in Open-Source-Projekten.








