Du öffnest deine Banking-App, gibst den gewünschten Betrag ein und bestätigst die Überweisung. Zwei Klicks, ein kurzer Moment – und das Geld ist unterwegs.
Für uns wirkt das wie ein einfacher Vorgang. Doch im Hintergrund laufen oft komplexe Systeme, die weit mehr tun, als nur eine Transaktion auszuführen. Sie prüfen Muster, bewerten Risiken und entscheiden, ob etwas ungewöhnlich ist. Dabei spielt immer häufiger künstliche Intelligenz eine Rolle.
Und genau hier verändert sich etwas Grundlegendes.
Denn während klassische Software-Entscheidungen anhand klarer Regeln getroffen werden, arbeiten KI-Systeme mit Wahrscheinlichkeiten. Sie lernen aus Daten, erkennen Muster und reagieren auf Situationen, die so vielleicht nie zuvor programmiert wurden. Das macht sie leistungsfähig. Aber auch schwerer vorhersehbar. Damit stellt sich plötzlich eine neue Frage: Funktioniert ein System nicht nur, sondern können wir ihm auch vertrauen?
Wenn „funktioniert“ nicht mehr ausreicht
Lange Zeit war die Welt des Software-Testings vergleichsweise klar strukturiert. Ein System hatte definierte Anforderungen, eine bestimmte Logik und ein vorhersehbares Verhalten. Trat ein Fehler auf, liess er sich analysieren, reproduzieren und beheben. Bei AI-basierten Systemen wird diese Logik jedoch unschärfer.
Ein Modell kann technisch korrekt implementiert sein und dennoch problematische Ergebnisse liefern. Vielleicht reagiert es sensibel auf bestimmte Daten. Vielleicht entstehen Verzerrungen im Training. Oder eine Entscheidung lässt sich schlicht nicht mehr eindeutig erklären.
In solchen Fällen funktioniert das System – zumindest aus technischer Sicht.
Und trotzdem bleibt ein ungutes Gefühl.
Das wird besonders dort relevant, wo Software reale Auswirkungen hat: bei Kreditentscheidungen, medizinischen Empfehlungen, automatisierten Prozessen oder intelligenten Assistenzsystemen.
Hier reicht es nicht mehr aus, lediglich zu prüfen, ob eine Funktion korrekt implementiert wurde. Die eigentliche Frage lautet: Wie zuverlässig verhält sich das System in der Realität?
Qualität wird zur Vertrauensfrage
Mit KI verändert sich somit auch unser Verständnis von Qualität. Natürlich bleiben klassische Aspekte wie Stabilität, Performance und korrekte Funktionalität wichtig. Doch zusätzlich rücken neue Dimensionen in den Fokus.
- Wie transparent sind Entscheidungen?
- Wie robust ist ein Modell gegenüber unerwarteten Daten?
- Wo könnten systematische Verzerrungen entstehen?
- Und wie erkennen wir Risiken, bevor sie tatsächlich Schaden verursachen?
Testing bewegt sich damit zunehmend an der Schnittstelle zwischen Technik, Daten und Verantwortung. Es geht nicht mehr nur darum, Fehler zu finden, sondern auch darum, zu verstehen, wie sich ein System in Situationen verhält, die niemand explizit vorgesehen hat.
Die Rolle von Testern verändert sich
Diese Entwicklung verändert auch die Rolle von Testern und Quality Engineers. Testing findet heute nicht mehr nur am Ende eines Projekts statt. Vielmehr entsteht Qualität bereits in frühen Phasen, beispielsweise bei Architekturentscheidungen, beim Umgang mit Daten oder beim Training von Modellen.
Tester bringen dabei eine Perspektive ein, die für viele Teams sehr wertvoll ist: den kritischen Blick auf das Systemverhalten.
Sie stellen Fragen wie:
- Was passiert, wenn Daten plötzlich anders aussehen als erwartet?
- Welche Szenarien haben wir vielleicht noch gar nicht bedacht?
- Wo könnten Entscheidungen schwer nachvollziehbar werden?
Damit verschiebt sich der Fokus. Weg vom reinen Prüfen einzelner Funktionen, hin zum Verstehen komplexer Systeme. Testing wird strategischer. Und in vielen Fällen auch interdisziplinärer.
Guardians of Trust
Heute treffen digitale Systeme Entscheidungen, die früher Menschen vorbehalten waren. Sie priorisieren Bewerbungen, bewerten Risiken, empfehlen Diagnosen und steuern automatisierte Prozesse. Je stärker diese Systeme unseren Alltag beeinflussen, desto wichtiger wird die Frage: Wer stellt sicher, dass wir ihnen vertrauen können?
Genau hier kommt die Testing-Community ins Spiel. Tester sind schon lange nicht mehr nur diejenigen, die Bugs finden. Sie hinterfragen Systeme, machen Risiken sichtbar und sorgen dafür, dass Qualität nicht nur auf dem Papier existiert.
Oder anders gesagt: Sie schützen etwas, das in digitalen Systemen immer wichtiger wird. Vertrauen.
Und vielleicht beschreibt genau das am besten die Rolle des Software-Testings im kommenden Jahrzehnt: Tester werden zu den „Guardians of Trust” unserer digitalen Welt.
Genau solche Fragen werden auch beim Swiss Testing Day diskutiert. Einmal im Jahr treffen sich dort Tester:innen, QA-Leads, Entwickler:innen und Tech-Entscheider:innen, um gemeinsam darüber zu sprechen, wie sich die Softwarequalität verändert.
Die Konferenz, die am 26. März 2026 in Zürich stattfindet, steht unter dem Motto „Guardians of Trust: Defining Quality in a Dangerous Decade“. Im Mittelpunkt stehen Themen wie KI-Testing, Governance, Transparenz und Verantwortung sowie die Frage, wie Qualität gesichert werden kann, wenn Software immer häufiger selbst Entscheidungen trifft.
Wenn du dich mit diesen Herausforderungen beschäftigst, lohnt sich der Austausch mit der Community vor Ort. Mehr Informationen und Tickets gibt es unter swisstestingday.ch.
ASQF Mitglieder erhalten 10% Rabatt über den Code im ASQF Net. Jetzt anmelden!
– Advertorial –


Recent Comments