ASQF Test Challenge

Anmeldung | Regeln | Sponsoren

Willkommen zur ASQF Test Challenge

 

Bald veranstalten wir wieder eine ASQF Test Challenge. Ein neues Datum haben wir noch nicht. Sobald etwas feststeht, veröffentlichen wir es hier. 

Software Under Test gesucht!

 

Wir suchen Unternehmen, die Ihre Software in unserem Wettbewerb testen lassen möchten. Mehrere Teams treten bei der Test Challenge an und untersuchen die Software auf alle Bugs, die man in 3h finden kann. Test- & Fehlerberichte bekommen die SUT-Besitzer im Anschluss zugeschickt und haben somit nicht nur eine tolle Sichtbarkeit mit Ihrer Software, sondern auch eine Qualitätsprüfung.

Interessiert? Jetzt unter info@asqf.de melden.

Test Challenge

Organisatorisches

Momentan ist keine Anmeldung möglich.

Das erwartet Sie!

Dauer der Veranstaltung

Die Veranstaltung findet ca. von 9:00 – 18:00 Uhr statt, das inkludiert die Einführung, Testzeit, Bewertung und Siegerehrung. 

Dies ist Teil der 3 Stunden Wettbewerbszeit, einschließlich der Einsendung der Ergebnisse.

Das ist eine lange Zeit!

Nicht wirklich. Wir vermuten, dass Sie ziemlich beschäftigt sein werden. Sie werden die ersten paar Minuten damit verbringen, die Informationen zu lesen, dann mit dem “Kunden” zu interagieren, zu entscheiden, was getestet werden soll, eine Strategie zu entwickeln, tatsächliche Tests durchzuführen und Fehler zu beheben.

Etwa nach der Hälfte der Übung müssen Sie anfangen, über den formalen Testbericht nachzudenken, der am Ende des Wettbewerbs fällig ist, und wie Sie sicherstellen können, dass Sie ihn vor Ablauf der Zeit abgeben.

Ablauf

 

Begrüßung

9:10 Vorstellung PractiTest

9:15 Vorstellung SUT

***Testzeitraum startet***

9:25 1. Fragerunde mit den Teams & PO  (25 min)

9:50 Vorstellung der Jury-Mitglieder & Diskussionsrunde 

10:50 2. Fragerunde mit den Teams & PO (15 Minuten)

11:10  Vortrag Jonas Menesklou  “AI in Software Testing: What is it good for?”

11:40 Vortrag Dr. Anne Kramer „Manueller und automatisierter Test: Ein Ziel – zwei Expeditionen“

***Testzeitraum endet***

12.30 Abgabe der Testberichte 

12:40 Pitch Stage der Teams (5 min pro Team)

***Bewertungszeitraum startet***

16:40 Uhr Georg Haupt „Noch mehr Testfälle und trotzdem kein Überblick – Testchaos beseitigen mit Linear Distributed Testcases” 

***Bewertungszeitraum endet***

17:30 Interview mit allen Teams

18:00 Siegerehrung 
Zu testende Software (SUT)

Die Testperiode beträgt drei Stunden (3h), während der Ihr Team testen muss. Das tatsächliche SUT wird zu Beginn der Periode bekannt gegeben, um ein faires Spiel für alle zu garantieren.

Weder im Einhorn-Land noch in der realen Welt wird es möglich sein, alles zu testen.

Ihr Team wird sich entscheiden müssen, wie es Ihre Zeit investiert, was es testen soll, was nicht getestet werden soll, wie es sich ihm nähern soll.

Die endgültigen Ergebnisse werden die gefundenen Probleme sein (stellen Sie sicher, dass Sie jedes Problem zu jeder Zeit protokollieren) und ein Testbericht, der sich auf die wichtigsten Probleme konzentriert und den “Kunden” über den Status des SUT informiert und Fehlerbehebungen und deren Bedeutung vorschlägt (Bug Advocacy).

Warten Sie! Sie werden wahrscheinlich fragen: “Was ist wichtig? Was ist meinen Kunden wichtig?

Interaktion mit Kunden (Product Owner)

Drei Stunden lang werden Maik Nogens, unser leitender Juror, und ein Product Owner online anwesend sein:

Nutzen Sie die Gelegenheit, um Fragen zu stellen und Antworten zu Priorität/Risiko, Folgen eines Misserfolgs, Projektdetails usw. zu erhalten. Wir schlagen vor, dass Ihr Team nach dem Lesen der ersten Informationen einige Minuten damit verbringt, Fragen zu stellen, und dann auf den Stream springt, um mit dem “Kunden” zu interagieren. Die Qualität dieses Gesprächs wird Teil Ihres Ergebnisses sein!

Ergebnisse

Die Teams werden zwei wichtige Ergebnisse erstellen: Fehlerberichte und einen Testbericht (in Deutsch).

Die Fehlerberichte sollten unkompliziert sein; jedes Team sollte Anweisungen haben, wie es Fehler einreichen kann, die ihm im Voraus per E-Mail zugeschickt werden.

Der Inhalt und das Format des Berichts ist jedem Team überlassen, aber es sollte dem Entscheidungsträger helfen herauszufinden, ob er bereit ist, das Produkt “auszuliefern”, ob es weitere Korrekturen benötigt, in was er als nächstes investieren soll und so weiter. Idealerweise würde der Bericht auch enthalten, wie Sie entschieden haben, was Sie testen wollen und wie Ihr Team seine Zeit verbracht hat.

Ihr Bericht würde zum Beispiel mit einer Beschreibung des Zustands des SUT beginnen, dann könnte er das enthalten, was Ihrer Meinung nach am wichtigsten zu testen ist; dann könnten Sie einige Details zu Ihrer Strategie und den wichtigsten Problemen, die Sie gefunden haben, hinzufügen.

Am Ende des funktionalen Wettbewerbs müssen Sie Ihren Bericht per E-Mail mit der Betreffzeile “Functional Test Report for [Team_Name]” versenden. (Die E-Mail-Adresse wird den Teams vorher mitgeteilt).

Wir erwarten, dass wir ihn “kurz nach” dem offiziellen Ende des Wettbewerbs erhalten. Im Idealfall werden die Teams dafür etwas Zeit innerhalb ihrer Zeitbox einplanen. Wir sind bereit, eine Karenzzeit von 5 Minuten zu gewähren, um sie zu erhalten.

Kriterien für die Bewertung

Zu den funktionellen Testkategorien gehören die Bedeutung der eingereichten Fehler, die Qualität der Fehlerberichte, die Reproduzierbarkeit dieser Berichte und die Qualität des Testberichts. Eine kleine Anzahl von Bonuspunkten ist für die Art und Weise, wie die Teams mit den Preisrichtern interagieren, und für die Teamarbeit, falls diese sichtbar ist, verfügbar.

      • Bis zu 5 Punkte für die Relevanz der Fehler – haben Sie die richtige Art von Fehlern eingereicht, Fehler, die uns wichtig sind?
      • Bis zu 5 Punkte für die Qualität der Fehlerberichte – Schreibstil, sind sie überzeugend, machen sie Sinn, sind sie reproduzierbar?
      • Bis zu 5 Punkte für die Qualität & Genauigkeit Ihres Testberichts
      • Bonus von bis zu 3 Punkten für die Interaktion mit Richtern und dem “Kunden”, besondere Fehler/Ideen

Dies gibt uns die Möglichkeit, mögliche Gewinner in mehreren Kategorien zu finden und eine objektive Möglichkeit, jedes Team zu messen.

Die drei besten Test- und Fehlerberichte werden im ASQF Mitgliederbereich online gestellt.

Der Bugtracker

Dieses Jahr benutzen wir PractiTest als einheitlichen Bugtracker für alle Teams während der Test Challenge.

PractiTest is an end-to-end SaaS test management platform that centralizes all your QA work, processes, teams and tools into one platform to bridge silos, unify communication, and enable one source of truth across your organization.

With PractiTest you can:
– Make informed data-driven decisions based on end-to-end visibility provided by customizable reports, real-time dashboards, and dynamic filter views.

– Improve team’s productivity; reuse testing elements to eliminate repetitive tasks, plan your team’s work based on AI-generated insights and enable your team to focus on what really matters.

– Align your testing operation with business goals, and deliver better products faster.

Weitere Informationen erhalten Sie auf: www.practitest.com/

Preise

Die Gewinner erhalten tolle Sach-und Geldpreise. 

Organisation & Jury

IT-Expertennetzwerk im Dach-Raum
Benedikt Wörner

Benedikt Wörner

Fachliche Beratung & Head of Jury

Maria Petzold

Maria Petzold

Jury

Alexander Ganster

Alexander Ganster

Jury

Ahmet Büyükyilmaz

Ahmet Büyükyilmaz

Jury

Maik Nogens

Maik Nogens

Jury