¡ÚLTIMAS HORAS! Disfruta de todo 1 año de Plus al 45% de dto ¡Lo quiero!
Software Testing - Qualität, Testautomatisierung
Podcast

Software Testing - Qualität, Testautomatisierung

190
0

Software-Projekte werden komplexer - wie behältst du die Kontrolle?

Ob Testautomatisierung, CI/CD oder die Rolle von KI im Testing: Richard Seidl teilt in diesem Experten-Podcast Strategien für Software-Qualität, die wirklich funktionieren.

Was dich erwartet:
- Konkrete Tipps für Testautomatisierung & agile Methoden.
- Insights zu Usability, Performance und modernen Test-Tools.
- Interviews mit Experten aus der Praxis.

Für Entwickler, Tester und Projektleiter, die keine Lust mehr auf Bug-Feuerlöschen haben, sondern Qualität von Anfang an bauen wollen.

🎙️ Jetzt abonnieren und die Software-Qualität aufs nächste Level heben!

Software-Projekte werden komplexer - wie behältst du die Kontrolle?

Ob Testautomatisierung, CI/CD oder die Rolle von KI im Testing: Richard Seidl teilt in diesem Experten-Podcast Strategien für Software-Qualität, die wirklich funktionieren.

Was dich erwartet:
- Konkrete Tipps für Testautomatisierung & agile Methoden.
- Insights zu Usability, Performance und modernen Test-Tools.
- Interviews mit Experten aus der Praxis.

Für Entwickler, Tester und Projektleiter, die keine Lust mehr auf Bug-Feuerlöschen haben, sondern Qualität von Anfang an bauen wollen.

🎙️ Jetzt abonnieren und die Software-Qualität aufs nächste Level heben!

190
0

Formale Methoden in der Softwarequalität - Michael Sperber, Markus Schlegel

Wie Mathematik aus deinem Code bombensichere Software macht 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm „C und C++ sind die gefährlichsten Programmiersprachen auf der Welt, ausgerechnet für die Systeme, von denen wir wollen, dass die richtig funktionieren." - Michael Sperber In dieser Episode spreche ich mit Michael Sperber und Markus Schlegel über formale Methoden – die vielleicht unbekannteste und gleichzeitig mächtigste Technik, um Software wirklich korrekt zu machen. Während wir beim Testen oft nur ein paar Beispiele prüfen, ermöglichen formale Methoden Software mathematisch zu beweisen, dass sie für alle möglichen Eingaben das Richtige tut. Die beiden zeigen, warum funktionale Programmierung der Schlüssel dazu ist, wie Property Based Testing der erste praktische Schritt sein kann und weshalb dieser Ansatz nicht nur sicherer, sondern oft sogar effizienter ist als klassische Entwicklung. Dr. Michael Sperber ist Geschäftsführer der Active Group GmbH, die Individualsoftware ausschließlich mit funktionaler Programmierung entwickelt. Er ist international anerkannter Experte für funktionale Programmierung und wendet sie seit über 20 Jahren in Forschung, Lehre und industrieller Entwicklung an. Außerdem hat er zahlreiche Fachartikel und Bücher zum Thema verfasst, sowie das Curriculum für das iSAQB-Advanced-Modul "Formale Methoden" (zusammen mit Lars Hupel). Michael Sperber ist Mitbegründer des Blogs funktionale-programmierung.de und Mitorganisator der Entwicklerkonferenz BOB. Markus Schlegel ist Softwarearchitekt bei der Active Group GmbH. Markus hat 2013 die funktionale Programmierung für sich entdeckt und schläft seither wieder ruhig. Highlights: Funktionale Programmierung macht Software beweisbar, weil x = x + 1 mathematisch Unsinn ist. Formale Methoden sind nicht aufwendig – sie sind effizienter als imperatives Debugging. Property Based Testing ist der Einstieg: Spezifikation mit Allquantoren statt vier Beispiele. EU-Normen verlangen Beweise, nicht Tests – C-Code wird aus verifiziertem funktionalen Code generiert. Typsysteme beweisen bereits Eigenschaften – Dependent Types erweitern das auf ganze Spezifikationen. Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology Yesterday
0
0
5
31:26

So entsteht das “perfekte” Konferenz-Programm - Elmar Jürgens

So entsteht das Programm für die Eurostar 2026 in Oslo 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Ein exzellenter Vortrag zeichnet sich dadurch aus, dass man über Dinge spricht, die man selber mal gemacht hat." - Elmar Jürgens In dieser Episode spreche ich mit Elmar Jürgens über Konferenzen und wie ein starkes Programm entsteht. Er ist Program Chair der EuroSTAR in Oslo. Wir schauen unter die Haube: 527 Einreichungen, 50 Slots, Akzeptanzrate unter zehn Prozent. Community Reviewer, drei Bewertungen je Beitrag und ein Pflichtvideo sichern Qualität. Wir reden über KI in Abstracts und warum echte Erfahrung zählt. Das Motto: Testing at its best. Mit Keynotes von Wolfgang Platz und Michael Kutz. Dr. Elmar Jürgens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Elmar spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. 2015 wurde er zum Junior Fellow der Gesellschaft für Informatik ernannt. Highlights: Eurostar hat unter 10% Akzeptanzrate: 527 Einreichungen, nur 50 Slots im Programm. KI-generierte Abstracts sind nicht das Problem – schlechte Abstracts ohne klare Aussage sind es. Programmkomitee-Mitglieder dürfen bei Eurostar nicht sprechen – auch nicht ihre Firmen-Kollegen. Beste Vorträge entstehen aus eigener Berufserfahrung, nicht aus reinem Fachwissen oder Produktwerbung. Frühzeitig Abstract schreiben und extern reviewen lassen – je besser man's kennt, desto schwerer. Weitere Links zur Episode: 15% Rabatt mit Code Eurostar15 Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 1 week
0
0
7
31:59

KI‑generierte Testfälle im regulierten Umfeld - Alexander Frenzel

Proof of Concept: KI‑gestützte Testfallgenerierung für Dialysegeräte im regulierten Bereich 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Du musst erstmal schauen können, was sind denn deine einzelnen Prozessschritte? Ich muss überall eingreifen können. Ich brauche eine Nachvollziehbarkeit." - Alexander Frenzel In dieser Episode spreche ich mit Alexander Frenzel über KI-gestützte Testfallerzeugung im streng regulierten Umfeld. Klingt nach Widerspruch. Ist es nicht. Alex zeigt, wie ein Assistenzsystem mit One-Click-Generator, modularen Modellen und einem RAG-System Tests aus Requirements ableitet. Statt Fragen zu stellen, nutzt er das Hyde-Prinzip: Behauptung aufstellen, Belege aus der eigenen Dokumentation finden. So bleiben Nachvollziehbarkeit, Logging und der Human in the Loop erhalten. Alexander Frenzel ist seit 2019 bei Fresenius Medical Care Deutschland GmbH als Expert for Test Management, Global Verification & Validation Lead für mehrere Produktreihen tätig und zudem seit 2025 Director Test Management. Er ist Mitglied des Programm-Committee des QS-Tags und Board Member des German Testing Boards. Highlights: KI generiert Testfälle aus Anforderungen im regulierten Medizinumfeld Hyde-Prinzip sichert Nachvollziehbarkeit mit Belegen aus interner Dokumentation Der Aufwand sinkt, Rückverfolgbarkeit verbessert sich und Wissenstransfer steigt Physikalische Abhängigkeiten bleiben eine Grenze, Software profitiert stark Integration in ALM und Pipeline ist der nächste Schritt Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 2 weeks
0
0
5
23:50

Fußballanalyse trifft Softwaretest - Sven Braxein, Athanasios Kallinikidis

Produktionsdaten, Varianten und Risiken statt Abdeckungsdebatten. 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Wenn das schon im Kreisliga Fußball möglich ist, dass jemand sagt, ich lerne von meinem Spiel für das Training, dann muss es doch auch bei uns in der IT möglich sein, aus unseren Produktionsdaten was für die Tests zu lernen." - Sven Braxein In dieser Folge spreche ich mit Sven Braxein und Athanasios Kallinikidis darüber, wie sie Fußballanalysen nutzen, um die Testabdeckung in einem Softwareprojekt zu verbessern. Die Idee entstand spontan, als Thanos im Büro Clips für sein Fußballteam schnitt. Daraus wurde ein spannender Dialog: Können wir aus echten Produktionsdaten so lernen wie aus Sportstatistiken? Wir sprechen über Process Mining, Zähler und Nenner beim Thema Testabdeckung, überraschende Erkenntnisse und den Unterschied zwischen Meinung und Wissen. Athanasios ist 28 Jahre alt, hat griechische Wurzeln und ist im Kreis Esslingen bei Stuttgart geboren und aufgewachsen. An der Technischen Universität München absolvierte er den Bachelor und Master in Management & Technology mit Schwerpunkt Informatik. Ein Praktikum bei Celonis entfachte seine Leidenschaft für Process Mining und legte den Grundstein für seinen Karrierefokus. Heute treibt er bei Mercedes‑Benz Leasing Deutschland als Product Owner im Platform Team Business‑IT die Weiterentwicklung der Process‑Mining‑Plattform voran. Athanasios ist leidenschaftlicher Fußballfan und hat das Coaching als zweite Berufung entdeckt. Als Werkstudent arbeitete er in der Spielanalyse des FC Bayern München II in der 3. Liga. Die dort erlernten Analysekompetenzen überträgt er aktuell auf die Arbeit mit seiner Kreisliga‑Herrenmannschaft. Sven Braxein ist Gründer und Geschäftsführer der 2008 gegründeten TestGilde GmbH. Er arbeitet seit 30 Jahren in der Beratung von IT-Projekten mit Fokus auf Software Qualitätssicherung und Test. Sein Schwerpunkt liegt im Testmanagement für Großprojekte sowie in der Konzeption und Umsetzung unternehmensweiter Testmanagementstrukturen. Wenn es das Thema Qualität und Test noch nicht gäbe, für ihn müsste es erfunden werden. Highlights: Mehr Wissen, weniger Meinung steigert die Qualität der Tests Produktionsdaten ersetzen Bauchgefühl bei der Testpriorisierung Process Mining zeigt reale Nutzungsvarianten und deren Häufigkeiten Die Top-10-Workflows decken meist 80 Prozent der Nutzung ab Automatisierung macht die Erkenntnisse in der Regression dauerhaft nutzbar Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 3 weeks
0
0
6
21:38

Software-Engineering von Morgen - Ina Schieferdecker

Wie KI und Low Code die Softwareentwicklung und Testprozesse verändern 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Ich bin kein Fan von Vibecoding. Ich glaube, wir holen uns da ein großes Problem über die Hintertür rein, weil ein zu schnell durchgewunkener, schlechter Code in long run sehr, sehr, sehr teuer wird." - Ina Schieferdecker In dieser Folge spreche ich mit Ina Schieferdecker über die Zukunft des Software Engineering. Im Gespräch geht es darum, wie sich Künstliche Intelligenz, Low Code und modellbasierte Ansätze auf unsere Arbeit auswirken könnten. Was wird sich in der Ausbildung ändern? Welche Kompetenzen brauchen wir? Prof. Dr.-Ing. Ina Schieferdecker ist unabhängige Forscherin und Honorarprofessorin für Softwarebasierte Innovationen an der Technischen Universität Berlin. Sie ist Mitglied der Deutschen Akademie der Technikwissenschaften (acatech) und Ehrenmitglied des German Testing Boards sowie aktiv im International Software Testing Qualifications Board. Darüber hinaus ist sie Präsidiumsmitglied der Gesellschaft für Informatik sowie Vorstandsmitglied von Informatics Europe. Ihre Forschungsinteressen umfassen Software Quality Engineering, offene Datenplattformen und die Twin-Transformation von Digitalisierung und Nachhaltigkeit. Sie ist u.a. Preisträgerin des Deutschen Preises für Software-Qualität des ASQF, der GI-TAV und des GTB. Highlights: Konstruktion und Analyse gehören zusammen, Testen nicht nur am Ende KI, Low-Code und No-Code befeuern modellbasiertes Arbeiten Shift-left und klare Testspezifikationen sichern Codequalität Ein Model-Bus synchronisiert Anforderungen, Architektur, Tests und Ausführung über Werkzeuge Weitere Links zur Episode: Inas Website Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 4 weeks
0
0
7
24:10

Testen und Qualitätssicherung bei Startups - Daniel Krauss, Florian Fieber

B2C gegen B2B: Was Qualität im Massenmarkt wirklich bedeutet 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Test Coverage, ist kein Selbstzweck. Die Frage ist: Was will ich damit erreichen?" - Daniel Krauss In dieser Episode spreche ich mit Daniel Krauss von Flix und Florian Fieber über Qualität und Testen in Startups. Wir sprechen darüber, dass B2C näher am Kunden ist als B2B, Teams in Startups früher liefern und dass Ausfälle teurer sind als gutes Testen. Coverage hilft, ist aber nicht das Ziel. Bei Flix ist der Agile Tester Teil des Teams, nah an Product Ownern und Nutzerfeedback. Wir sprechen über Professionalisierung, Lernen ohne Dogma und wie Kultur trägt. Als Chief Information Officer (CIO) und Chief HR Officer (CHRO) bei Flix ist Daniel Krauss für die Bereiche Technologie und Personal des Unternehmens verantwortlich. Zusammen mit seinen Mitbegründern hat er Flix zu einem internationalen Transportdienstleister ausgebaut. Daniel ist außerdem Investor und Beiratsmitglied in Unternehmen wie Babyone, UNITY und GWF. Er ist überzeugt, dass Bildung, Unternehmertum und Innovation die Gesellschaft maßgeblich voranbringen können. Florian Fieber studierte Medieninformatik und Information Systems, danach war er als Softwareentwickler und wissenschaftlicher Mitarbeiter tätig. Sein Fachgebiet umfasst heute alle Aspekte der Qualitätssicherung im Softwarelebenszyklus, mit einem Schwerpunkt auf Testmanagement und Prozessverbesserung. Seit 2018 ist er aktiv im German Testing Board e.V. (GTB), wo er u.a. als Leiter der Arbeitsgruppe Acceptance Testing fungiert und seit 2022 als Vorsitzender des GTB dient. Highlights: Ausfälle kosten mehr als gutes Testen Coverage hilft als Metrik und nicht als Ziel Der agile Tester arbeitet im Team nah am Produkt KI-Tools beschleunigen, Code-Generierung bleibt riskant ISTQB-Methoden bieten verlässliche Leitplanken Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 1 month
0
0
7
44:03

KI-gestützte Testfallermittlung - Dr. Mark Menzel

Wie Sherlock KI-Testfälle für die Stadt München erstellt 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "KI ist gekommen, um zu bleiben. Wir werden da nicht drumherum kommen. Und es findet eben auch Nutzung und Anwendung in der Stadt München." - Dr. Mark Menzel In dieser Episode spreche ich mit Mark Menzel von der Landeshauptstadt München über MUCGPT und Sherlock, den Software-Test-KI-Assistenten. München zeigt: Verwaltung kann innovativ. Sherlock hilft Fachbereichen, normgerechte Testfälle nach ISO 29119 zu erstellen, ohne Schulungsmarathon. Aus MUCGPT kommen Testfälle, die sich per Export in TestLink und X-Ray bringen lassen. Der Mensch bleibt Entscheider. Dr. Mark Menzel verfügt über mehr als 25 Jahre Erfahrung im Bereich Software-Qualität und Testmanagement. Nach seiner Promotion in Business Administration spezialisierte er sich auf KI-basierte Testverfahren. Als Testmanager bei der Landeshauptstadt München leitet er Testprojekte für die Landeshauptstadt München. Darüber hinaus ist er als Hochschuldozent und Mentor tätig und erforscht, wie KI das Testen revolutionieren kann. Highlights: Prompt Engineering ersetzt das Starren auf ein leeres Blatt Papier Sherlock erzeugt ISO 29119 konforme Testfälle ohne viel Schulung Export der Testfälle nach TestLink und Xray funktioniert Der Mensch entscheidet über alle generierten Testfälle RAG bindet internes Wissen an und ermöglicht konfigurierbare Assistenten Weitere Links zur Episode: Statistische Daten zum Thema Verwaltung und Finanzen in München München OpenSource (Mucgtp) KI im Praxiseinsatz: Sherlock unterstützt die Testfallerstellung in der Münchner Stadtverwaltung Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 1 month
0
0
7
20:10

Exploratives Ensemble Testing - Tobias Geyer

Gemeinsam testen als Team - So funktioniert exploratives Ensemble Testing 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Und das hilft auch wirklich dabei, eben dieses Feedback früher zu kriegen." - Tobias Geyer In dieser Episode spreche ich mit Tobias Geyer über exploratives Ensemble Testing. Er nutzt die Methode seit zwei Jahren und zeigt, warum sie wirkt. Wir besprechen wie die Rollen Driver und Navigator funktionieren, das rotieren der Rollen und die kompakten 90-Minuten-Sessions. Das Ergebnis: früheres Feedback, viele Usability-Funde und vor allem Lernen im Team. Entwickler entdecken den Blick über den Happy Path hinaus. Streit? Kaum, weil wir Notizen sammeln und die Bewertung später machen. Wichtig sind klare Charters, gute Moderation und diszipliniertes Mitschreiben. Tobias Geyer wollte nie bewusst ein Tester werden, aber nach mehr als 20 Jahren Erfahrung in diesem Beruf ist er froh einer geworden zu sein. Seine Erfahrung reicht von Wasserfallprozessen in großen Unternehmen bis zu kleinen agilen Teams. Dabei hat er stets die Qualität des Gesamtprodukts im Blick und kümmert sich um alle Themen die dazu beitragen, egal ob es darum geht CI Systeme zu verbessern, Testfälle zu erstellen oder Testmethoden einzuführen. Seine Begeisterung für das Lernen und den Wissensaustausch brachte ihn dazu die "Software Testing User Group Hamburg" mitzugründen. Er liebt es auf Konferenzen zu sprechen und sich mit Menschen aus der Community zu vernetzen. Highlights: Exploratives Ensemble Testing liefert frühes Feedback und gemeinsames Lernen Rollen Driver und Navigator mit Rotation alle zehn Minuten erhöhen Fokus 90-Minuten-Testsessions finden viele Usability-Probleme Mitschreiben und spätere Bewertung reduzieren Konflikte Klare Charters, gute Moderation und Disziplin sichern Qualität Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 1 month
0
0
6
20:53

Von der Schuldfrage zur Fehlerkultur - Katja Radom

Wie Teams von Fehlern lernen können - Praktische Tipps für bessere Softwarequalität 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Ich würde auch nicht an Tag eins jetzt gleich die große Kritik anbringen, weil du weißt ja gar nicht, wie der andere das aufnimmt." - Katja Radom In dieser Episode spreche ich mit Katja Radom über Fehlerkultur und warum sie der Motor für Softwarequalität und zufriedene Nutzer ist. Wir räumen mit Vision-Board-Parolen auf. Was zählt: früh klären, was ein Fehler bedeutet, wie wir ihn melden und wie wir als Team reagieren. Dazu gehören Retrospektiven oder regelmäßige Stopps, Zeit zum Lernen und ein Qualitätsmanagement, das Bugs und Quality Gates ernst nimmt. Wir sprechen über Rollenbilder, Manager als Teil der Lösung, internationale Stereotype und die Kunst, Feedback zu geben und zu nehmen. Mein Fazit: fang klein an, bleib neugierig, entschuldige dich, wenn du drüber warst. So wächst Kultur. Auch unter Druck. Katja Radom ist Director in der Technology Consulting Einheit bei EY Deutschland am Standort Hamburg. Als Expertin für Software-Testmanagement verantwortet sie EY Deutschlands Services rund um das Testen von Software und ist in EYs globalen Quality Engineering Expertennetzwerk aktiv vernetzt. Bereits vor ihrem Eintritt bei EY im Jahr 2001 hat sie umfangreiche Erfahrungen in der Einführung von Software im ERP und IT Service Management Umfeld in der Beratung und der Industrie gesammelt. In ihren Projekten hat sie eng mit allen Beteiligten von den Testern bis hin zum Management der Kunden zusammengearbeitet, um eine gute Qualität der eingesetzten Systeme zu erreichen. Sie hat in rein lokal besetzten als auch in internationalen großen Teams gearbeitet, die sich aus Beratern, Kunden und externen Softwareanbietern zusammengesetzt haben. Ihr besonders Interesse liegt im „Faktor Mensch“ in Softwareeinführungsprojekten, da sie hier einen wichtigen Schlüssel für den Projekterfolg sieht. Highlights: Fehler klar definieren bringt Tempo und weniger Konflikte Frühes Melden über klare Kanäle macht Probleme lösbar Retrospektiven und feste Lernzeit erhöhen Qualität kontinuierlich Quality Gates und messbare Kriterien verhindern Bug-Schulden Führung schafft psychologische Sicherheit durch Vorbild Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 1 month
0
0
6
19:24

Thermomanagement bei E-Autos testen - Patrick Meuth

Von Testfahrten zu Hardware zu virtuellen Steuergeräten 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Das gibt dann in Summe 200 verschiedene Verschaltungen, wie das ganze System letztendlich betrieben werden kann." - Patrick Meuth In dieser Episode spreche ich mit Patrick Meuth über Thermomanagement-Software in Elektroautos. Früher fanden viele Tests im Auto statt, heute verlagern sie sich Shift-Left: erst Hardware-in-the-Loop, dann ein virtuelles Steuergerät, das nur die Thermofunktionen ausführt. So sparen sie Fahrten und finden Fehler früher. Die Szenarien sind anspruchsvoll: Batterie schützen, Innenraum kühlen, Leistung priorisieren, Reichweite im Blick. Patrick Meuth begann 2016 seine berufliche Laufbahn bei der TKI Automotive mit seiner Bachelorarbeit im Bereich modellbasiertes Testen. Anschließend wurde er 2017 als Testingenieur für Systemabsicherungen an HIL-Prüfständen übernommen. Durch seine Erfahrungen in verschiedenen Projekten entwickelte er sich kontinuierlich weiter und wurde 2020 zum Senior Test Engineer und anschließend zum Testmanager ernannt. Mit dem Übergang zur CARIAD 2021 setzte er seine Tätigkeit als Testmanager fort. Seither leitet er das Team zur Systemabsicherung in einer agilen Struktur und übernahm als Product Owner die fachliche Verantwortung. Highlights: Shift Left entdeckt Fehler früh und reduziert teure Fahrversuche HIL und VECU ersetzen viele Fahrzeugtests im Thermomanagement Automatisierung ermöglicht identische Testfälle auf HIL und VECU Thermomanagement balanciert Batterieschutz, Innenraumkomfort, Leistung und Reichweite Reale Fahrten bleiben nötig für Fahrgefühl und finale Absicherung Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 2 months
0
0
6
18:20

Ask Me Anything zu KI, Automatisierung und Shift Left - Richard Seidl

Rückblick und Ausblick: Highlights, Herausforderungen und Pläne 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Aber die Rolle, für die wir da sind, das kritische Hinterfragen, die Dinge rauszufinden, die Kommunikation herzustellen, die ganzen Teststrategien zu entwickeln und so, ich glaube, da haben wir noch genug zu tun. Und ich würde sogar sagen, in nächster Zeit sogar deutlich mehr." - Richard Seidl In dieser Episode spreche ich über mein Jahr mit dem Podcast, eure Fragen und den Blick nach vorn. 176 Folgen, 122000 Downloads, 3000 Abos. Die Testpyramiden-Folge mit Ronald Brill bleibt Evergreen, YouTube wächst, und mit Software Testing Unleashed geht es international weiter. In der Fragerunde ordne ich ein: KI verwandelt die Tester-Rolle. Programmieren lernen kann, muss aber nicht. Toolwechsel wie zu Playwright kritisch bewerten. 100 Prozent Automatisierung sind selten sinnvoll. Flaky Tests sofort isolieren. Shift Left beginnt im Refinement. Richie ist Experte für Software-Qualität und Agilität und leidenschaftlicher Zukunftsoptimist. Als Berater, Coach und Mentor unterstützt er Konzerne, Startups und KMUs auf ihrem Weg zu mehr Qualität in ihrer Software. Er hat in seiner beruflichen Laufbahn schon viel Software gesehen: gute und schlechte, große und kleine, neue und alte. Software so schön, dass man weinen könnte und auch solche, bei der sich die Fußnägel aufrollen. Für ihn ist klar: Wer heute exzellente Software kreieren möchte, denkt den Entwicklungsprozess ganzheitlich: Menschen, Kontext, Methoden und Tools – erst wenn alles zusammenspielt, entsteht ein Mindset für Potentialentfaltung und Innovation.Seine Erfahrungen teilt er in mehreren Fachbüchern, Fachartikeln und Vorträgen. Highlights: KI ersetzt Tester nicht, die Rolle verändert sich 100 Prozent Testautomatisierung ist selten sinnvoll Flaky Tests sofort isolieren und priorisiert beheben Shift Left beginnt im Refinement Toolwechsel kritisch bewerten, nicht jedem Trend folgen Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 2 months
0
0
5
36:17

Software-Test Weihnachtsplausch

Herausforderungen im Softwaretest 2025: Qualität, KI und der Wandel in Testteams 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Das wäre so mein Wunsch, dass dieser Qualitätsgedanke so ein bisschen einsickert und dass das nicht erst passiert, wenn irgendwann große Strafen kommen oder Firmen pleite gehen, weil sie falsche Entscheidungen getroffen haben oder weil irgendwann mal verklagt wird, was im Moment ja auch relativ viel gemacht wird." In dieser Episode spreche ich mit Christian Mercier, Matthias Gross und Wolfgang Sperling über unser Testerjahr, KI und was 2026 bringt. Wir sehen: KI löst keine schiefen Prozesse; ohne klare Teststrategie, saubere Grundlagen und Fast Feedback bringt sie wenig. Nicht-funktionale Qualität rückt nach vorn: Sicherheit, Performance, Usability, Compliance. Tester brauchen breiteres Skillset, mehr Technik, dazu Intuition, Mut und Resilienz. Wir reden über souveräne Cloud, Druck auf Agile, und warum Validierung in Produktion wächst. Ich wünsche mir mehr Austausch in Communities und vor allem: konkrete Lösungen teilen, voneinander lernen. Matthias Groß ist Partner der TestGilde GmbH und seit 2007 als Berater für Softwarequalitätssicherung und Testmanagement tätig. Seine Schwerpunkte liegen im operativen Testmanagement, der Einführung und Weiterentwicklung von Testmanagementstrukturen sowie der Betreuung kundenspezifischer Testservices. Er engagiert sich zudem an der Dualen Hochschule Baden-Württemberg, ist Mitgründer der Testcommunity The TestLänd und Mitglied des Programmkomitees des QS-Tags. Christian Mercier begleitet IT-Projekte im Banking-Umfeld. In den klassischen, agilen oder hybriden Projekten nimmt er verschiedene Rollen ein – er ist Projektleiter, Coach, Testmanager, Business-Analyst oder Requirement-Engineer - aber das Thema Qualität steht für ihm immer an zentraler Stelle. Ihm geht es immer um pragmatische Lösungen, die auf fundierten Entscheidungen im jeweiligen Kontext beruhen. Wolfgang Sperling ist Solution Architekt bei Avanade und Ansprechpartner für den Technologiestack von Microsoft im Kompetenzzentrum für digitale Souveränität bei Accenture. Seit mehr als 15 Jahren beschäftigt er sich mit Qualitätssicherung in Softwareprojekten, einen großen Anteil davon in kritischen oder herausfordernden Projektsituationen. In der Qualitätssicherung ist es ihm wichtig, neben Testen und Testautomatisierung auch Anforderungsmanagement und Releasemanagement in den Softwarelebenszyklus mit einzuschließen. Highlights: KI verbessert Tests nur mit klarer Strategie und schnellen Feedback-Schleifen Nicht-funktionale Qualität wird entscheidend: Sicherheit, Performance, Usability und Compliance Tester brauchen Technikskills, Produktdenken und Resilienz Mehr Validierung in Produktion reduziert unbekannte Risiken Communities liefern Praxiswissen durch geteilte, konkrete Lösungen Weitere Links zur Episode: Wolfgangs Herzensprojekt: [Herzprojekt Karlsruhe e.V. - Lebensmittelhilfe & soziale Teilhabe] (https://www.herzprojekt-karlsruhe.de/) Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 2 months
0
0
6
44:41

Autismus und Software Test - Robert

Vom Burnout zur Diagnose. Roberts Weg und was Teams daraus lernen 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Ich hatte schon länger den Eindruck, dass ich eine Form von Autismus habe oder autistische Züge oder wie man das auch immer nennen will, Aber mittlerweile habe ich auch eine offizielle Diagnose." - Robert In dieser Episode spreche ich mit Robert über Autismus im Softwaretesten. Er bleibt anonym. Robert ist Softwaretester. Sein Weg zur Diagnose dauerte zwei Jahre und folgte mehreren Burnouts. Im Job sind Multitasking, spontane Meetings und ständige Wechsel kräftezehrend. Pausen, klare Agenden und Eins-zu-eins helfen. Seine Stärken sind Fokus, Mustererkennung, Erinnerungsvermögen, analytische Tiefe und ehrliches Feedback. Fehler springen ihn an, Ursachen denkt er systemisch mit. Highlights: Autismus ist ein Spektrum mit biologischen, kognitiven und Verhaltensaspekten Multitasking, spontane Meetings und ständige Kontextwechsel überlasten autistische Tester Klare Agenden, planbare Pausen und Eins-zu-eins-Gespräche entlasten spürbar Autistische Stärken: tiefer Fokus, Mustererkennung, starkes Gedächtnis, ehrliches Feedback Teams sollten Akzeptanz zeigen und Aufgaben an Stärken ausrichten Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 2 months
0
0
5
31:26

Contract Tests – Wer braucht das wirklich? - Andrej Thiele

Erfolgreiches API Testing in der Praxis - Zwei Wege zum effektiven Schnittstellentest 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Es bietet sich immer an, auch das auf OpenAPI zu basieren und sich seine Schnittstelle einfach generieren zu lassen, weil das auch einen Haufen Arbeit spart bei der Programmierung und halt nicht so fehlerträchtig ist." - Andrej Thiele In dieser Episode spreche ich mit Andrej Thiele über API Testing. Andrej zeigt zwei praxistaugliche Wege. Erstens: OpenAPI versionieren und mit Renovate Abhängigkeiten und Änderungen sichtbar machen. Zweitens: Consumer-driven Contract Tests mit Pact. Der Consumer definiert Erwartungen, Pactbroker stellt Mocks bereit und JUnit bindet es in die Pipeline ein. Brechen Contracts, stoppt der Release. Reden müssen Teams trotzdem. Nach seinem Diplom in Informatik an der TU Dortmund 1999, arbeitete Andrej als Softwareentwickler bei Firmen in unterschiedlichen Bereichen der Industrie, z.B. Digitalisierung von Radiosendern, Telekommunikation, Mobile und Embedded Devices. Im Jahr 2008 wechselte er in die Beratung und agierte dort als Senior Consultant in verschiedenen Projekten in der Rolle vom Entwickler, Architekten, technischen Projektleiter bis hin zum Test Coach für Entwickler. Seit 2016 arbeitet er bei der Firma Conciso GmbH und veranstaltet dort unter anderem ein regelmäßiges Coding Dojo als MeetUp und ist als Topic Lead für Qualitätssicherung in der Weiterbildung der internen Mitarbeiter sowie der Durchführung von Schulungen bei Kunden tätig. Zusätzlich ist er regelmäßig als Sprecher auf verschiedenen Konferenzen zu sehen. Highlights: OpenAPI versionieren schafft Struktur, prüft aber nur Syntax Renovate macht API-Änderungen und Abhängigkeiten sichtbar Consumer-driven Contracts mit Pact sichern Erwartungen und entkoppeln Tests vom Gegensystem Contract-Tests blockieren Releases bei Vertragsbrüchen Teams müssen trotz Contracts miteinander reden Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 3 months
0
0
7
20:27

Legacy Apps automatisiert - Umar Usman Khan und Jonas Menesklou

Wie KI Legacy Apps bei der Deutschen Bahn automatisiert und Tests vereinfacht 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Du musst ihm nicht mitgeben, wie dieser Login Button aussieht, sondern das Modell hat vorher gelernt, dass ein Login Button eben aussieht wie ein Login Button und findet dann über den Gesamt Screenshot die Position, wo es gerade ist" - Umar Usman Khan, Jonas Menesklou In dieser Episode spreche ich mit Jonas Menesklou und Umar Usman Khan über KI-gestützte Tests für Legacy-Anwendungen. Ausgangspunkt: die mobile Kasse der Deutschen Bahn. Die manuelle Abnahme dauerte zwei Wochen, Standard-Tools scheiterten an fehlenden Element-IDs. Mit AskUI geht es visuell: Screenshot, OCR, Bilderkennung und LLM statt klassischer Selektoren. Tests werden in TypeScript beschrieben oder per No-Code aus Testfällen erzeugt. Erste Bilanz: 60 von 270 Fällen laufen in etwa drei Stunden. Umar Khan ist Lead Quality Engineer bei der Deutschen Bahn Fernverkehr AG.Er verantwortet die Qualitätssicherung und Testautomatisierung in verschiedenen Digitalisierungsprojekten. Seit 2018 arbeitet er daran, mehr Standards und Automatisierung in die Projekte zu bringen und auch Legacy-Anwendungen mithilfe von KI-Tools zu modernisieren. Er findet moderne Qualitätssicherung und Testautomatisierung besonders faszinierend. Für ihn ist eine stabile „grüne“ Pipeline nach der automatischen Testausführung und ein automatisches Reporting der Ergebnisse das Ziel – und genau das macht ihn glücklich. Jonas Menesklou ist Mitgründer und Geschäftsführer von AskUI, einem innovativen Tech-Startup, das sich auf KI-gestützte Automatisierungslösungen spezialisiert hat. Mit einem Hintergrund in Softwareentwicklung vom Karlsruher Institut für Technologie verfolgt er die Vision, eine neue Generation von Automatisierungslösungen zu entwickeln. AskUI wird dabei von Unternehmen weltweit genutzt und beschäftigt Mitarbeiter in ganz Deutschland. Highlights: KI kann Legacy-Software ohne klassische Element-IDs automatisiert testen. Testfälle lassen sich als einfache Beschreibungen statt als technische Selektoren formulieren. Bilderkennung und Sprachmodelle ermöglichen robuste UI-Interaktionen trotz wechselnder Oberflächen. Automatisierte Tests reduzieren manuellen Aufwand von Wochen auf wenige Stunden. Geschwindigkeit und Performance bleiben zentrale Herausforderungen der KI-basierten Testautomatisierung. Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 3 months
0
0
5
20:35

Quality Storming - Georg Haupt

Fehler sichtbar machen, bevor sie teuer werden. 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Und da habe ich halt zwei Welten miteinander verheiratet, die eigentlich nicht zusammengehören. Und zwar einmal die Welt der Küche und Lebensmittelverarbeitung und eben die Welt der IT Technik" - Georg Haupt In dieser Folge spreche ich mit Georg Haupt über Quality Storming, ein Workshop-Format für echte Qualität. Georg verknüpft hier seine Erfahrung als Koch mit Themen aus der NASA und Event Storming. Da kann ja nur was Spannends rauskommen. Quality Storming macht Fehler mit Kreppband sicht- und spürbar. Entscheidend sind Moderation und Offenheit. Georg Haupt ist Quality Evangelist und sein Motto lautet: „Aus der Praxis für die Praxis!“ Seine Mission ist es, die Wichtigkeit von Qualität in die Teams zu tragen. Seine berufliche Historie ist sehr spannend und vielfältig, vom Koch zum Test-Guru. Dadurch hat er viele Perspektiven gewonnen, die permanent in seine Arbeit einfließen. Als Test- und Qualitäts-Management-Experte blickt er auf 20 Jahre praktische Erfahrung für sowohl agile als auch klassische Soft- und Hardwaretests zurück. Das Entwickeln und Etablieren von neuen Workshopformaten, Gamifikation, Testmethoden und Prozessen ist für ihr langjährige Praxis. Dies ist besonders wichtig bei der Einführung von teamübergreifenden Test- und Testmanagementwerkzeugen und Prozessen. Privat ist er ein experimentell verspielter Smart Home-Technikfreak. Und dazu seit über 30 Jahren als DJ, Webradiomoderator und Cineast unterwegs. Highlights: Quality Storming macht Qualität entlang des Prozessflusses sichtbar und verhandelbar Alle Rollen kartieren gemeinsam den gelebten Ist-Prozess vom Start- bis End-Event Fehler werden physisch markiert, Hotspots mit Blitzen und Kreppband sichtbar Moderation und Offenheit sind entscheidend, Management bleibt draußen wegen HIPPO-Effekt Prävention schlägt Test-Feuerwehr, Vernetzung schlägt Silos Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 3 months
0
0
5
27:38

Wind und Wetter - Herausforderungen beim Testen von Windrädern - Florian Wartenberg

Wie Flottendaten und Analytics Ausfälle vermeiden und Testprioritäten steuern. 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Desto modularer Du bist, desto besser kannst du dich auch an die Wetterbedingungen, an die Kundenwünsche und auch an die Regularien anpassen." - Florian Wartenberg In dieser Episode spreche ich mit Florian Wartenberg über das Testen von Windturbinen. Software trifft Stahl, Sensorik und Wetter. Wir sprechen über modulare Steuerungen, Safety-Logik und Schnittstellen, die im Labor simuliert und im Feld verifiziert werden. Es gibt Tests in einem Hardware-in-the-Loop-Aufbau im Keller und das dänische Testcenter in Oesterild. Die größten Tester im Raum bleiben Wind und Wetter. Darum fließen Flottendaten, Analytics und Predictive Maintenance in jede Entscheidung. Wir diskutieren Regulierung von Blitzschutz bis Cyber Resilience Act, Onshore vs. Offshore und Updates over the air. Florian Wartenberg ist ein erfahrener Experte für Softwarequalität und Testing im Bereich eingebetteter Systeme. Bei Vestas leitet er internationale Teams in der Qualitätssicherung von Turbinensteuerungssoftware und treibt strategische Verbesserungen in der Softwareverifikation voran. Sein Fokus liegt darauf, Qualität messbar zu machen und den geschäftlichen Mehrwert von Testinitiativen sichtbar zu machen. Florian ist als Sprecher auf Fachkonferenzen und Gast Lektor an Universitäten aktiv. Highlights: Hardware-in-the-Loop beschleunigt realitätsnahe Tests von Turbinensteuerungen Der Wind ist der strengste Tester Modularität erleichtert Anpassungen und treibt die Variantenexplosion Flottendaten und Predictive Maintenance verbessern Betrieb und Entscheidungen Regulierung von Blitzschutz bis Cyber Resilience Act prägt Entwicklung und Updates Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 3 months
0
0
6
39:30

Mensch vs. Maschine: Wer urteilt fairer? - Sam Goetjes

Wenn der Algorithmus die Meinung formt 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es. Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis. Highlights: Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen Manipulierter Gender Bias beeinflusst Entscheidungen messbar Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung Lege Datenquellen offen und erhöhe Nachvollziehbarkeit Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 4 months
0
0
6
23:52

Rechtliche Stolperfallen in Softwareverträgen - Sebastian Dietrich

Werkvertrag oder Dienstleistung: Der teure Unterschied 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Im Gegensatz zu einem Angestellten schuldet ein Selbstständiger einen Erfolg und nicht nur ein Bemühen." - Sebastian Dietrich In dieser Episode spreche ich mit Sebastian Dietrich über rechtliche Fallstricke in Softwareprojekten. Er ist Gerichtssachverständiger und zeigt, warum Freelancer nicht nur Einsatz, sondern Erfolg schulden. Bugs, Gewährleistung, Haftung, Warnpflicht. Alles hat Gewicht. Für Unternehmen wird es heikel, wenn agile Verträge als Werkverträge gelten und plötzlich das ganze Backlog geschuldet ist. Wir diskutieren, wie man Dienstleistung sauber beschreibt, technische Qualität definiert und den Stand der Technik als gemeinsamen Prozess festhält. Statt Coverage-Fetisch schauen wir auf Restfehlerrate. Seit 2003 ist Sebastian Dietrich neben seinen Tätigkeiten als Trainer, Berater und Softwarearchitekt als Sachverständiger für Softwarequalität und Softwarewartung tätig. Seit 2015 als allgemein beeideter und gerichtlich zertifizierter Sachverständiger. In dieser Rolle stellt er im Rahmen von Ausschreibung, Umsetzung, Test, Abnahme und Wartung von Software sicher, dass diese dem Stand der Technik entspricht und weder veraltet noch unwartbar wird. Wenn nötig auch als Gerichtssachverständiger im Streitfall. Highlights: Freelancer schulden Erfolg, nicht nur Einsatz Agile Werkverträge können das gesamte Backlog zur Pflicht machen Klare Vertragsklauseln sparen Millionen Stand der Technik gemeinsam definieren und dokumentieren Fokus auf Restfehlerrate statt auf Coverage-Metriken Weitere Links zur Episode: Blog Stand der Technik Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 4 months
0
0
5
33:56

Dynamische Analyse für Embedded Systeme - Alexander Weiss, Martin Heininger

Wenn klassische Instrumentierung scheitert und Hardware-Trace die Lösung ist 🚀 Dir gefällt der Podcast? Dann bewerte und teile ihn bitte. Und Feedback gerne an podcast@software-testing.fm "Ich bin ein totaler Fan von Embedded Trace. Das beseitigt alle Probleme, die man mit der Instrumentierung hat, weil an der CPU eine Hardware ist, die nach außen funkt, was die CPU macht, ohne dass die Applikation das mitbekommt." - Alexander Weiss, Martin Heininger In dieser Episode spreche ich mit Alexander Weiss und Martin Heininger über Embedded Testing. Wir plaudern über Echtzeit-Probleme, knappe Ressourcen und die Abhängigkeit von Elektronik. Simulation hilft, stößt aber im Safety-Bereich schnell an Grenzen. Ein Problem ist die Beobachtbarkeit: Klassische Instrumentierung bläht Code auf und verändert Laufzeiten. Ihr Gegenentwurf: Embedded Trace. Die CPU funkt Ereignisse hardwareseitig nach außen, ein FPGA wertet live aus. So kann man Code-Coverage im Integrationstest auf echter Hardware messen. Alexander Weiss ist seit jeher in der Embedded Welt zu Hause: während seines Elektrotechnikstudiums an der TU München, seiner Promotion an der TU Dresden, als Gründer der Accemic Technologies GmbH, als SW/HW/FPGA Entwickler und als Autor. Martin Heininger studierte Elektrotechnik an der Fachhochschule in Augsburg, nach einer Ausbildung zum Radio- und Fernsehtechniker. Danach hat er mehr als 15 Jahre im Schwerpunkt in Luftfahrtprojekten Praxis Know-How gesammelt, im Bereich des Testing, der Entwicklungsprozessdokumentation und den Zulassungsverfahren. Seit mehr als 10 Jahren gibt er diese Methoden und das Prozesswissen für die Entwicklung von sicherheitskritischen Embedded Systemen an seine Kunden in Hands-On Beratungsprojekten weiter. Highlights: Embedded-Systeme erfordern Tests unter Echtzeit und knappen Ressourcen Simulation stößt in sicherheitskritischen Umgebungen schnell an Grenzen Klassische Instrumentierung verfälscht Laufzeiten und bläht Code auf Embedded Trace ermöglicht hardwareseitiges Event-Tracking mit Live-Auswertung im FPGA Mehr Systemblick statt Formalismus und Normen sollten Integration vor Unit-Tests priorisieren Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik
Internet and technology 4 months
0
0
6
27:35
You may also like View more
Pioneros For Life Bienvenido al único videopódcast grabado a bordo del Volvo EX90, el coche más seguro del mundo. Un espacio íntimo, elegante y acondicionado acústicamente, donde las buenas ideas se sientan al lado del conductor y las conversaciones arrancan sin rodeos. Aquí no hablamos del futuro: hablamos de cómo vivir mejor ahora. Con calma. Con intención. Con estilo. En cada episodio, Juanma Ortega recibe a personas que viven con intención: creadores, científicos, chefs, tecnólogos, músicos, emprendedores… Gente brillante que te inspira sin ruido, con historias reales y visión de futuro aplicada al presente. Aquí la tecnología no se presume: se pone al servicio de una vida más equilibrada, más consciente, más libre. Porque vivir bien hoy significa elegir con criterio —desde lo que conduces hasta lo que escuchas—. 🟢 Bienestar real 🟢 Cultura con fondo 🟢 Tecnología útil y humana 🟢 Sostenibilidad sin discurso 🟢 Y una experiencia premium que no presume Pioneros For Life. Porque vivir mejor no empieza con más, sino con mejor. Updated
TISKRA Podcast sobre tecnología de consumo y software. Análisis estratégico del mundo Apple, Google, Microsoft, Tesla y Amazon así como de todos aquellos productos de entretenimiento y su posible impacto económico y social. Conducido por @JordiLlatzer Updated
Hablando Crypto ¿Te interesan las criptomonedas? A nosotros también. Somos Óscar y Cristian. Después de más de 5 años jugueteando con las criptomonedas os explicamos nuestras historias. También hablamos sobre como vemos el crypto-mundo y hacia donde creemos que irá. Updated
Go to Internet and technology