T-Systems: DevTestOps - das Geheimnis bestet App-Performance

2.399 Aufrufe

Veröffentlicht am

In dieser Webinar-Aufzeichnung ( http://ow.ly/NqHOi ) zeigt Herr Eric Nordmann, Projektmanager APM bei der T-Systems Multimedia Solutions, in einer Performance Live Demo wie er es schafft, Schäden durch Ausfall und Störungen zu vermeiden indem er beste Performance bei kürzeren Releasezyklen gewährleistet, tiefgehende Daten für die Analyse und die Beseitigung von Performance-Engpässen bereitstellt, Finger-Pointing durch objektive Messergebnisse vermeidet und die Einhaltung von SLAs und nichtfunktionalen Anforderungen sicherstellt.

Veröffentlicht in: Technologie
0 Kommentare
1 Gefällt mir
Statistik
Notizen
  • Als Erste(r) kommentieren

Keine Downloads
Aufrufe
Aufrufe insgesamt
2.399
Auf SlideShare
0
Aus Einbettungen
0
Anzahl an Einbettungen
22
Aktionen
Geteilt
0
Downloads
0
Kommentare
0
Gefällt mir
1
Einbettungen 0
Keine Einbettungen

Keine Notizen für die Folie

T-Systems: DevTestOps - das Geheimnis bestet App-Performance

  1. 1. 1 #Dynatrace Live Webinar: T-Systems DevTestOps – das Geheimnis bester App-Performance (Live Demo) Martin Etmajer Technology Strategist Dynatrace Eric Nordmann Projektleiter APM T-Systems MMS
  2. 2. 2 #Dynatrace Dynatrace ist …
  3. 3. 3 #Dynatrace Performance bottlenecks fixed x FASTER Csanád MELEGH Head of IT Operations Kunden sagen …
  4. 4. 4 #Dynatrace Crystal Clear Visibility 80% Back-Office Performance Improvement 30% Faster Check-Out Rene NEUBACHER B2C eBusiness Sr Tech Consultant Kunden sagen …
  5. 5. 5 #Dynatrace Kunden sagen … 80% Faster Time to Market Frank NAUMANN, Head of IT
  6. 6. 6 #Dynatrace Kunden sagen … 90% faster business transactions Patrick Progin, CEO
  7. 7. 7 #Dynatrace Herausforderungen in der Software-Entwicklung Martin Etmajer, Technology Strategist, Dynatrace martin.etmajer@dynatrace.com @metmajer
  8. 8. 8 #Dynatrace Status Quo: Das CHAOS Manifesto 2013
  9. 9. 9 #Dynatrace Status Quo: Das CHAOS Manifesto 2013
  10. 10. 10 #Dynatrace Status Quo: Das CHAOS Manifesto 2013
  11. 11. 11 #Dynatrace Status Quo: Das CHAOS Manifesto 2013
  12. 12. 12 #Dynatrace Status Quo: Das CHAOS Manifesto 2013
  13. 13. 13 #Dynatrace Status Quo: Das CHAOS Manifesto 2013
  14. 14. 14 #Dynatrace Why can’t making Software be more like building Bridges?
  15. 15. 15 #Dynatrace How to ignore an Undesirable Situation
  16. 16. 16 #Dynatrace How to ignore an Undesirable Situation Hear no failure
  17. 17. 17 #Dynatrace How to ignore an Undesirable Situation Hear no failure See no failure
  18. 18. 18 #Dynatrace How to ignore an Undesirable Situation Hear no failure See no failure Speak no failure
  19. 19. 19 #Dynatrace Houston, we have a Problem! My Problem?
  20. 20. 20 #Dynatrace “We need to create a culture that reinforces the value of taking risks and learning from failure and the need for repetition and practice to create mastery.” Gene Kim, The Phoenix Project A key-principle of DevOps
  21. 21. 21 #Dynatrace Because you don’t want this...
  22. 22. 22 #Dynatrace
  23. 23. 23 #Dynatrace Unless you work for the competition 
  24. 24. 24 #Dynatrace
  25. 25. 25 #Dynatrace
  26. 26. 26 #Dynatrace ...and certainly not this...
  27. 27. 27 #Dynatrace
  28. 28. 28 #Dynatrace
  29. 29. 29 #Dynatrace
  30. 30. 30 #Dynatrace Use Case: Uncover Issues (Pro)Actively Before they affect your Users
  31. 31. 31 #Dynatrace Rate of Diminishing Returns of Fixing Bugs
  32. 32. 32 #Dynatrace Rate of Diminishing Returns of Fixing Bugs Developers should not spend time here!
  33. 33. 33 #Dynatrace Rate of Diminishing Returns of Fixing Bugs Developers should not spend time here! Low yield!
  34. 34. 34 #Dynatrace Rate of Diminishing Returns of Fixing Bugs Developers should not spend time here! Low yield! Concentrate on these!Concentrate on these!Concentrate on these!
  35. 35. 35 #Dynatrace A Project Little Helper: Kanban Board Tasks
  36. 36. 36 #Dynatrace A Project Little Helper: Kanban Board Shows WIP Tasks
  37. 37. 37 #Dynatrace Implement and Test...
  38. 38. 38 #Dynatrace Dynatrace in Automated Testing Build 17 testPurchase OK testSearch OK Build # Test Case Status Test Framework Results
  39. 39. 39 #Dynatrace Dynatrace in Automated Testing Build 17 testPurchase OK testSearch OK Build 18 testPurchase FAILED testSearch OK Build # Test Case Status Test Framework Results Regression!
  40. 40. 40 #Dynatrace Dynatrace in Automated Testing Build 17 testPurchase OK testSearch OK Build 18 testPurchase FAILED testSearch OK Build 19 testPurchase OK testSearch OK Build # Test Case Status Test Framework Results Problem solved!
  41. 41. 41 #Dynatrace Dynatrace in Automated Testing Build 17 testPurchase OK testSearch OK Build 18 testPurchase FAILED testSearch OK Build 19 testPurchase OK testSearch OK Build # Test Case Status # SQL # Exceptions CPU Test Framework Results Architectural Data Let’s look behind the scenes
  42. 42. 42 #Dynatrace Dynatrace in Automated Testing Build 17 testPurchase OK testSearch OK Build 18 testPurchase FAILED testSearch OK Build 19 testPurchase OK testSearch OK Build # Test Case Status # SQL # Exceptions CPU 12 0 120ms 3 1 68ms Test Framework Results Architectural Data Let’s look behind the scenes
  43. 43. 43 #Dynatrace Dynatrace in Automated Testing Build 17 testPurchase OK testSearch OK Build 18 testPurchase FAILED testSearch OK Build 19 testPurchase OK testSearch OK Build # Test Case Status # SQL # Exceptions CPU 12 0 120ms 3 1 68ms 12 5 60ms 3 1 68ms Test Framework Results Architectural Data Exceptions probably reason for failed tests Let’s look behind the scenes
  44. 44. 44 #Dynatrace Dynatrace in Automated Testing Build 17 testPurchase OK testSearch OK Build 18 testPurchase FAILED testSearch OK Build 19 testPurchase OK testSearch OK Build # Test Case Status # SQL # Exceptions CPU 12 0 120ms 3 1 68ms 12 5 60ms 3 1 68ms 75 0 230ms 3 1 68ms Test Framework Results Architectural Data Problem fixed but now we have an architectural regression Problem fixed but now we have an architectural regression! Let’s look behind the scenes
  45. 45. 45 #Dynatrace Dynatrace in Automated Testing 12 0 120ms 3 1 68ms Build 20 testPurchase OK testSearch OK Build 17 testPurchase OK testSearch OK Build 18 testPurchase FAILED testSearch OK Build 19 testPurchase OK testSearch OK Build # Test Case Status # SQL # Exceptions CPU 12 0 120ms 3 1 68ms 12 5 60ms 3 1 68ms 75 0 230ms 3 1 68ms Test Framework Results Architectural Data Now we have the functional and architectural confidence Let’s look behind the scenes
  46. 46. 46 #Dynatrace
  47. 47. Performance SignaturApplication Performance Management
  48. 48. DIGITALE LÖSUNGEN UND WEB-INNOVATIONEN T-Systems Multimedia solutions
  49. 49. Talentiert und erfolgreich. Wir bringen das beste zusammen.  Digital Business: seit 20 Jahren  Umsatz im Jahr 2014: 145 Mio. €  Mitarbeiter: rund 1.500 Digital Natives, Experten, Querdenker, Projektliebhaber, Berater, Entwickler, Nerds, Controller, Manager, Vertriebler, Unternehmenskenner, Tester und Innovatoren  Durchschnittsalter: 37 Jahre  2014 an Kundenprojekten gearbeitet: 1.273.808 Stunden  Kundenprojekte im Jahr 2014: 2.786  Gesamtzufriedenheit unserer Kunden 2014: 96,1 %  Arbeitsweise: agil, flexibel, professionell, zuverlässig, digital – a Great Place to Work
  50. 50.  7 Standorte in Deutschland  Technologieunabhängige Beratung, starke Partner  Wir nutzen und kennen, was wir verkaufen  Alles aus einer Hand: Vom Back- bis zum Frontend  Wir lieben komplexe Projekte  Zertifizierte Prozesse & akkreditiertes Testzentrum  24/7-Service mit einem persönlichen Ansprechpartner  Hochsichere Netze und Rechenzentren der Deutschen Telekom AG Darin unterscheiden wir uns. Den Mitbewerbern voraus.
  51. 51. Das Test and Integration Center von T-Systems Multimedia Solutions ist das einzige Softwareprüflabor der Internet- und Multimediabranche in Deutschland, das von der Deutschen Akkreditierungsstelle (DAkkS) anerkannt ist. Mit über 175 ISTQB-zertifizierten Testexperten und 45 Spezialisten für IT-Security und Datenschutz prüfen wir die Qualität und Sicherheit von Web-Applikationen.
  52. 52. Performance Management Herausforderung  Längere Antwortzeiten, Fehler und Abstürze durch steigende Nutzer- und Zugriffszahlen  Vermeidung von Schäden durch Ausfall und Störungen Lösung  Messung und Dokumentation des Systemverhaltens  Ermittlung der „Zeitfresser“ bis auf Funktionsebene  Darstellung des Ressourcenverbrauchs  Optimierungen von Hard- und Software Ihr Nutzen  Sicherstellung des stabilen und permanenten Betriebs  Monitoring-Daten unterstützen die Störungsanalyse  Objektive Messergebnisse statt „gefühlter“ Performance (z.B. bei Streitigkeiten)  Kontrolle der Einhaltung von Service Levels und Basis für regelmäßige Verbesserung
  53. 53. Dev(Test)Ops - keiner kommt vorbei
  54. 54. Unser Ziel Die Performance Signatur System zur kontinuierlichen automatisierten Erfassung von Performancedaten beliebiger Testverfahren und deren zielgruppengerechte Aufbereitung.
  55. 55. Der Systemaufbau Test Referenz Entwicklung Produktion Jenkins Server Dynatrace Server Zielsystem Performance Daten Starten/ Stoppen der Signatur Session Signatur Reports Startet Testverfahren
  56. 56. Lösungsweg Entwicklung eines Jenkins Plugins Test Referenz ProduktionEntwicklung LastTestUnit Test Fachtests Jenkins Plugin
  57. 57. Standard Workflow Einordnung in Jenkins Workflow
  58. 58. Livedemo Die Performance Signatur
  59. 59. Referenz Continuous Delivery Ein Kundenbeispiel (Auszug) Jenkins Testengine Life-Cycle-Management Plattform
  60. 60. Referenz Continuous Delivery Ein Kundenbeispiel (Auszug) Jenkins Testengine Life-Cycle-Management Plattform Software Pakete
  61. 61. Referenz Continuous Delivery Ein Kundenbeispiel (Auszug) Jenkins Testengine Life-Cycle-Management Plattform Software Pakete Deployment
  62. 62. Referenz Continuous Delivery Ein Kundenbeispiel (Auszug) Jenkins Testengine Life-Cycle-Management Plattform Software Pakete Deployment Start Session Stop Session
  63. 63. Referenz Continuous Delivery Ein Kundenbeispiel (Auszug) Jenkins Testengine Life-Cycle-Management Plattform Software Pakete Deployment Start Session Report DatenStop Session
  64. 64. Referenz Continuous Delivery Ein Kundenbeispiel (Auszug) Jenkins Testengine Life-Cycle-Management Plattform Software Pakete Deployment Start Session Report DatenStop Session Report Daten
  65. 65. Referenz Continuous Delivery Ein Kundenbeispiel (Auszug) Jenkins Testengine Life-Cycle-Management Plattform Software Pakete Deployment Start Session Report DatenStop Session Report Daten
  66. 66. Referenz Continuous Delivery Ein Kundenbeispiel (Auszug) Jenkins Testengine Life-Cycle-Management Plattform Software Pakete Deployment Start Session Report DatenStop Session Report Daten Freigabe Deployment
  67. 67. Performance Signatur Ziel Erreicht!
  68. 68. Performance Signatur Ziel Erreicht!
  69. 69. Performance Signatur Ziel Erreicht!  Eine gemeinsame Basis zur Performancebewertung.  Performance Daten am richtigen Ort und zur / in der richtigen Zeit.  Umfangreiche Detaildaten zur Tiefenanalyse.  Basis für automatisierte Freigabe Entscheidungen.  Elementarer Baustein für eine Performance Kultur.  Historie über die Performance Entwicklung. Individuelles Reporting.  Basis für Performance Engineering Maßnahmen.
  70. 70. 70 dynatrace Q&A Martin Etmajer Technology Strategist martin.etmajer@dynatrace.com @metmajer Web: http://www.dynatrace.de Community: https://apmcommunity.compuware.com Blog: http://apmblog.dynatrace.com/ Twitter: @dynatraceDach Eric Nordmann Projektmanager APM eric.nordmann@t-systems.com @TSystems_MMS Web: www.test-and-integration.de Tel: +49 351 2820 2577

×