Offshoreentwicklung - OOP 2009

227 Aufrufe

Veröffentlicht am

Scrum, Teambildung, Tools, Kennzahlen

Veröffentlicht in: Technologie
0 Kommentare
0 Gefällt mir
Statistik
Notizen
  • Als Erste(r) kommentieren

  • Gehören Sie zu den Ersten, denen das gefällt!

Keine Downloads
Aufrufe
Aufrufe insgesamt
227
Auf SlideShare
0
Aus Einbettungen
0
Anzahl an Einbettungen
3
Aktionen
Geteilt
0
Downloads
1
Kommentare
0
Gefällt mir
0
Einbettungen 0
Keine Einbettungen

Keine Notizen für die Folie
  • Meinungen, Vorurteile
  • Beispielszenario
  • 1. Versuch
  • 1. Versuch
  • Vorgehensmodell – 1
    Besser? 1.Teilprojektphase
  • Wie kann eine Entwicklungslandschaft aussehen?
    Erfahrungen – verlängerte Werkbank scheint sinnvoll
    Gemeinsame Server-, Entwicklungslandschaft
  • Videokonferenz – grosser Aufwand wenig Nutzen
  • Ergebnisse, Zwischenstand
  • Kennzahlen
    MIX Mood index
  • Offshoreentwicklung - OOP 2009

    1. 1. Offshoreentwicklung - Scrum, Teambildung, Tools, Kennzahlen Wolfgang Kraus 29.01.2009, München
    2. 2. Allgemeines Motivation, Gründe    Ressourcenmangel Preis Management Attention
    3. 3. Meinungen, Vorurteile - 1 Preis    Offshore ist „billig“ Unendlicher Ressourcenpool Alles High-Professionals
    4. 4. Meinungen, Vorurteile - 2 Skalierbarkeit   1 Chinese 100 Chinesen 100 Projekttage  1 Projekttag 
    5. 5. Meinungen, Vorurteile - 3 Projektvorbereitungen     Mauerbesuch Land und Leute Termin, Budget Wir probieren das mal
    6. 6. Beispielszenario - 1 Web-Anwendung   J2EE-Umfeld Landschaft  Jboss, Linux  Eclipse, Maven, Junit, Selenium  Jira, SVN, Hudson
    7. 7. Beispielszenario - 2 Team  OnSide    1 Projektleiter, 1 Teamleiter 2 Entwickler (Architektur, Tool, Support) 1 Produktmanager
    8. 8. Beispielszenario - 3 Team Offshore Team    1 Projektleiter, 1 Teamleiter 3 Entwickler 1 Testingenieur
    9. 9. 1.Versuch Prozess   Scrum Iteration 2 Wochen
    10. 10. 1.Versuch Infrastruktur     VPN-Verbindung Applikationserver DB-Server Entwicklungsserver
    11. 11. 1. Versuch Tools   Software Configuration Mangement  Hudson Versionskontrolle  Subversion
    12. 12. 1. Versuch Tools   Build  Maven Anforderungsmanagement  TrendAnalyst
    13. 13. 1. Versuch Test   Junit Selenium
    14. 14. 1. Versuch Kommunikation      Spark (Chat) JIRA (Ticketsystem) Wiki Telefon Videokonferenz
    15. 15. 1. Versuch Ergebnisse     Schlechte Performance geringe Qualität schleppende Kommunikation instabiler Prozess (häufige Änderungen)  Was läuft hier falsch?
    16. 16. 1. Versuch Ursachen     mangelnde Kompetenz des Teams unzureichende Spezifikationen unklare Aufgabenverteilung, Rollen keine Kennzahlen
    17. 17. 2. Versuch Kennzahlen       Daily Burn Down Chart StoryPoint für Aufwandsschätzung Testabdeckung, Performancemessungen Soll-, Istaufwände Reifegrad von Spezifikationen MIX und BSI (Team, Kunde)
    18. 18. 2. Versuch Team   Pair Programming Teamverantwortung (‚Sippenhaft‘)
    19. 19. 2. Versuch Analyse / Design     UseCase driven Dokumenten Metamodell Testbarkeit, Messbarkeit von Anforderungen
    20. 20. 2. Versuch Reviews    Produkt Prozess Kommunikation
    21. 21. Ergebnis Transparenz    Täglich aktueller Projektstatus gültige Dokumentation gelebter Prozess
    22. 22. Ergebnis Messbarkeit   Entwicklungsergebnisse Softwarequalität  Performance  Testabdeckung  Architekturstandards
    23. 23. Ergebnis Testbarkeit  Klare Abnahmekriterien
    24. 24. Fazit      Prozess Tools Kommunikation Transparenz Teamkultur
    25. 25. Fazit Offshore = Collaboration

    ×