Diese Präsentation wurde erfolgreich gemeldet.
Wir verwenden Ihre LinkedIn Profilangaben und Informationen zu Ihren Aktivitäten, um Anzeigen zu personalisieren und Ihnen relevantere Inhalte anzuzeigen. Sie können Ihre Anzeigeneinstellungen jederzeit ändern.
Offshoreentwicklung
- Scrum, Teambildung, Tools, Kennzahlen

Wolfgang Kraus
29.01.2009, München
Allgemeines
Motivation, Gründe




Ressourcenmangel
Preis
Management Attention
Meinungen, Vorurteile - 1
Preis




Offshore ist „billig“
Unendlicher Ressourcenpool
Alles High-Professionals
Meinungen, Vorurteile - 2
Skalierbarkeit



1 Chinese 100 Chinesen
100 Projekttage  1 Projekttag 
Meinungen, Vorurteile - 3
Projektvorbereitungen





Mauerbesuch
Land und Leute
Termin, Budget
Wir probieren das mal
Beispielszenario - 1
Web-Anwendung



J2EE-Umfeld
Landschaft
 Jboss, Linux
 Eclipse, Maven, Junit, Selenium
 Jira, SV...
Beispielszenario - 2
Team


OnSide




1 Projektleiter, 1 Teamleiter
2 Entwickler (Architektur, Tool, Support)
1 Produ...
Beispielszenario - 3
Team
Offshore Team




1 Projektleiter, 1 Teamleiter
3 Entwickler
1 Testingenieur
1.Versuch
Prozess



Scrum
Iteration 2 Wochen
1.Versuch
Infrastruktur





VPN-Verbindung
Applikationserver
DB-Server
Entwicklungsserver
1. Versuch
Tools




Software Configuration Mangement
 Hudson
Versionskontrolle
 Subversion
1. Versuch
Tools




Build
 Maven
Anforderungsmanagement
 TrendAnalyst
1. Versuch
Test



Junit
Selenium
1. Versuch
Kommunikation






Spark (Chat)
JIRA (Ticketsystem)
Wiki
Telefon
Videokonferenz
1. Versuch
Ergebnisse





Schlechte Performance
geringe Qualität
schleppende Kommunikation
instabiler Prozess (häufig...
1. Versuch
Ursachen





mangelnde Kompetenz des Teams
unzureichende Spezifikationen
unklare Aufgabenverteilung, Rolle...
2. Versuch
Kennzahlen







Daily Burn Down Chart
StoryPoint für Aufwandsschätzung
Testabdeckung, Performancemessun...
2. Versuch
Team



Pair Programming
Teamverantwortung (‚Sippenhaft‘)
2. Versuch
Analyse / Design





UseCase driven
Dokumenten Metamodell
Testbarkeit,
Messbarkeit von Anforderungen
2. Versuch
Reviews




Produkt
Prozess
Kommunikation
Ergebnis
Transparenz




Täglich aktueller Projektstatus
gültige Dokumentation
gelebter Prozess
Ergebnis
Messbarkeit



Entwicklungsergebnisse
Softwarequalität
 Performance
 Testabdeckung
 Architekturstandards
Ergebnis
Testbarkeit


Klare Abnahmekriterien
Fazit







Prozess
Tools
Kommunikation
Transparenz
Teamkultur
Fazit

Offshore = Collaboration
Nächste SlideShare
Wird geladen in …5
×

Offshoreentwicklung - OOP 2009

269 Aufrufe

Veröffentlicht am

Scrum, Teambildung, Tools, Kennzahlen

Veröffentlicht in: Technologie
  • Als Erste(r) kommentieren

  • Gehören Sie zu den Ersten, denen das gefällt!

Offshoreentwicklung - OOP 2009

  1. 1. Offshoreentwicklung - Scrum, Teambildung, Tools, Kennzahlen Wolfgang Kraus 29.01.2009, München
  2. 2. Allgemeines Motivation, Gründe    Ressourcenmangel Preis Management Attention
  3. 3. Meinungen, Vorurteile - 1 Preis    Offshore ist „billig“ Unendlicher Ressourcenpool Alles High-Professionals
  4. 4. Meinungen, Vorurteile - 2 Skalierbarkeit   1 Chinese 100 Chinesen 100 Projekttage  1 Projekttag 
  5. 5. Meinungen, Vorurteile - 3 Projektvorbereitungen     Mauerbesuch Land und Leute Termin, Budget Wir probieren das mal
  6. 6. Beispielszenario - 1 Web-Anwendung   J2EE-Umfeld Landschaft  Jboss, Linux  Eclipse, Maven, Junit, Selenium  Jira, SVN, Hudson
  7. 7. Beispielszenario - 2 Team  OnSide    1 Projektleiter, 1 Teamleiter 2 Entwickler (Architektur, Tool, Support) 1 Produktmanager
  8. 8. Beispielszenario - 3 Team Offshore Team    1 Projektleiter, 1 Teamleiter 3 Entwickler 1 Testingenieur
  9. 9. 1.Versuch Prozess   Scrum Iteration 2 Wochen
  10. 10. 1.Versuch Infrastruktur     VPN-Verbindung Applikationserver DB-Server Entwicklungsserver
  11. 11. 1. Versuch Tools   Software Configuration Mangement  Hudson Versionskontrolle  Subversion
  12. 12. 1. Versuch Tools   Build  Maven Anforderungsmanagement  TrendAnalyst
  13. 13. 1. Versuch Test   Junit Selenium
  14. 14. 1. Versuch Kommunikation      Spark (Chat) JIRA (Ticketsystem) Wiki Telefon Videokonferenz
  15. 15. 1. Versuch Ergebnisse     Schlechte Performance geringe Qualität schleppende Kommunikation instabiler Prozess (häufige Änderungen)  Was läuft hier falsch?
  16. 16. 1. Versuch Ursachen     mangelnde Kompetenz des Teams unzureichende Spezifikationen unklare Aufgabenverteilung, Rollen keine Kennzahlen
  17. 17. 2. Versuch Kennzahlen       Daily Burn Down Chart StoryPoint für Aufwandsschätzung Testabdeckung, Performancemessungen Soll-, Istaufwände Reifegrad von Spezifikationen MIX und BSI (Team, Kunde)
  18. 18. 2. Versuch Team   Pair Programming Teamverantwortung (‚Sippenhaft‘)
  19. 19. 2. Versuch Analyse / Design     UseCase driven Dokumenten Metamodell Testbarkeit, Messbarkeit von Anforderungen
  20. 20. 2. Versuch Reviews    Produkt Prozess Kommunikation
  21. 21. Ergebnis Transparenz    Täglich aktueller Projektstatus gültige Dokumentation gelebter Prozess
  22. 22. Ergebnis Messbarkeit   Entwicklungsergebnisse Softwarequalität  Performance  Testabdeckung  Architekturstandards
  23. 23. Ergebnis Testbarkeit  Klare Abnahmekriterien
  24. 24. Fazit      Prozess Tools Kommunikation Transparenz Teamkultur
  25. 25. Fazit Offshore = Collaboration

×