Ce projet consiste à offrir à aux décideurs de l’académie de La Réunion, des tableaux de bord pertinents et facilement accessibles pour assurer le pilotage du numérique en établissement (EPLE). Ce travail s’intègre, d’une manière plus globale, dans la mise en place d’un observatoire des usages du numérique éducatif.
Optimiser son environnement de développement PHP (Tuto NetBeans v4.4)
Indicateurs de pilotage du numérique en EPLE
1. Indicateurs de pilotage du numérique en EPLE
Observatoire des usages du numérique éducatif
Stage réalisé du 12/01/2015 au 04/07/2015
Nicolas Defaÿ
SOUTENANCE DE STAGE DE MASTER 2 INFORMATIQUE
- 25 JUIN 2015 -
Tuteur professionnel :
- M. François MILLET
Tuteurs universitaires :
- M. Frédéric MESNARD
- M. Henri RALAMBONDRAINY
2. Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en place
2.1 Schéma de principe
2.2 Enjeux
Mise en œuvre
3.1 Test-Driven Development (TDD) and Regression testing
3.2 Indicateurs et plus proches voisins
Résultats obtenus
4.1 Exemples de tableaux de bord
4.2 Limites et perspectives
Conclusion
Plan de la présentation
1
2
3
4
5
2/28
3. 1 :: Contexte du stage
1.1 Environnement professionnel
3/28
La Délégation Académique au Numérique Éducatif (DANE)
Responsable : M. François MILLET
4. 1 :: Contexte du stage
1.1 Environnement professionnel
4/28
La Division des Services Informatiques (DSI)
Responsable : M. Philippe DEROUETTE
5. 1 :: Contexte du stage
1.2 Mission
5/28
Contexte
Indicateurs de pilotage du numérique en ELPE
Pilotage
Feuille de route académique
Projet national
ENT
Élément stratégique pour les chefs d’établissement
Thème du concours de PERDIR
Développer une solution de communication de données
(reporting) dédiée au pilotage de l’ENT en EPLE
Utilisateurs finaux : DANE, DSI, PERDIR, IA-IPR, CTICE
Mission
6. 1 :: Contexte du stage
1.3 Présentation et limites de l’existant
6/28
Solution initiale
7. Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en place
2.1 Schéma de principe
2.2 Enjeux
Mise en œuvre
3.1 Test-Driven Development (TDD) and Regression testing
3.2 Indicateurs et plus proches voisins
Résultats obtenus
4.1 Exemples de tableaux de bord
4.2 Limites et perspectives
Conclusion
Plan de la présentation
1
2
3
4
5
7/28
8. 2 :: Solution mise en place
2.1 Schéma de principe
8/28
Solution décisionnelle
9. 2 :: Solution mise en place
2.2 Enjeux
9/28
Deux axes de travail
Entrepôt de données
60% à 70% du travail
Fiabilité des données
Historisation des données
Communication des données (reporting)
Indicateurs pertinents
Accessibilité et ergonomie
TDD/Tests
de
régression
Plus
proches
voisins
10. Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en place
2.1 Schéma de principe
2.2 Enjeux
Mise en œuvre
3.1 Test-Driven Development (TDD) and Regression testing
3.2 Indicateurs et plus proches voisins
Résultats obtenus
4.1 Exemples de tableaux de bord
4.2 Limites et perspectives
Conclusion
Plan de la présentation
1
2
3
4
5
10/28
11. 3 :: Mise en œuvre
3.1 TDD and Regression testing
11/28
Traditional Software Development
12. 3 :: Mise en œuvre
3.1 TDD and Regression testing
12/28
Test-Driven development (TDD)
13. 3 :: Mise en œuvre
3.1 TDD and Regression testing
13/28
Regression testing
Ensure that changes have not introduced new bugs
Requires automated testing tools
Implementation
Define the new test-case
Write the new tests
Run the unit tests
Write the code
Repeat until all tests pass
Example : Consideration of a new data
14. 3 :: Mise en œuvre
3.1 TDD and Regression testing
14/28
Test-Case
New data
15. 3 :: Mise en œuvre
3.1 TDD and Regression testing
15/28
The fixture
This method is called before a test is executed
Contains all
data
16. 3 :: Mise en œuvre
3.1 TDD and Regression testing
16/28
Write tests with assertions
Assertion
for new
data
17. 3 :: Mise en œuvre
3.1 TDD and Regression testing
17/28
Run the tests before coding the method
All previous
tests failed
18. 3 :: Mise en œuvre
3.1 TDD and Regression testing
18/28
Refactor the code and run again automated tests
Repeat
until all
tests pass
19. Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en place
2.1 Schéma de principe
2.2 Enjeux
Mise en œuvre
3.1 Test-Driven Development (TDD) and Regression testing
3.2 Indicateurs et plus proches voisins
Résultats obtenus
4.1 Exemples de tableaux de bord
4.2 Limites et perspectives
Conclusion
Plan de la présentation
1
2
3
4
5
19/28
20. 3 :: Mise en œuvre
3.2 Indicateurs et plus proches voisins
20/28
Attentes et problématique
Fournir des "indicateurs ENT" aux établissements
% de comptes actifs
Nombre de visites
Disparité des établissements en termes d’effectifs
Moyennes académiques peu pertinentes
Comment situer un établissement par rapport aux autres ?
Donner pour chaque
indicateur la moyenne
des plus proches
voisins (ppv)
21. 3 :: Mise en œuvre
3.2 Indicateurs et plus proches voisins
21/28
Définition du « Modèle »
Variables observées : effectifs des établissements
Nombre de voisins (k) : fonction de la répartition des établissements
Calcul de distance : 4 métriques évaluées
22. 3 :: Mise en œuvre
3.2 Indicateurs et plus proches voisins
22/28
Choix de la métrique
23. Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en place
2.1 Schéma de principe
2.2 Enjeux
Mise en œuvre
3.1 Test-Driven Development (TDD) and Regression testing
3.2 Indicateurs et plus proches voisins
Résultats obtenus
4.1 Exemples de tableaux de bord
4.2 Limites et perspectives
Conclusion
Plan de la présentation
1
2
3
4
5
23/28
24. 4 :: Résultats obtenus
4.1 Exemples de tableaux de bord
24/28
Pertinence de la moyenne des plus proches voisins
EPLE à priori mal positionné si on se
réfère aux moyennes académiques
à relativiser EPLE à priori bien positionné si on se
réfère aux moyennes académiques
à relativiser
25. 4 :: Résultats obtenus
4.2 Limites et perspectives
25/28
Incomplétude des indicateurs
Associations applications/services limitées
Prise en compte d’autres variables (zone géographique, CSP,
résultats, …)
Audiences par catégories d’utilisateurs
Perspectives (entrepôt)
Ajout de Datamart (Moodle, Canopé, Usages hors ENT, …)
Intégration dans l’entrepôt de l’université
26. Contexte du stage
1.1 Environnement professionnel
1.2 Mission
1.3 Présentation et limites de l’existant
Solution mise en place
2.1 Schéma de principe
2.2 Enjeux
Mise en œuvre
3.1 Test-Driven Development (TDD) and Regression testing
3.2 Indicateurs et plus proches voisins
Résultats obtenus
4.1 Exemples de tableaux de bord
4.2 Limites et perspectives
Conclusion
Plan de la présentation
1
2
3
4
5
26/28
27. 5 :: Conclusion
27/28
Mission
Application « ObUs » opérationnelle
Mise en service complète à venir
Apports personnels
Rencontres professionnelles
Fonctionnement des services
Expérience professionnelle en développement
Perspectives
Poursuite du travail à la DANE
Projet de doctorat