Audit des applications en service
1. Existe-t-il une politique claire de gestion des applications en service dans l'organisation ?
- Niveau 1 : Aucune politique définie.
- Niveau 2 : Politique en place mais peu documentée ou non formalisée.
- Niveau 3 : Politique documentée, mais appliquée de manière inégale.
- Niveau 4 : Politique bien définie, formalisée et appliquée de manière rigoureuse.
2. Les applications sont-elles régulièrement mises à jour pour intégrer les nouvelles fonctionnalités et corrections de sécurité ?
- Niveau 1 : Aucune mise à jour régulière.
- Niveau 2 : Mises à jour sporadiques, souvent en réaction à des incidents.
- Niveau 3 : Mises à jour planifiées, mais pas toujours dans les délais.
- Niveau 4 : Mises à jour régulières, planifiées et exécutées dans les délais impartis.
3. Les processus de sauvegarde et de restauration des applications sont-ils en place et régulièrement testés ?
- Niveau 1 : Aucune procédure de sauvegarde en place.
- Niveau 2 : Sauvegardes en place, mais non testées régulièrement.
- Niveau 3 : Sauvegardes régulières avec tests occasionnels.
- Niveau 4 : Sauvegardes régulières avec tests fréquents et documentés.
4. Les utilisateurs disposent-ils d'une formation adéquate pour utiliser les applications en service ?
- Niveau 1 : Aucune formation dispensée.
- Niveau 2 : Formation minimale, souvent ad hoc.
- Niveau 3 : Formation initiale adéquate, mais peu de suivi.
- Niveau 4 : Formation continue, adaptée aux évolutions des applications.
5. La documentation utilisateur est-elle complète et mise à jour régulièrement ?
- Niveau 1 : Documentation inexistante ou obsolète.
- Niveau 2 : Documentation partielle ou rarement mise à jour.
- Niveau 3 : Documentation complète, mais mise à jour de manière irrégulière.
- Niveau 4 : Documentation complète et régulièrement mise à jour, facilement accessible.
6. Les accès aux applications sont-ils sécurisés et régulièrement revus ?
- Niveau 1 : Aucun contrôle d'accès en place.
- Niveau 2 : Contrôles d'accès en place, mais rarement revus.
- Niveau 3 : Contrôles d'accès bien définis, revus périodiquement.
- Niveau 4 : Contrôles d'accès stricts, régulièrement audités et mis à jour.
7. Les performances des applications sont-elles surveillées en continu pour anticiper les problèmes ?
- Niveau 1 : Aucune surveillance des performances.
- Niveau 2 : Surveillance occasionnelle, souvent après des incidents.
- Niveau 3 : Surveillance régulière, mais limitée dans son périmètre.
- Niveau 4 : Surveillance continue avec outils dédiés, permettant des interventions proactives.
8. Les applications respectent-elles les normes de sécurité en vigueur ?
- Niveau 1 : Aucune norme de sécurité appliquée.
- Niveau 2 : Normes de sécurité partiellement respectées.
- Niveau 3 : Normes de sécurité globalement respectées avec quelques écarts.
- Niveau 4 : Normes de sécurité rigoureusement respectées et régulièrement vérifiées.
9. Les incidents liés aux applications sont-ils correctement documentés et suivis ?
- Niveau 1 : Aucune documentation des incidents.
- Niveau 2 : Documentation occasionnelle, sans suivi systématique.
- Niveau 3 : Documentation des incidents avec suivi irrégulier.
- Niveau 4 : Documentation systématique des incidents, avec suivi rigoureux et analyse des causes.
10. Les interfaces entre les différentes applications sont-elles correctement gérées et documentées ?
- Niveau 1 : Aucune gestion des interfaces.
- Niveau 2 : Interfaces gérées, mais sans documentation formelle.
- Niveau 3 : Interfaces documentées, avec gestion parfois incomplète.
- Niveau 4 : Interfaces bien documentées, avec gestion rigoureuse et supervision continue.
11. Les processus de maintenance corrective des applications sont-ils en place et efficaces ?
- Niveau 1 : Aucun processus de maintenance corrective en place.
- Niveau 2 : Processus de maintenance corrective en place, mais inefficace.
- Niveau 3 : Processus efficaces, mais avec des délais de résolution variables.
- Niveau 4 : Processus de maintenance corrective efficaces et rapides, avec suivi des interventions.
12. Les applications sont-elles conformes aux exigences légales et réglementaires ?
- Niveau 1 : Aucune vérification de conformité.
- Niveau 2 : Conformité partiellement vérifiée.
- Niveau 3 : Conformité généralement assurée, avec quelques écarts.
- Niveau 4 : Conformité complète, avec vérifications régulières et audits externes.
13. Les besoins des utilisateurs sont-ils régulièrement collectés et pris en compte dans l'évolution des applications ?
- Niveau 1 : Aucun recueil des besoins utilisateurs.
- Niveau 2 : Recueil des besoins occasionnel, sans suivi.
- Niveau 3 : Recueil régulier des besoins, mais avec une prise en compte variable.
- Niveau 4 : Recueil systématique des besoins avec intégration régulière dans les évolutions.
14. Les applications disposent-elles d'une architecture modulaire permettant des évolutions faciles ?
- Niveau 1 : Aucune modularité dans l'architecture.
- Niveau 2 : Architecture partiellement modulaire, mais difficile à faire évoluer.
- Niveau 3 : Architecture modulaire, avec quelques contraintes d'évolution.
- Niveau 4 : Architecture hautement modulaire, facilitant les évolutions et adaptations.
15. Les contrôles de qualité des données gérées par les applications sont-ils en place et efficaces ?
- Niveau 1 : Aucun contrôle de qualité des données.
- Niveau 2 : Contrôles de qualité en place, mais inefficaces.
- Niveau 3 : Contrôles de qualité efficaces, mais irrégulièrement appliqués.
- Niveau 4 : Contrôles de qualité rigoureux, appliqués régulièrement et documentés.
16. Les utilisateurs ont-ils accès à un support technique efficace pour résoudre les problèmes liés aux applications ?
- Niveau 1 : Aucun support technique disponible.
- Niveau 2 : Support technique limité et peu réactif.
- Niveau 3 : Support technique disponible, mais avec des délais de résolution variables.
- Niveau 4 : Support technique efficace, réactif et bien documenté.
17. Les processus de décommissionnement des applications obsolètes sont-ils en place et respectés ?
- Niveau 1 : Aucun processus de décommissionnement.
- Niveau 2 : Processus en place, mais rarement appliqué.
- Niveau 3 : Processus respecté, mais avec quelques applications obsolètes encore en service.
- Niveau 4 : Processus rigoureux, avec un décommissionnement systématique des applications obsolètes.
18. Les risques liés à l'utilisation des applications sont-ils régulièrement évalués et gérés ?
- Niveau 1 : Aucun processus d'évaluation des risques.
- Niveau 2 : Évaluation des risques occasionnelle, sans gestion efficace.
- Niveau 3 : Évaluation régulière des risques, mais gestion parfois incomplète.
- Niveau 4 : Évaluation systématique et gestion rigoureuse des risques, avec plans de mitigation en place.
19. Les performances des applications sont-elles optimisées pour répondre aux besoins des utilisateurs ?
- Niveau 1 : Aucune optimisation des performances.
- Niveau 2 : Optimisations occasionnelles, souvent en réaction à des problèmes.
- Niveau 3 : Optimisations régulières, mais avec des marges de progression.
- Niveau 4 : Performances optimisées de manière proactive, avec suivi constant.
20. Les applications sont-elles intégrées de manière cohérente au sein du système d'information global ?
- Niveau 1 : Aucune intégration cohérente.
- Niveau 2 : Intégration partielle, avec des silos d'information.
- Niveau 3 : Intégration généralement cohérente, mais avec des améliorations possibles.
- Niveau 4 : Intégration complète et cohérente, avec des flux d'information fluides et synchronisés.
Audit support utilisateurs et parc informatique
1. Quelle structure de centre d’assistance (help-desk) est mise en place ?
- Niveau 1 : Aucun centre d’assistance en place.
- Niveau 2 : Centre d’assistance en place mais peu structuré.
- Niveau 3 : Centre d’assistance structuré, mais avec des ressources limitées.
- Niveau 4 : Centre d’assistance bien structuré, avec des ressources adéquates et bien gérées.
2. Existe-t-il une procédure de gestion des demandes, diffusée et connue des utilisateurs ?
- Niveau 1 : Aucune procédure de gestion des demandes en place.
- Niveau 2 : Procédure en place mais peu connue des utilisateurs.
- Niveau 3 : Procédure diffusée mais avec des lacunes dans son application.
- Niveau 4 : Procédure bien diffusée, connue et appliquée par tous les utilisateurs.
3. Quelle est la procédure d'escalade mise en place ?
- Niveau 1 : Aucune procédure d'escalade en place.
- Niveau 2 : Procédure d'escalade informelle et non documentée.
- Niveau 3 : Procédure d'escalade formelle mais rarement utilisée.
- Niveau 4 : Procédure d'escalade bien définie, documentée et utilisée régulièrement.
4. Quelle est la couverture géographique du help-desk ?
- Niveau 1 : Couverture limitée à un seul site.
- Niveau 2 : Couverture géographique partielle avec des zones non couvertes.
- Niveau 3 : Couverture géographique satisfaisante mais avec des faiblesses dans certaines zones.
- Niveau 4 : Couverture géographique complète, couvrant efficacement tous les sites.
5. Quelle est la couverture fonctionnelle du help-desk ?
- Niveau 1 : Aucune couverture fonctionnelle définie.
- Niveau 2 : Couverture limitée à certains services ou heures.
- Niveau 3 : Couverture fonctionnelle adéquate mais avec des restrictions.
- Niveau 4 : Couverture fonctionnelle complète, répondant aux besoins de l’ensemble des utilisateurs.
6. Un outil est-il implémenté pour la prise d'appel et le suivi des tickets ?
- Niveau 1 : Aucun outil en place.
- Niveau 2 : Outil en place mais peu utilisé ou mal configuré.
- Niveau 3 : Outil utilisé de manière efficace mais avec des fonctionnalités limitées.
- Niveau 4 : Outil complet, bien configuré et utilisé de manière optimale.
7. Quels sont les critères à renseigner pour la qualification des tickets ?
- Niveau 1 : Aucun critère défini pour la qualification des tickets.
- Niveau 2 : Critères définis mais rarement appliqués.
- Niveau 3 : Critères définis et appliqués mais avec des marges d’amélioration.
- Niveau 4 : Critères bien définis, appliqués systématiquement et régulièrement revus.
8. Existe-t-il une liste de questions à dérouler lors d'un appel afin d'identifier au mieux la demande de l'utilisateur ?
- Niveau 1 : Aucune liste de questions en place.
- Niveau 2 : Liste de questions informelle et rarement utilisée.
- Niveau 3 : Liste formelle en place mais utilisation non systématique.
- Niveau 4 : Liste complète, formelle et utilisée systématiquement lors de chaque appel.
9. Les problèmes sont-ils gérés ? Si oui, quel est le processus ?
- Niveau 1 : Aucun processus de gestion des problèmes en place.
- Niveau 2 : Processus en place mais rarement suivi.
- Niveau 3 : Processus suivi mais avec des lacunes dans son efficacité.
- Niveau 4 : Processus bien défini, suivi rigoureusement et régulièrement optimisé.
10. Les incidents de production de nuit sont-ils saisis aussi dans l'outil ?
- Niveau 1 : Aucun enregistrement des incidents de nuit.
- Niveau 2 : Enregistrement manuel et sporadique.
- Niveau 3 : Enregistrement régulier mais parfois incomplet.
- Niveau 4 : Enregistrement systématique et complet de tous les incidents, y compris de nuit.
11. Quels sont les comités mis en place pour suivre les incidents et leur résolution ? Qui participe ? Comment sont suivies les actions ?
- Niveau 1 : Aucun comité en place.
- Niveau 2 : Comité informel sans suivi structuré.
- Niveau 3 : Comité formel avec suivi partiel des actions.
- Niveau 4 : Comité formel, avec participation régulière et suivi rigoureux des actions.
12. Si le help-desk est externalisé, existe-t-il un contrat de service ?
- Niveau 1 : Aucune externalisation ni contrat en place.
- Niveau 2 : Externalisation en place mais sans contrat formel.
- Niveau 3 : Contrat de service en place mais rarement revu.
- Niveau 4 : Contrat de service bien défini, régulièrement revu et respecté.
13. Quels sont les indicateurs pour suivre le contrat de service ?
- Niveau 1 : Aucun indicateur défini.
- Niveau 2 : Indicateurs en place mais rarement utilisés.
- Niveau 3 : Indicateurs utilisés mais avec des marges d’amélioration.
- Niveau 4 : Indicateurs bien définis, suivis régulièrement et utilisés pour améliorer le service.
14. Y-a-t-il un planning systématique concernant les mises en production ?
- Niveau 1 : Aucun planning en place.
- Niveau 2 : Planning sporadique et non systématique.
- Niveau 3 : Planning en place mais non toujours respecté.
- Niveau 4 : Planning systématique, respecté et régulièrement mis à jour.
15. Existe-t-il une aide à la saisie pour la saisie des tickets ?
- Niveau 1 : Aucune aide à la saisie en place.
- Niveau 2 : Aide à la saisie en place mais rarement utilisée.
- Niveau 3 : Aide à la saisie utilisée mais avec des limitations.
- Niveau 4 : Aide à la saisie complète, facile d’utilisation et utilisée systématiquement.
16. Existe-t-il des revues qualité pour la saisie des tickets ?
- Niveau 1 : Aucune revue qualité en place.
- Niveau 2 : Revues qualité occasionnelles et informelles.
- Niveau 3 : Revues qualité régulières mais avec une portée limitée.
- Niveau 4 : Revues qualité systématiques, avec des retours d’expérience utilisés pour améliorer le processus.
17. Quelle est la procédure de mise à jour de la base de connaissance ?
- Niveau 1 : Aucune procédure en place.
- Niveau 2 : Procédure en place mais rarement appliquée.
- Niveau 3 : Procédure appliquée mais sans suivi rigoureux.
- Niveau 4 : Procédure bien définie, appliquée régulièrement et revue périodiquement.
18. Les appels sont-ils enregistrés ?
- Niveau 1 : Aucun enregistrement des appels.
- Niveau 2 : Enregistrement sporadique sans archivage.
- Niveau 3 : Enregistrements réguliers mais non archivés systématiquement.
- Niveau 4 : Enregistrements systématiques et bien archivés pour référence future.
19. Des études de satisfaction sont-elles réalisées auprès des utilisateurs ?
- Niveau 1 : Aucune étude de satisfaction réalisée.
- Niveau 2 : Études occasionnelles mais sans analyse approfondie.
- Niveau 3 : Études régulières avec analyse partielle.
- Niveau 4 : Études systématiques, avec analyse approfondie et actions correctives mises en place.
20. Existe-t-il une évaluation de l’équipe help-desk ? Notamment pour les prestataires pour évaluer leur niveau de connaissance ?
- Niveau 1 : Aucune évaluation réalisée.
- Niveau 2 : Évaluation occasionnelle et informelle.
- Niveau 3 : Évaluation régulière mais avec des critères limités.
- Niveau 4 : Évaluation systématique avec critères bien définis, utilisée pour améliorer les compétences de l’équipe.
Audit des études et projets en général
1. La ligne de partage entre études et production est-elle clairement définie et documentée ?
- Niveau 1 : Aucune ligne de partage définie ou documentée.
- Niveau 2 : Ligne de partage définie mais mal documentée ou peu claire.
- Niveau 3 : Ligne de partage définie et documentée mais parfois contournée.
- Niveau 4 : Ligne de partage clairement définie, documentée, et respectée en toutes circonstances.
2. Existe-t-il une cellule dédiée en charge du suivi et du contrôle des projets et des ressources (gestion des plannings, budgets, etc.) ?
- Niveau 1 : Aucune cellule dédiée en place.
- Niveau 2 : Cellule existante mais peu efficace ou mal structurée.
- Niveau 3 : Cellule en place, structurée mais avec des moyens limités.
- Niveau 4 : Cellule dédiée bien structurée, efficace, et avec des moyens adéquats.
3. Les outils de gestion de projet sont-ils utilisés de manière efficace pour planifier et suivre les projets ?
- Niveau 1 : Aucun outil de gestion de projet utilisé.
- Niveau 2 : Outils en place mais utilisés de manière inefficace.
- Niveau 3 : Outils utilisés efficacement mais avec des marges d'amélioration.
- Niveau 4 : Outils utilisés de manière optimale avec une planification rigoureuse et un suivi précis.
4. Les méthodes d'évaluation des charges sont-elles appropriées et régulièrement revues ?
- Niveau 1 : Aucune méthode d'évaluation des charges en place.
- Niveau 2 : Méthodes en place mais rarement appliquées ou revues.
- Niveau 3 : Méthodes appliquées mais avec des révisions irrégulières.
- Niveau 4 : Méthodes bien définies, appliquées systématiquement et régulièrement revues.
5. La planification des études offre-t-elle une visibilité suffisante de la charge de travail (sur 12 mois) ?
- Niveau 1 : Aucune visibilité sur la charge de travail.
- Niveau 2 : Visibilité limitée et insuffisante sur la charge de travail.
- Niveau 3 : Visibilité adéquate mais perfectible.
- Niveau 4 : Visibilité complète et bien gérée sur la charge de travail à 12 mois.
6. Les projets/travaux sont-ils découpés en tâches élémentaires gérables ?
- Niveau 1 : Aucun découpage des projets en tâches gérables.
- Niveau 2 : Découpage effectué mais avec des tâches trop larges ou mal définies.
- Niveau 3 : Découpage adéquat mais avec des possibilités d'amélioration.
- Niveau 4 : Découpage précis en tâches élémentaires, facilitant la gestion et le suivi.
7. La cohérence de la planification est-elle assurée en fonction des ressources disponibles ?
- Niveau 1 : Aucune cohérence dans la planification.
- Niveau 2 : Cohérence limitée, avec des conflits de ressources fréquents.
- Niveau 3 : Cohérence globalement assurée mais avec quelques ajustements nécessaires.
- Niveau 4 : Planification parfaitement cohérente avec les ressources disponibles, sans conflits.
8. Les congés et la formation sont-ils pris en compte dans la planification des études ?
- Niveau 1 : Aucun compte pris des congés ou de la formation.
- Niveau 2 : Prise en compte partielle, avec des oublis fréquents.
- Niveau 3 : Prise en compte adéquate mais parfois incomplète.
- Niveau 4 : Congés et formation systématiquement pris en compte dans la planification.
9. Les études sont-elles alignées sur les priorités stratégiques définies par l'organisation ?
- Niveau 1 : Aucun alignement sur les priorités stratégiques.
- Niveau 2 : Alignement partiel et souvent déconnecté des priorités.
- Niveau 3 : Alignement généralement en place mais avec des ajustements requis.
- Niveau 4 : Alignement complet et dynamique, en phase avec les priorités stratégiques.
10. La procédure de planification est-elle nominative et suffisamment détaillée ?
- Niveau 1 : Aucune procédure nominative en place.
- Niveau 2 : Procédure nominative mais peu détaillée.
- Niveau 3 : Procédure détaillée mais manquant de précision pour certaines tâches.
- Niveau 4 : Procédure nominative, détaillée, et claire pour l'ensemble des tâches.
11. L'utilisation des ressources est-elle optimisée à travers les différents projets ?
- Niveau 1 : Aucune optimisation de l'utilisation des ressources.
- Niveau 2 : Optimisation limitée, avec des ressources souvent sous-utilisées ou surchargées.
- Niveau 3 : Optimisation généralement bonne mais avec des marges d'amélioration.
- Niveau 4 : Optimisation maximale de l'utilisation des ressources à travers tous les projets.
12. Les marges de sécurité sont-elles intégrées dans le chemin critique des projets ?
- Niveau 1 : Aucune marge de sécurité intégrée.
- Niveau 2 : Marges intégrées mais insuffisantes pour éviter les retards.
- Niveau 3 : Marges adéquates mais avec des possibilités d'amélioration.
- Niveau 4 : Marges de sécurité bien intégrées et optimisées pour chaque projet.
13. Le suivi de l'activité des études est-il réalisé de manière régulière ?
- Niveau 1 : Aucun suivi régulier de l'activité.
- Niveau 2 : Suivi occasionnel et informel.
- Niveau 3 : Suivi régulier mais avec des lacunes dans l'analyse.
- Niveau 4 : Suivi régulier, structuré et avec des analyses complètes.
14. Les délais et les coûts des projets sont-ils respectés et suivis rigoureusement ?
- Niveau 1 : Aucune rigueur dans le suivi des délais et des coûts.
- Niveau 2 : Suivi en place mais avec des dépassements fréquents.
- Niveau 3 : Suivi rigoureux mais avec quelques écarts mineurs.
- Niveau 4 : Respect strict des délais et des coûts, avec suivi rigoureux.
15. Les activités de maintenance sont-elles systématiquement évaluées et optimisées ?
- Niveau 1 : Aucune évaluation ni optimisation de la maintenance.
- Niveau 2 : Évaluation sporadique et optimisation limitée.
- Niveau 3 : Évaluation régulière mais optimisation variable.
- Niveau 4 : Évaluation systématique et optimisation continue des activités de maintenance.
16. Les ressources internes et externes sont-elles utilisées de manière équilibrée pour la réalisation des projets ?
- Niveau 1 : Déséquilibre marqué entre l'utilisation des ressources internes et externes.
- Niveau 2 : Équilibre partiel mais avec une préférence pour l'une ou l'autre.
- Niveau 3 : Équilibre globalement bon mais avec des ajustements nécessaires.
- Niveau 4 : Équilibre optimal entre ressources internes et externes, selon les besoins.
17. Le suivi budgétaire des projets est-il effectué de manière précise et continue ?
- Niveau 1 : Aucun suivi budgétaire précis en place.
- Niveau 2 : Suivi budgétaire limité avec des écarts non maîtrisés.
- Niveau 3 : Suivi budgétaire généralement bon mais avec des marges d'amélioration.
- Niveau 4 : Suivi budgétaire précis, continu, et utilisé pour optimiser les coûts.
18. Le Comité Informatique joue-t-il un rôle actif dans le contrôle et le suivi des études ?
- Niveau 1 : Aucun rôle actif du Comité Informatique.
- Niveau 2 : Rôle limité et peu influent.
- Niveau 3 : Rôle actif mais avec des limites dans l'influence.
- Niveau 4 : Rôle très actif, avec une influence décisive sur le contrôle et le suivi.
19. La documentation des projets est-elle complète, à jour et accessible ?
- Niveau 1 : Aucune documentation ou documentation obsolète.
- Niveau 2 : Documentation partielle ou difficilement accessible.
- Niveau 3 : Documentation complète mais mise à jour de manière irrégulière.
- Niveau 4 : Documentation complète, à jour, et facilement accessible.
20. Les compétences techniques des équipes sont-elles en adéquation avec les technologies utilisées ?
- Niveau 1 : Aucune adéquation entre compétences et technologies.
- Niveau 2 : Adéquation partielle avec des lacunes importantes.
- Niveau 3 : Compétences généralement en adéquation mais avec des besoins de formation.
- Niveau 4 : Compétences pleinement adaptées aux technologies, avec une formation continue.
Audit des projets informatiques
1. Les objectifs du projet sont-ils clairement définis et alignés avec les objectifs stratégiques de l'organisation ?
- Niveau 1 : Aucun objectif clair défini, alignement stratégique inexistant.
- Niveau 2 : Objectifs définis mais avec un alignement stratégique faible ou partiel.
- Niveau 3 : Objectifs définis et généralement alignés avec la stratégie, mais des ajustements sont nécessaires.
- Niveau 4 : Objectifs clairement définis et entièrement alignés avec les objectifs stratégiques de l'organisation.
2. Une étude d'opportunité et des impacts a-t-elle été réalisée avant le lancement du projet ?
- Niveau 1 : Aucune étude d'opportunité réalisée.
- Niveau 2 : Étude réalisée de manière superficielle, sans analyse approfondie.
- Niveau 3 : Étude d'opportunité réalisée avec une bonne analyse des impacts, mais certaines lacunes subsistent.
- Niveau 4 : Étude d'opportunité complète, avec une analyse approfondie des impacts et des risques.
3. Le périmètre du projet est-il clairement défini et documenté ?
- Niveau 1 : Périmètre du projet non défini ou flou.
- Niveau 2 : Périmètre défini mais documentation insuffisante ou incohérente.
- Niveau 3 : Périmètre défini et documenté, mais quelques clarifications sont nécessaires.
- Niveau 4 : Périmètre clairement défini, bien documenté et communément accepté par toutes les parties prenantes.
4. Le projet a-t-il été planifié avec des étapes claires, des jalons et des livrables définis ?
- Niveau 1 : Aucune planification formelle, étapes et livrables non définis.
- Niveau 2 : Planification basique avec des jalons mal définis ou des livrables incomplets.
- Niveau 3 : Planification correcte avec des jalons et livrables définis, mais manquant parfois de précision.
- Niveau 4 : Planification détaillée avec des étapes claires, des jalons bien définis et des livrables spécifiques.
5. Les rôles et responsabilités des acteurs du projet sont-ils clairement établis ?
- Niveau 1 : Rôles et responsabilités non définis ou mal communiqués.
- Niveau 2 : Rôles définis mais avec des chevauchements ou des ambiguïtés.
- Niveau 3 : Rôles et responsabilités généralement clairs, mais quelques zones grises subsistent.
- Niveau 4 : Rôles et responsabilités clairement établis, documentés et compris par tous les acteurs.
6. Les méthodes et outils utilisés pour la gestion du projet sont-ils adaptés et maîtrisés par l'équipe ?
- Niveau 1 : Aucune méthode ou outil standardisé utilisé.
- Niveau 2 : Méthodes et outils utilisés mais mal maîtrisés ou inadaptés.
- Niveau 3 : Méthodes et outils adéquats, avec une maîtrise correcte par l'équipe.
- Niveau 4 : Méthodes et outils parfaitement adaptés, avec une maîtrise complète par l'équipe.
7. Un plan d'assurance qualité (PAQ) est-il en place pour garantir la qualité des livrables du projet ?
- Niveau 1 : Aucun PAQ en place.
- Niveau 2 : PAQ existant mais non appliqué ou insuffisamment suivi.
- Niveau 3 : PAQ en place et généralement suivi, mais avec des lacunes dans l'application.
- Niveau 4 : PAQ complet, bien suivi et régulièrement révisé pour garantir la qualité des livrables.
8. Les risques du projet sont-ils identifiés, analysés et gérés de manière proactive ?
- Niveau 1 : Aucun processus formel de gestion des risques.
- Niveau 2 : Risques identifiés mais gestion réactive et non formalisée.
- Niveau 3 : Risques identifiés et gestion proactive en place, mais avec des améliorations possibles.
- Niveau 4 : Risques identifiés, analysés et gérés de manière proactive avec des plans d'action clairement définis.
9. Les étapes de conception générale et détaillée du projet sont-elles bien documentées ?
- Niveau 1 : Aucune documentation des étapes de conception.
- Niveau 2 : Documentation partielle ou incomplète des étapes de conception.
- Niveau 3 : Documentation correcte mais nécessitant des mises à jour régulières.
- Niveau 4 : Documentation complète, à jour et facilement accessible pour toutes les parties prenantes.
10. La phase de développement ou de réalisation du projet est-elle conforme aux spécifications initiales ?
- Niveau 1 : Non-conformité majeure par rapport aux spécifications.
- Niveau 2 : Conformité partielle avec des écarts significatifs.
- Niveau 3 : Conformité générale avec quelques écarts mineurs.
- Niveau 4 : Conformité totale aux spécifications initiales, avec une gestion rigoureuse des écarts.
11. Les tests et recettes sont-ils planifiés et exécutés de manière rigoureuse ?
- Niveau 1 : Aucun plan de test ou recette en place.
- Niveau 2 : Tests et recettes réalisés mais de manière superficielle ou non rigoureuse.
- Niveau 3 : Planification correcte des tests et recettes, avec une exécution adéquate.
- Niveau 4 : Tests et recettes planifiés de manière rigoureuse, exécutés avec une attention particulière aux détails.
12. La conduite du changement est-elle bien gérée pour assurer l'adhésion des utilisateurs ?
- Niveau 1 : Aucun plan de conduite du changement en place.
- Niveau 2 : Conduite du changement initiée mais avec une faible adhésion des utilisateurs.
- Niveau 3 : Conduite du changement bien gérée, mais des résistances subsistent.
- Niveau 4 : Conduite du changement bien gérée, avec une forte adhésion des utilisateurs.
13. La documentation du projet est-elle complète, à jour et facilement accessible ?
- Niveau 1 : Aucune documentation ou documentation obsolète.
- Niveau 2 : Documentation partielle ou difficilement accessible.
- Niveau 3 : Documentation complète mais nécessitant des mises à jour régulières.
- Niveau 4 : Documentation complète, à jour, et facilement accessible à toutes les parties prenantes.
14. Les responsabilités de chaque membre de l'équipe projet sont-elles clairement définies et comprises ?
- Niveau 1 : Aucune responsabilité clairement définie.
- Niveau 2 : Responsabilités définies mais mal comprises ou ambiguës.
- Niveau 3 : Responsabilités généralement claires mais nécessitant des précisions.
- Niveau 4 : Responsabilités clairement définies et comprises par tous les membres de l'équipe.
15. La gestion des évolutions en cours de projet est-elle bien maîtrisée ?
- Niveau 1 : Aucune gestion des évolutions en place.
- Niveau 2 : Gestion des évolutions en place mais souvent non maîtrisée.
- Niveau 3 : Gestion correcte des évolutions mais avec des améliorations possibles.
- Niveau 4 : Gestion rigoureuse des évolutions, avec des processus bien définis et respectés.
16. Les processus de mise en production sont-ils définis et respectés ?
- Niveau 1 : Aucun processus de mise en production défini.
- Niveau 2 : Processus définis mais souvent non respectés.
- Niveau 3 : Processus définis et généralement respectés mais avec des écarts occasionnels.
- Niveau 4 : Processus de mise en production bien définis et rigoureusement respectés.
17. Les retours d'expérience sont-ils collectés et utilisés pour améliorer les projets futurs ?
- Niveau 1 : Aucun retour d'expérience collecté.
- Niveau 2 : Retours d'expérience collectés mais rarement utilisés.
- Niveau 3 : Retours d'expérience collectés et parfois utilisés pour des améliorations.
- Niveau 4 : Retours d'expérience systématiquement collectés et utilisés pour améliorer les projets futurs.
18. Le projet respecte-t-il les contraintes budgétaires fixées initialement ?
- Niveau 1 : Dépassement majeur du budget.
- Niveau 2 : Dépassement modéré du budget avec justifications.
- Niveau 3 : Respect du budget avec quelques ajustements nécessaires.
- Niveau 4 : Respect strict du budget, avec une gestion rigoureuse des coûts.
19. Les délais du projet sont-ils respectés ?
- Niveau 1 : Dépassement majeur des délais.
- Niveau 2 : Dépassement modéré des délais avec justifications.
- Niveau 3 : Respect des délais avec quelques ajustements nécessaires.
- Niveau 4 : Respect strict des délais, avec une gestion rigoureuse du calendrier.
20. La satisfaction des parties prenantes est-elle évaluée en fin de projet ?
- Niveau 1 : Aucune évaluation de la satisfaction des parties prenantes.
- Niveau 2 : Évaluation partielle ou informelle de la satisfaction.
- Niveau 3 : Évaluation correcte de la satisfaction mais avec des lacunes.
- Niveau 4 : Évaluation complète et formelle de la satisfaction des parties prenantes, avec retour d'informations pour amélioration future.
Vous vous intéressez à la méthode complète DYNAMAP, la méthode incrémentale et progressive d'architecture d'entreprise :
Vous pouvez également visiter la boutique afin de choisir ce qui vous convient le mieux
© Yann-Eric DEVARS - DYNAMAP. Tous droits réservés.
Nous avons besoin de votre consentement pour charger les traductions
Nous utilisons un service tiers pour traduire le contenu du site web qui peut collecter des données sur votre activité. Veuillez consulter les détails dans la politique de confidentialité et accepter le service pour voir les traductions.