Les méthodes Agiles pour plus de productivité ?

Avec près de vingt ans d’existence, les méthodes Agiles suscitent toujours autant d’interrogations. Leurs promesses – livrer un projet informatique de qualité, tout en réduisant les coûts et les délais – sont-elles à la hauteur des attentes ? Quelles compétences impliquent-elles pour tendre vers plus de « bénéfices client » ?

Aux dires de certains experts, elles seraient encore trop peu exploitées dans les entreprises. Nées il y a plus de quinze ans aux États-Unis, les méthodes Agiles prennent en effet leur essor en France depuis peu. Prisées par les éditeurs, elles inspirent parfois méfiance : il est vrai que le changement « culturel » qu’elles impliquent n’est pas anodin. Rappelons tout d’abord que ces méthodes dites « Agiles » s’appliquent essentiellement aux projets de développement informatique – conception de logiciel, par exemple. Leur principe ? Délivrer dans des délais raccourcis un projet répondant au plus près des besoins du client. Ainsi, un produit testable s’appuyant sur un socle contenant les fonctionnalités essentielles du point de vue du client est livré. Il s’agit d’une version « minimale » à laquelle des fonctionnalités viennent s’ajouter par processus itératif grâce à des échanges nourris avec le client et des tests. Les méthodes les plus utilisées en France sont XP ou Extreme Programming – se consacrant aux techniques d’ingénierie dans le développement de logiciel – et Scrum – plutôt adapté à la gestion de projet.

Les avantages sont-ils aussi évidents ?

Priorité numéro 1 des méthodes agiles : satisfaire le client avec un produit qui colle au plus près de ses besoins. Le périmètre fonctionnel évoluera tout au long du chantier afin de produire une application cousue sur mesure. Grâce à un travail itératif, elles favorisent donc la communication entre les parties prenantes : le client étant placé au centre du projet, devient son propre pilote. Un autre avantage réside dans la souplesse des pratiques. Grâce à ce processus, la lourdeur des phases de spécifications est évitée. Si des entreprises comme Microsoft, Yahoo, Google… sont utilisatrices de ces méthodes Agiles, on voit ici tout l’intérêt pour les entreprises moyennes en recherche d’efficience et d’une réponse rapide à leurs besoins. La grande réactivité qu’imposent ces méthodes génère des gains de coûts, mais elles s’épargnent surtout les écueils des méthodes classiques : retards de livraison, dépassements de budgets, inutilité de fonctionnalités… À ces bénéfices qui influent directement sur la productivité, s’ajoute le fait que chaque itération permet d’affiner les besoins, sans perdre de temps avec des fonctionnalités superflues. À terme, c’est un projet de qualité qui sera livré, un projet pour lequel les parties prenantes auront pris le temps de communiquer, d’échanger…

Jean Hugues*, directeur associé de la société de conseil DELF et formateur expert Agilité pour Orsys, ajoute : « les méthodes Agiles, en favorisant la participation active du client dans l’équipe de projet, facilitent l’acceptation progressive du changement induit par la nouvelle application. Pour certains auteurs reconnus des méthodes Agiles cette caractéristique est essentielle…et je partage ce point de vue. »

Et les contraintes ?

Les méthodes Agiles permettent de réduire coûts, délais… sous réserve qu’elles soient bien maîtrisées. Le risque majeur vient essentiellement du processus itératif et collaboratif. L’itération, tout d’abord, peut très facilement faire glisser les délais de livraison. Or elle rend la contractualisation difficile notamment pour les projets les plus importants. Faire des livraisons à intervalles réguliers permettra de déceler suffisamment tôt les éventuelles difficultés et de prendre les mesures nécessaires, le cas échéant. Une bonne gestion de la communication entre les individus formant le groupe projet est donc essentielle : les méthodes Agiles impliquent davantage les parties prenantes. Enfin, n’oublions pas que le terme « Agile » fait référence à la capacité d’adaptation aux changements au cours du processus de développement. Autant dire qu’il est nécessaire pour chacun des acteurs du projet d’avoir de bonnes capacités d’adaptabilité.

Bref, savoir décrire les fonctions attendues d’une application, évaluer les charges, les délais, estimer les scénarios, mais aussi communiquer, s’adapter : des méthodes qui font autant appel aux compétences managériales que techniques… et qui nécessitent une bonne formation !

Voir aussi la vidéo de la conférence sur les méthodes Agiles : http://www.youtube.com/watch?v=Xy8MN5IVt1w

*

Quelques formations associées :

Tous virtualisés !

La virtualisation des serveurs, on connaît. L’étape suivante ? La virtualisation du poste de travail. Sébastien Moinet, directeur des opérations OpTeams et formateur sur les solutions VMWare pour Orsys, répond à nos questions.

La virtualisation des postes de travail, en clair ?

Il s’agit de transférer les ressources des utilisateurs – applications, données… – sur serveur. Le poste de l’utilisateur, lui, est réduit au minimum. On revient quasiment aux postes d’antan : pas de disque dur, mais un écran, un boîtier, un clavier. L’utilisateur n’est plus dépendant d’un matériel de bureau : il retrouve son environnement bureautique, quel que soit le terminal, par simple branchement de trois câbles.

Quels en sont les avantages ?

Ils sont nombreux. Le premier est sans doute la réactivité : le temps de déploiement d’un poste est réduit. La mise à jour des systèmes est accélérée puisqu’elle est implémentée en une seule fois. Les coûts de maintenance informatique sont considérablement rationalisés : le poste est en panne ? Il suffit de passer à une nouvelle station de travail, de brancher quelques câbles et l’utilisateur peut continuer à travailler. La virtualisation des postes va d’ailleurs considérablement modifier le poste de technicien PC… De manière générale, l’utilisateur y retrouve son compte puisqu’il n’est pas dépendant d’un matériel de bureau : où qu’il soit, il retrouve son environnement de travail.

Et la sécurité ?

Il faut prendre conscience qu’ici les sauvegardes « locales » n’existent plus. Les clés USB, disques de stockage, ordinateurs portables… peuvent disparaître facilement. Les applications et les données de l’utilisateur sont stockées non plus sur un matériel, mais sur un serveur sécurisé. Si l’utilisateur se fait voler son poste nomade, ses données, elles, resteront à l’abri.

En parallèle, en cas de sinistre, le plan de reprise d’activité est simple avec la virtualisation. Et puis la virtualisation pallie les oublis de sauvegardes… Un incendie détruit l’entreprise : elle peut continuer son activité sans perdre de temps puisque ses données sont accessibles et à jour.

La virtualisation des postes de travail concerne-t-elle uniquement les grosses entreprises ?

Non, pas du tout. On estime que 90 à 95 % des entreprises peuvent être concernées. Chez Opteams, nous travaillons autant sur des structures de trente postes que sur celles dotées de milliers de postes. Si la démarche de virtualisation des serveurs a été évidente pour un grand nombre d’entreprises, elle l’est moins pour les postes de travail. Cela est un peu plus complexe d’un point de vue organisationnel et gestion du changement culturel, car cela touche l’utilisateur. De même, les entreprises ont des difficultés à évaluer le ROI (retour sur investissement). Tout dépend, en effet, des coûts d’infrastructure, de déploiement… De plus, on assiste à une baisse des prix des PC. Pour passer à l’acte, elles doivent faire une évaluation des gains. Mais « pour chaque euro investi dans un PC, les entreprises dépensent en moyenne trois fois plus pour sa gestion* ».

Et après ?

Ce phénomène qui prend de l’ampleur poursuit la logique de mobilité que l’on retrouve également à travers la tendance BYOD (Bring Your Own Device). Il faut néanmoins prendre en compte la problématique des données stockées sur les terminaux personnels. Et puis, aujourd’hui, on parle déjà de la virtualisation des téléphones mobiles… Un marché qui va de plus en plus vite.

*Source : Forrester Research

Formations associées :

 

 

Les tendances 2014 de la formation professionnelle en informatique

A l’occasion de la sortie du catalogue Informatique 2013/2014, Michel BELLI, Directeur Général Orsys, nous explique quelles seront les grandes tendances de la formation aux Nouvelles Technologies de l’Informatique.

Dans le monde actuel, l’économie de la connaissance joue un rôle déterminant. Pour rester compétitives, les entreprises se doivent d’évoluer encore plus rapidement et de mettre en œuvre d’une manière systématique, massive, les nouvelles technologies de l’Informatique et des Communications. Fort d’une expérience de plus de trente-sept années, Orsys présente un ensemble vaste et cohérent de plus de 1500 formations connues pour leur pertinence et leur efficacité.

3 grandes tendances se détachent :

-  la nécessité pour les dirigeants d’intégrer le numérique dans leur stratégie d’entreprise.

- le besoin de formations opérationnelles, très ancrées dans le quotidien technique des participants, très pragmatiques et désormais, un aspect incontournable de la formation professionnelle : ludiques !

- la capitalisation de ces nouvelles connaissances sur le terrain (grâce à de nombreux outils) et leur mise en application immédiate mais aussi la valorisation des acquis par la préparation et le passage de certifications reconnues au niveau international et essentielles dans le monde des technologies actuelles.

Ce qui ressort de ces 3 points est la valeur ajoutée apportée tant à l’employeur qu’à l’employé. En ces temps de réforme de la formation professionnelle, s’attacher aux besoins, aux objectifs et aux apports côté dirigeant ET côté salarié est la clé de l’avenir de l’entreprise.

Directeur Général Orsys

Sur le catalogue en lui-même :

Fidèle à ses valeurs : innovation, création et qualité, l’offre Orsys s’appuie sur des intervenants experts de haut niveau, choisis et validés par l’équipe pédagogique Orsys et les responsables des différents domaines pour développer de nouveaux programmes, cette année 200 nouvelles formations ! L’ équipe pédagogique composée de spécialistes disposant de nombreuses années d’expérience dans leurs domaines respectifs, assure le contrôle de la qualité des programmes et valide les connaissances, les aptitudes pédagogiques et de préparation des experts formateurs.

Retrouvez toutes les informations ci-après :

Nouveautés informatiques : http://www.orsys.fr/?mode=nouveaute&type=INFO

Certifications : http://www.orsys.fr/?mode=certifications#internationales

Pour recevoir le catalogue : http://www.orsys.fr/?mode=demandeCatalogue

Les 90 consultants Orsys sont à votre disposition pour vous aider dans vos choix de formations et vous proposer les solutions optimales en termes de budgets et d’organisation inter ou intra-entreprise.

N’hésitez pas à les contacter au +33 (0)1 49 07 73 73

 

 

 

 

 

 

Big Data : comment gérer les données inactives ?

Ingénieur polytechnicien et Télécom Paris, Guy Chesnot anime des séminaires et des formations sur le Big Data et, est l’auteur de plusieurs ouvrages sur le sujet. Après son article intitulé « Big Data, orgueil et préjugés » ici même en avril, il a accepté de nous éclairer de nouveau sur un autre aspect de ce vaste sujet !

Le coût des données inactives dans les Big Data

Le principe de base du Big Data veut que les données constituent une matière première qui peut et pourra être utilisée. Malheureusement, ce principe se heurte à deux écueils : d’une part, les données ne sont pas toutes de bonne qualité et, d’autre part, toutes les données ne sont pas actives pour les applications courantes. C’est ce second problème qui est ici abordé : comment gérer ces données inactives ?

Croissance des volumes et utilisation

D’après toutes les études et analyses, le volume de données des entreprises croît à un rythme effréné. Cette croissance se traduit essentiellement par la création de données non structurées, stockées sous forme de fichiers. Cependant, l’utilisation de ces fichiers n’augmente pas forcément au même rythme. Autrement dit, les usagers créent de plus en plus de fichiers, mais ils continuent de n’en utiliser que quelques-uns. A l’échelle d’une entreprise, le problème devient dramatique. En effet, on passe d’un souhait personnel (je veux que mes fichiers soient disponibles tout le temps) à une nécessité commerciale (mon entreprise doit accéder à ses données à tout moment).

Une récente étude de la NSF (National Science Foundation) a montré que les fichiers sont rarement rouverts : 95% des fichiers sont ouverts moins de cinq fois. Plus de 60% des réouvertures ont lieu dans la minute suivant la première ouverture. Plus de 76% des fichiers ne sont jamais ouverts par plus d’une personne et parmi les fichiers ouverts par des tiers, 90% des données partagées ne sont que lues.

Les infrastructures des disques des centres de données ne cessent donc de croître à une vitesse vertigineuse. À ce coût lié à l’achat de nouvelles unités multidisques, s’ajoute celui de la sauvegarde de ces unités, de la surface supplémentaire dans le centre de données, de l’électricité et du refroidissement pour des disques qui tournent continuellement mais ne sont presque jamais utilisés.

Conservation des données inactives

La sauvegarde est nécessaire afin de protéger les disques primaires et la croissance du volume de données induit directement l’accroissement des fenêtres de sauvegarde. Les périodes de sauvegarde et de restauration deviennent impossibles à gérer du fait de la prise en charge des données actives et inactives.

Les responsables informatiques n’ont alors souvent pas d’autre choix que de prendre les données excédentaires et de les placer dans une armoire en tant qu’« archives ». Malheureusement ces « archives » n’en sont pas vraiment et souvent, ne sont pas gérées. Les données à forte valeur sont mélangées à des données à faible valeur.

Comment résoudre ce problème ?

La solution consiste à créer une distinction claire entre la sauvegarde et l’archive et à séparer les besoins de protection des données de ceux de conservation des données. Les stratégies de sauvegarde doivent concerner les données de production à court terme, afin de les prémunir contre des défaillances catastrophiques. A l’opposé, les stratégies d’archive ou de conservation des données concernent le plus long terme. Une archive active est une archive dans laquelle toutes les données sont toujours disponibles « en ligne » et visibles pour l’utilisateur, dans un environnement où les données sont protégées, pour une conservation très longue.

Les données inactives ayant de la valeur sont déplacées dans un niveau de stockage d’archives qui, même s’il est « en ligne », est typiquement dans un état de veille utilisant soit une technologie MAID qui met en sommeil les disques et supprime ainsi totalement la consommation énergétique de la baie, soit une technologie plus classique de bandes magnétiques.

Pour déterminer si les données sont actives ou non, l’un des points clés réside dans la stratégie de classement mise en œuvre. Les solutions de gestion des données numériques permettent une indexation automatique des contenus de multiples façons au fil des créations et des modifications. Les administrateurs peuvent aisément établir des politiques visant à déterminer quelles sont les données qui doivent rester sur le disque de production et celles qui peuvent migrer vers un stockage de second ou troisième niveau (Tier). Une gestion hiérarchique du stockage permet alors de virtualiser l’ensemble des niveaux de stockage.

Bénéfices

Une stratégie d’archive active peut entraîner une réduction significative des coûts globaux liés à un volume croissant de données. En outre, en séparant le disque de production des autres niveaux de stockage, les points uniques de défaillance sont pratiquement éliminés. Les composants individuels peuvent être mis à jour ou modifiés sans affecter l’utilisation globale pour les utilisateurs. L’extensibilité devient alors un atout et non plus un cauchemar !

Formations associées :

BGA BIG DATA, synthèse

MBD La DSI et l’entreprise face aux défis du Cloud, Byod et BIG DATA, La nouvelle révolution des SI

DMI DATA Mining, synthèse

VIR VIRTUALISATION, enjeux et solutions

DAW Construire un DATA Warehouse

AEB Nouvelles architectures des SI

L’Eldorado du NoSQL

A l’occasion de la sortie de son nouveau livre, Orsys a interrogé Rudi Bruchez, expert SQL et formateur Orsys, sur la mode du NoSQL :  

 

« Les bases de données NoSQL : Comprendre et mettre en œuvre », est le premier livre en français traitant de ce mouvement né il y a maintenant une dizaine d’années et qui agite le monde des bases de données, depuis les États-Unis mais avec des vagues de plus en plus perceptibles en Europe et en France. J’ai eu envie d’écrire ce livre non seulement pour formaliser mon approche des différents types de moteurs NoSQL, pour clarifier leurs choix techniques mais aussi pour permettre aux informaticiens et aux décideurs de baser leurs choix sur des faits plutôt que des opinions.

Les choix logiciels sont-ils rationnels ?

En effet, l’apparition de nouvelles technologies dans le monde informatique pose souvent des problèmes de rationalité. Sur quoi base-t-on le choix d’une technologie pour développer un logiciel ou un outil interne en entreprise ? Théoriquement, sur des faits avérés, des tests minutieux et des arguments solides. Dans la pratique, pourtant, les choix sont souvent motivés par tout autre chose : les goûts personnels des décideurs, des articles écrits par des auteurs un peu polémiques (comme celui-ci par exemple ?), des on-dit, l’attrait de la nouveauté, bref des non-critères qui ne garantissent pas la qualité ou l’adéquation d’une technologie aux problèmes de l’entreprise. Cela a souvent été le cas dans l’histoire de l’informatique, par exemple pour le XML, le langage Java, le framework .NET, les ORM (les outils de mapping relationnel-objet) et maintenant les moteurs de bases de données. lire la suite