ORSYS TV – L’avis d’expert : Unix, Linux

Yves Rougy, expert Unix, Linux/Logiciels Libres et formateur pour Orsys, fait un état des lieux sur Unix et nous parle de l’avenir de ce système d’exploitation :

Avis d'expert orsys - unix -linux

Voir la vidéo : Unix, Linux, l’avis d’expert – ORSYS Formation

Pour aller plus loin : Vidéo de présentation – Unix/Linux utilisateurs, l’essentiel

Pour échanger sur les systèmes d’exploitation : suivre le groupe de discussion

Pour se former : les cours et cycles Unix/Linux

3 conseils pour réussir la certification ISTQB

ISTQB

En matière de test logiciel, la certification ISTQB* devient de plus en plus incontournable. Un graal que les professionnels du test cherchent tous à atteindre. Conseils de Francis Renoncet, associé dans un cabinet de conseil en management, formateur certifié et accrédité ISTQB/CFTL et REQB, MOA, ingénierie des exigences, conseil, PMO, testing, qualité, recette, CFTL, formation et coaching… pour être prêt le jour J !

1. Se préparer, le minimum…

Autant vous le dire tout de suite : la préparation est exigeante. Elle consiste en un mix d’apprentissages et pourquoi pas une bonne bibliographie (Foundations of software testing : ISTQB Certification, Black-Evans-Graham-Van Veeneendaal).

Tout d’abord, soyons sincères : une petite expérience en test logiciel est appréciée et même requise dans certains pays. Vous pouvez aussi participer aux forums qui rassemblent des testeurs de logiciels.

En parallèle, munissez-vous d’un Syllabus selon le niveau de certification souhaité – Fondation, avancé ou expert – qui vous permettra de mieux comprendre le découpage et le contenu de la certification. Il vous aidera également à vous imprégner du vocabulaire (voir le glossaire)  et du contenu des normes (CFL ou CTAL selon le niveau). Enfin, pour connaître les techniques de test, les produits de test et leurs contenus, équipez-vous des normes IEEE 829, 610, 1028,  ISO250 … lire la suite

Avis d’expert : améliorer les performances de serveurs MS SQL Server

Depuis plusieurs années, Rudi Bruchez intervient pour auditer et améliorer les performances de serveurs MS SQL Server, tout en animant des formations d’optimisation, et les problématiques rencontrées sont souvent les mêmes. Il profite de ce billet pour les résumer.
 

« Même si Microsoft ne le dit pas toujours, Les SGBDR (Systèmes de gestion de bases de données relationnelles) comme SQL Server sont des outils exigeants. Pour en obtenir le meilleur, il faut avoir un certain niveau de connaissance, non seulement sur le moteur lui-même, mais aussi sur le langage SQL. SQL est un langage particulier, déclaratif et ensembliste, qui requiert une façon de penser différente des langages orientés objet. Malheureusement, ces connaissances manquent souvent aux équipes de développement et cela induit une utilisation sous optimale de SQL Server. lire la suite

Les méthodes Agiles pour plus de productivité ?

Avec près de vingt ans d’existence, les méthodes Agiles suscitent toujours autant d’interrogations. Leurs promesses – livrer un projet informatique de qualité, tout en réduisant les coûts et les délais – sont-elles à la hauteur des attentes ? Quelles compétences impliquent-elles pour tendre vers plus de « bénéfices client » ?

Aux dires de certains experts, elles seraient encore trop peu exploitées dans les entreprises. Nées il y a plus de quinze ans aux États-Unis, les méthodes Agiles prennent en effet leur essor en France depuis peu. Prisées par les éditeurs, elles inspirent parfois méfiance : il est vrai que le changement « culturel » qu’elles impliquent n’est pas anodin. Rappelons tout d’abord que ces méthodes dites « Agiles » s’appliquent essentiellement aux projets de développement informatique – conception de logiciel, par exemple. Leur principe ? Délivrer dans des délais raccourcis un projet répondant au plus près des besoins du client. Ainsi, un produit testable s’appuyant sur un socle contenant les fonctionnalités essentielles du point de vue du client est livré. Il s’agit d’une version « minimale » à laquelle des fonctionnalités viennent s’ajouter par processus itératif grâce à des échanges nourris avec le client et des tests. Les méthodes les plus utilisées en France sont XP ou Extreme Programming – se consacrant aux techniques d’ingénierie dans le développement de logiciel – et Scrum – plutôt adapté à la gestion de projet.

Les avantages sont-ils aussi évidents ?

Priorité numéro 1 des méthodes agiles : satisfaire le client avec un produit qui colle au plus près de ses besoins. Le périmètre fonctionnel évoluera tout au long du chantier afin de produire une application cousue sur mesure. Grâce à un travail itératif, elles favorisent donc la communication entre les parties prenantes : le client étant placé au centre du projet, devient son propre pilote. Un autre avantage réside dans la souplesse des pratiques. Grâce à ce processus, la lourdeur des phases de spécifications est évitée. Si des entreprises comme Microsoft, Yahoo, Google… sont utilisatrices de ces méthodes Agiles, on voit ici tout l’intérêt pour les entreprises moyennes en recherche d’efficience et d’une réponse rapide à leurs besoins. La grande réactivité qu’imposent ces méthodes génère des gains de coûts, mais elles s’épargnent surtout les écueils des méthodes classiques : retards de livraison, dépassements de budgets, inutilité de fonctionnalités… À ces bénéfices qui influent directement sur la productivité, s’ajoute le fait que chaque itération permet d’affiner les besoins, sans perdre de temps avec des fonctionnalités superflues. À terme, c’est un projet de qualité qui sera livré, un projet pour lequel les parties prenantes auront pris le temps de communiquer, d’échanger…

Jean Hugues*, directeur associé de la société de conseil DELF et formateur expert Agilité pour Orsys, ajoute : « les méthodes Agiles, en favorisant la participation active du client dans l’équipe de projet, facilitent l’acceptation progressive du changement induit par la nouvelle application. Pour certains auteurs reconnus des méthodes Agiles cette caractéristique est essentielle…et je partage ce point de vue. »

Et les contraintes ?

Les méthodes Agiles permettent de réduire coûts, délais… sous réserve qu’elles soient bien maîtrisées. Le risque majeur vient essentiellement du processus itératif et collaboratif. L’itération, tout d’abord, peut très facilement faire glisser les délais de livraison. Or elle rend la contractualisation difficile notamment pour les projets les plus importants. Faire des livraisons à intervalles réguliers permettra de déceler suffisamment tôt les éventuelles difficultés et de prendre les mesures nécessaires, le cas échéant. Une bonne gestion de la communication entre les individus formant le groupe projet est donc essentielle : les méthodes Agiles impliquent davantage les parties prenantes. Enfin, n’oublions pas que le terme « Agile » fait référence à la capacité d’adaptation aux changements au cours du processus de développement. Autant dire qu’il est nécessaire pour chacun des acteurs du projet d’avoir de bonnes capacités d’adaptabilité.

Bref, savoir décrire les fonctions attendues d’une application, évaluer les charges, les délais, estimer les scénarios, mais aussi communiquer, s’adapter : des méthodes qui font autant appel aux compétences managériales que techniques… et qui nécessitent une bonne formation !

Voir aussi la vidéo de la conférence sur les méthodes Agiles : http://www.youtube.com/watch?v=Xy8MN5IVt1w

*

Quelques formations associées :

Tous virtualisés !

La virtualisation des serveurs, on connaît. L’étape suivante ? La virtualisation du poste de travail. Sébastien Moinet, directeur des opérations OpTeams et formateur sur les solutions VMWare pour Orsys, répond à nos questions.

La virtualisation des postes de travail, en clair ?

Il s’agit de transférer les ressources des utilisateurs – applications, données… – sur serveur. Le poste de l’utilisateur, lui, est réduit au minimum. On revient quasiment aux postes d’antan : pas de disque dur, mais un écran, un boîtier, un clavier. L’utilisateur n’est plus dépendant d’un matériel de bureau : il retrouve son environnement bureautique, quel que soit le terminal, par simple branchement de trois câbles.

Quels en sont les avantages ?

Ils sont nombreux. Le premier est sans doute la réactivité : le temps de déploiement d’un poste est réduit. La mise à jour des systèmes est accélérée puisqu’elle est implémentée en une seule fois. Les coûts de maintenance informatique sont considérablement rationalisés : le poste est en panne ? Il suffit de passer à une nouvelle station de travail, de brancher quelques câbles et l’utilisateur peut continuer à travailler. La virtualisation des postes va d’ailleurs considérablement modifier le poste de technicien PC… De manière générale, l’utilisateur y retrouve son compte puisqu’il n’est pas dépendant d’un matériel de bureau : où qu’il soit, il retrouve son environnement de travail.

Et la sécurité ?

Il faut prendre conscience qu’ici les sauvegardes « locales » n’existent plus. Les clés USB, disques de stockage, ordinateurs portables… peuvent disparaître facilement. Les applications et les données de l’utilisateur sont stockées non plus sur un matériel, mais sur un serveur sécurisé. Si l’utilisateur se fait voler son poste nomade, ses données, elles, resteront à l’abri.

En parallèle, en cas de sinistre, le plan de reprise d’activité est simple avec la virtualisation. Et puis la virtualisation pallie les oublis de sauvegardes… Un incendie détruit l’entreprise : elle peut continuer son activité sans perdre de temps puisque ses données sont accessibles et à jour.

La virtualisation des postes de travail concerne-t-elle uniquement les grosses entreprises ?

Non, pas du tout. On estime que 90 à 95 % des entreprises peuvent être concernées. Chez Opteams, nous travaillons autant sur des structures de trente postes que sur celles dotées de milliers de postes. Si la démarche de virtualisation des serveurs a été évidente pour un grand nombre d’entreprises, elle l’est moins pour les postes de travail. Cela est un peu plus complexe d’un point de vue organisationnel et gestion du changement culturel, car cela touche l’utilisateur. De même, les entreprises ont des difficultés à évaluer le ROI (retour sur investissement). Tout dépend, en effet, des coûts d’infrastructure, de déploiement… De plus, on assiste à une baisse des prix des PC. Pour passer à l’acte, elles doivent faire une évaluation des gains. Mais « pour chaque euro investi dans un PC, les entreprises dépensent en moyenne trois fois plus pour sa gestion* ».

Et après ?

Ce phénomène qui prend de l’ampleur poursuit la logique de mobilité que l’on retrouve également à travers la tendance BYOD (Bring Your Own Device). Il faut néanmoins prendre en compte la problématique des données stockées sur les terminaux personnels. Et puis, aujourd’hui, on parle déjà de la virtualisation des téléphones mobiles… Un marché qui va de plus en plus vite.

*Source : Forrester Research

Formations associées :