Les tendances 2014 de la formation professionnelle en informatique

A l’occasion de la sortie du catalogue Informatique 2013/2014, Michel BELLI, Directeur Général Orsys, nous explique quelles seront les grandes tendances de la formation aux Nouvelles Technologies de l’Informatique.

Dans le monde actuel, l’économie de la connaissance joue un rôle déterminant. Pour rester compétitives, les entreprises se doivent d’évoluer encore plus rapidement et de mettre en œuvre d’une manière systématique, massive, les nouvelles technologies de l’Informatique et des Communications. Fort d’une expérience de plus de trente-sept années, Orsys présente un ensemble vaste et cohérent de plus de 1500 formations connues pour leur pertinence et leur efficacité.

3 grandes tendances se détachent :

-  la nécessité pour les dirigeants d’intégrer le numérique dans leur stratégie d’entreprise.

- le besoin de formations opérationnelles, très ancrées dans le quotidien technique des participants, très pragmatiques et désormais, un aspect incontournable de la formation professionnelle : ludiques !

- la capitalisation de ces nouvelles connaissances sur le terrain (grâce à de nombreux outils) et leur mise en application immédiate mais aussi la valorisation des acquis par la préparation et le passage de certifications reconnues au niveau international et essentielles dans le monde des technologies actuelles.

Ce qui ressort de ces 3 points est la valeur ajoutée apportée tant à l’employeur qu’à l’employé. En ces temps de réforme de la formation professionnelle, s’attacher aux besoins, aux objectifs et aux apports côté dirigeant ET côté salarié est la clé de l’avenir de l’entreprise.

Directeur Général Orsys

Sur le catalogue en lui-même :

Fidèle à ses valeurs : innovation, création et qualité, l’offre Orsys s’appuie sur des intervenants experts de haut niveau, choisis et validés par l’équipe pédagogique Orsys et les responsables des différents domaines pour développer de nouveaux programmes, cette année 200 nouvelles formations ! L’ équipe pédagogique composée de spécialistes disposant de nombreuses années d’expérience dans leurs domaines respectifs, assure le contrôle de la qualité des programmes et valide les connaissances, les aptitudes pédagogiques et de préparation des experts formateurs.

Retrouvez toutes les informations ci-après :

Nouveautés informatiques : http://www.orsys.fr/?mode=nouveaute&type=INFO

Certifications : http://www.orsys.fr/?mode=certifications#internationales

Pour recevoir le catalogue : http://www.orsys.fr/?mode=demandeCatalogue

Les 90 consultants Orsys sont à votre disposition pour vous aider dans vos choix de formations et vous proposer les solutions optimales en termes de budgets et d’organisation inter ou intra-entreprise.

N’hésitez pas à les contacter au +33 (0)1 49 07 73 73

 

 

 

 

 

 

Big Data : comment gérer les données inactives ?

Ingénieur polytechnicien et Télécom Paris, Guy Chesnot anime des séminaires et des formations sur le Big Data et, est l’auteur de plusieurs ouvrages sur le sujet. Après son article intitulé « Big Data, orgueil et préjugés » ici même en avril, il a accepté de nous éclairer de nouveau sur un autre aspect de ce vaste sujet !

Le coût des données inactives dans les Big Data

Le principe de base du Big Data veut que les données constituent une matière première qui peut et pourra être utilisée. Malheureusement, ce principe se heurte à deux écueils : d’une part, les données ne sont pas toutes de bonne qualité et, d’autre part, toutes les données ne sont pas actives pour les applications courantes. C’est ce second problème qui est ici abordé : comment gérer ces données inactives ?

Croissance des volumes et utilisation

D’après toutes les études et analyses, le volume de données des entreprises croît à un rythme effréné. Cette croissance se traduit essentiellement par la création de données non structurées, stockées sous forme de fichiers. Cependant, l’utilisation de ces fichiers n’augmente pas forcément au même rythme. Autrement dit, les usagers créent de plus en plus de fichiers, mais ils continuent de n’en utiliser que quelques-uns. A l’échelle d’une entreprise, le problème devient dramatique. En effet, on passe d’un souhait personnel (je veux que mes fichiers soient disponibles tout le temps) à une nécessité commerciale (mon entreprise doit accéder à ses données à tout moment).

Une récente étude de la NSF (National Science Foundation) a montré que les fichiers sont rarement rouverts : 95% des fichiers sont ouverts moins de cinq fois. Plus de 60% des réouvertures ont lieu dans la minute suivant la première ouverture. Plus de 76% des fichiers ne sont jamais ouverts par plus d’une personne et parmi les fichiers ouverts par des tiers, 90% des données partagées ne sont que lues.

Les infrastructures des disques des centres de données ne cessent donc de croître à une vitesse vertigineuse. À ce coût lié à l’achat de nouvelles unités multidisques, s’ajoute celui de la sauvegarde de ces unités, de la surface supplémentaire dans le centre de données, de l’électricité et du refroidissement pour des disques qui tournent continuellement mais ne sont presque jamais utilisés.

Conservation des données inactives

La sauvegarde est nécessaire afin de protéger les disques primaires et la croissance du volume de données induit directement l’accroissement des fenêtres de sauvegarde. Les périodes de sauvegarde et de restauration deviennent impossibles à gérer du fait de la prise en charge des données actives et inactives.

Les responsables informatiques n’ont alors souvent pas d’autre choix que de prendre les données excédentaires et de les placer dans une armoire en tant qu’« archives ». Malheureusement ces « archives » n’en sont pas vraiment et souvent, ne sont pas gérées. Les données à forte valeur sont mélangées à des données à faible valeur.

Comment résoudre ce problème ?

La solution consiste à créer une distinction claire entre la sauvegarde et l’archive et à séparer les besoins de protection des données de ceux de conservation des données. Les stratégies de sauvegarde doivent concerner les données de production à court terme, afin de les prémunir contre des défaillances catastrophiques. A l’opposé, les stratégies d’archive ou de conservation des données concernent le plus long terme. Une archive active est une archive dans laquelle toutes les données sont toujours disponibles « en ligne » et visibles pour l’utilisateur, dans un environnement où les données sont protégées, pour une conservation très longue.

Les données inactives ayant de la valeur sont déplacées dans un niveau de stockage d’archives qui, même s’il est « en ligne », est typiquement dans un état de veille utilisant soit une technologie MAID qui met en sommeil les disques et supprime ainsi totalement la consommation énergétique de la baie, soit une technologie plus classique de bandes magnétiques.

Pour déterminer si les données sont actives ou non, l’un des points clés réside dans la stratégie de classement mise en œuvre. Les solutions de gestion des données numériques permettent une indexation automatique des contenus de multiples façons au fil des créations et des modifications. Les administrateurs peuvent aisément établir des politiques visant à déterminer quelles sont les données qui doivent rester sur le disque de production et celles qui peuvent migrer vers un stockage de second ou troisième niveau (Tier). Une gestion hiérarchique du stockage permet alors de virtualiser l’ensemble des niveaux de stockage.

Bénéfices

Une stratégie d’archive active peut entraîner une réduction significative des coûts globaux liés à un volume croissant de données. En outre, en séparant le disque de production des autres niveaux de stockage, les points uniques de défaillance sont pratiquement éliminés. Les composants individuels peuvent être mis à jour ou modifiés sans affecter l’utilisation globale pour les utilisateurs. L’extensibilité devient alors un atout et non plus un cauchemar !

Formations associées :

BGA BIG DATA, synthèse

MBD La DSI et l’entreprise face aux défis du Cloud, Byod et BIG DATA, La nouvelle révolution des SI

DMI DATA Mining, synthèse

VIR VIRTUALISATION, enjeux et solutions

DAW Construire un DATA Warehouse

AEB Nouvelles architectures des SI

L’Eldorado du NoSQL

A l’occasion de la sortie de son nouveau livre, Orsys a interrogé Rudi Bruchez, expert SQL et formateur Orsys, sur la mode du NoSQL :  

 

« Les bases de données NoSQL : Comprendre et mettre en œuvre », est le premier livre en français traitant de ce mouvement né il y a maintenant une dizaine d’années et qui agite le monde des bases de données, depuis les États-Unis mais avec des vagues de plus en plus perceptibles en Europe et en France. J’ai eu envie d’écrire ce livre non seulement pour formaliser mon approche des différents types de moteurs NoSQL, pour clarifier leurs choix techniques mais aussi pour permettre aux informaticiens et aux décideurs de baser leurs choix sur des faits plutôt que des opinions.

Les choix logiciels sont-ils rationnels ?

En effet, l’apparition de nouvelles technologies dans le monde informatique pose souvent des problèmes de rationalité. Sur quoi base-t-on le choix d’une technologie pour développer un logiciel ou un outil interne en entreprise ? Théoriquement, sur des faits avérés, des tests minutieux et des arguments solides. Dans la pratique, pourtant, les choix sont souvent motivés par tout autre chose : les goûts personnels des décideurs, des articles écrits par des auteurs un peu polémiques (comme celui-ci par exemple ?), des on-dit, l’attrait de la nouveauté, bref des non-critères qui ne garantissent pas la qualité ou l’adéquation d’une technologie aux problèmes de l’entreprise. Cela a souvent été le cas dans l’histoire de l’informatique, par exemple pour le XML, le langage Java, le framework .NET, les ORM (les outils de mapping relationnel-objet) et maintenant les moteurs de bases de données. lire la suite

Big Data : orgueil et préjugés

Ingénieur polytechnicien et Télécom Paris, Guy Chesnot travaille chez Silicon Graphics France où il se consacre à l’étude des systèmes et logiciels de stockage de données. Il était auparavant chez Cray Research. Il donne également des cours d’architecture des ordinateurs et de conception des systèmes d’exploitation à l’université de Marne-la-Vallée, en 2e et 3e cycles, anime des séminaires sur le Big Data et est l’auteur de plusieurs ouvrages dont « Cloud computing, Big data, parallélisme, hadoop : stockage de données du futur ».


Alors que le salon du Big Data vient de s’achever, Guy Chesnot, expert de ce domaine et formateur Orsys,  partage ses réflexions sur notre blog :

Pour beaucoup, la terminologie Big Data ne provient que d’une démarche purement marketing sans recouvrir aucune évolution scientifique ni technologique. Comment leur jeter la pierre puisque l’industrie informatique a pour habitude de recycler ses produits existants sous de nouveaux habits? Cependant, cette fois-ci, il s’agit d’une véritable rupture qui est issue d’un changement principalement quantitatif.

Big Data : un concept de double nature

Le terme « Big Data » couvre à la fois un aspect quantité – de volumétrie, de vitesse d’arrivée des données et de multiplicité des types de données numériques – et un aspect algorithmique : comment retirer des informations de valeur de cette masse de données ? Or une évolution quantitative de grande ampleur entraîne une évolution qualitative. Les méthodes utilisées pour enregistrer les données, les stocker, y accéder  et les conserver dans le temps doivent changer au-delà de certaines quantités. De même, les mécanismes et algorithmes d’analyse des données ne sont pas indépendants des volumétries traitées. lire la suite

PHP, un langage pas comme les autres ?

Alors qu’une actualisation de la version 5 PHP est prévue courant avril 2013, Xavier Braive, développeur et formateur Orsys nous fait un point sur ce langage :

Qu’est-ce que le PHP ?

PHP (Hypertext Preprocessor) est un langage informatique qui permet d’automatiser des pages Internet, autrement dit de les fabriquer à chaque fois qu’elles sont demandées. En d’autres termes, quand l’internaute va sur un site , qu’il essaye d’accéder à une page, celle-ci est créée par un intégrateur HTML ; elle est statique. Ce que peut faire PHP, c’est la construire à chaque fois qu’on y accède. Cela permet d’avoir des pages différentes en fonction de certains critères. Par exemple, quand l’internaute fait une recherche sur Google, il envoie une demande et reçoit en retour une page qui ne peut être fabriquée ni  à l’avance, ni dynamiquement sans l’aide d’un langage tel que le PHP. L’autre intérêt de ces langages côté serveur est qu’ils peuvent se connecter à des bases de données comme MySQL ou Oracle. Un tiers des sites dans le monde est développé avec PHP, Facebook, Yahoo ou encore MediaWiki par exemple. Les concurrents sont ASP, C#, Java, Ruby.

Les raisons du succès de PHP ?

PHP est un langage ayant une approche facile, intuitive et simplifiée par rapport aux autres précités, les bases s’apprennent rapidement et un résultat concret est vite obtenu. Pour prototyper des applications, commencer des sites web, cela ne requiert pas des connaissances informatiques étendues. L’autre raison de son succès, est son évolution constante, il propose beaucoup de possibilités : se connecter à n’importe quelle base de données ou faire du traitement d’image (redimensionnement, modification des fichiers image, optimisation pour mettre l’image en pièce jointe…). Il s’agit donc d’un langage simple, complet et adapté aux utilisations complexes actuelles. lire la suite