Le monde de l'entreprise a découvert les limites des architectures classiques quant à l'exploitation de quantités de données astronomiques générées les Systèmes d'Information.
La plateforme de traitements distribués Apache Hadoop est une "replique" Open Source de la stack GFS (Google File System), MapReduce et BigTable de Google, particulièrement efficace dans ce nouveau contexte jusque là exploré par une infime minorité d'entreprises leaders telles que Google, Yahoo, Facebook, etc.
Son objectif est de démocratiser les nouveaux paradigmes et technologies qui ont fait le succès de ces "jeunes" ténors.
Lors de cette présentation nous aborderons :
- la genèse de cette plateforme
- les éléments importants de son écosystème.
- les problématiques auxquels elle essaye de répondre
- l'état actuel de la plateforme
- l'avenir de Hadoop et de son adoption par nos SI
...ou Comment maîtriser en continu la qualité du code source ?
Une conférence des Jeudis de l'Objet animée par Olivier GAUDIN,
Co-fondateur et directeur de SonarSource, société éditrice de la plateforme open source Sonar.
Le métier de développeur a fortement évolué au cours des 10 dernières années du fait de la généralisation de processus tels que l'intégration continue, le développement piloté par les tests et le refactoring.
L'industrie du développement logiciel a atteint aujourd'hui un niveau de maturité suffisant pour que bon nombre d'entreprises s'engagent dans la mise en place d'une nouvelle pratique pour gérer en continu la qualité du code source : l'inspection continue.
La plateforme qualimétrique Sonar est à l'inspection continue, ce que Hudson ou Continum est à l'intégration continue.
Initialement dédiée aux développements Java, la plateforme Sonar s'est ouverte à des langages tels que PHP, Cobol ou encore VisualBasic.
Un meilleur taux d'occupation des serveurs en temps réel s'impose !
En 2008, 2% de la production électrique mondiale a été consommée par les centres de données. Un centre de données (ou data center) est une infrastructure technique où sont regroupés en un même lieu géographique des dizaines, des centaines, voire des milliers d'ordinateurs inter-connectés par un réseau haut débit.
Malheureusement, le chiffre alarmant de 2% de consommation électrique mondiale évoqué pour 2008 devrait être dépassé pour 2009 puisque plusieurs études montrent que le nombre de centre de données devrait augmenter dans les prochaines années.
Cette multiplication est liée à l'accroissement du nombre d'internautes (principalement dans les BRIC : Brésil, Russie, Inde, Chine), des terminaux d'accès, des données disponibles, et l'apparition de nouveaux usages comme le Cloud Computing.
Orange Labs, Bull, et la Direction Générale des Finances Publiques sont partenaires des Mines de Nantes. Ils valident actuellement la solution logicielle Entropy.