Le 19 mars dernier se tenait, à Paris, le premier salon sur l’automatisation : The Incredible Automation Day (TIAD pour les intimes).

Organisé par D2SI, ce salon visait à regrouper décideurs, chefs de projets et développeurs autour d’une même problématique : qu’est-ce que cette automatisation dont on parle tant et comment peut-elle m’aider au quotidien.

Pour cette première édition, Ineat-Conseil était présent, voici un compte-rendu de tout ce que l’on a pu y découvrir.

Keynotes du matin

Tiad : Continuous Learning par Christine Ebadi | D2si

La journée commence par une keynote de Christine Ebadi sur l’automatisation en général et comment Dev & Ops doivent se réinventer.

[slideshare id=46258688&doc=tiad-continuouslearning-150325041946-conversion-gate01]

Docker : Automation for the rest of us par Jérôme Petazzoni | Docker

Jérôme Petazzoni est senior engineer chez Docker et nous présente comment Docker peut changer notre vie au quotidien.

Comment Docker peut aider le développeur à construire avec le client un environnement de test afin de reproduire un bug de production.
Comment Docker peut aider les équipes à obtenir un environnement de développement stable et reproductible.
Comment Docker peut aider les opérateurs système à déléguer à l’équipe de BUILD la fourniture d’un environnement de RUN stable et se concentrer sur les véritables problématiques de production.

[slideshare id=46258760&doc=tiad-dockerautomationfortherestofus-150325042124-conversion-gate01]

Automating the modern datacenter par Mitchell Hashimoto | HashiCorp

Fondateur de HashiCorp, Mitchell nous présente comment Terraform peut être utilisé pour produire de l’Infrastructure as Code, versionnable et reproductible.
Ensuite comment utiliser Consul pour déployer de la configuration à chaud en temps réel.

[slideshare id=46258807&doc=tiad-automatingthemoderndatacenter-150325042237-conversion-gate01]

Game Days par Carlos Conde | Amazon Web Services

Chez Amazon, pour tester ses Plan de Reprise d’activités, on organise des Game Days : on simule une catastrophe.

Tout au long de cette présentation, Carlos nous explique toute l’importance de réaliser des simulations.
Depuis le simulateur d’avions pour entraîner les pilotes à atterrir jusqu’au bébé robot utilisé dans certains hôpitaux, la meilleure manière d’éviter les erreurs pour la réalisation d’une tâche complexe reste de la répéter encore et encore.

Le principe du Game Day est de créer un environnement de simulation et d’y déclencher une catastrophe : couper l’alimentation générale d’un Data Center et voir comment l’équipe réagit.
Cette partie de jeu de rôle permet de mettre les équipes en situation, de récolter un maximum d’informations afin de déclencher un apprentissage par l’échec.

L’arrivée d’une nouvelle personne dans l’équipe à la veille d’une mise en production peut sembler une excellente opportunité d’apprentissage, mais il faut reconnaître qu’un peu de pratique avant de participer à une refonte complète de la stack technique est préférable.

Certains scénarios de Game Days sont toutefois très intéressant : organiser un crash applicatif alors que seules les personnes récemment arrivées sont présente.
Dans le cadre d’une simulation, quoi de mieux pour appréhender l’environnement applicatif et technique dans son ensemble.

Mieux encore, dans le cas où un Single Point Of Failure est connu au sein de l’équipe, organiser un scénario “Five-star-hero-less” pour mesurer les réactions de l’équipe dans le cas d’un crash en l’absence du super-héros de l’équipe.

[slideshare id=46035332&doc=aiodvukrz6jixblyoikb-signature-2b52fc401525f67e9962eb004db6b595a6dcc4bc1d9b71f2a6846f93f55fc5e4-poli-150319080920-conversion-gate01]

Sessions de l’après-midi

Deep-Dive on Consul & Terraform par Mitchell Hashimoto | HashiCorp

Une session Live Coding avec Mitchell, qui nous permet de voir plus en détail le fonctionnement présenté au matin de Terraform et Consul.

Avec quelques ligne de JSON, on peut instancier de multiples machines sur Amazon Web Services.

Une fois le cluster Consul mis en place, il devient possible de propager de l’information en temps réel sur tous les noeuds.

Une piste très intéressante : la mise à disposition des paramètres applicatifs dans ce cluster permettrait de corriger en temps réel sans avoir à réaliser de nouveau déploiement.

From Mesos to Swarm: the future of orchestration with containers par Jérôme Petazzoni | Docker

Une nouvelle session Live Coding par l’excellent Jérôme Petazzoni qui nous montre en direct un Cluster MesOs de 10 machines sur lequel il déploie une application web Python avec une base Redis.

Dans cette nouvelle ère du déploiement de conteneur, l’orchestration des ressources devient une réelle problématique digne d’un Tetris multi-dimensionnel (RAM, CPU, Espace disque, Réseau, etc.); MesOs peut aider à répondre à ce casse-tête grâce à de nombreux algorithmes qui vont permettre de répartir les conteneurs au mieux sur l’intégralité du Data Center.

Une fois le cluster créé à l’aide de quelques conteneurs Docker (un master et 10 slaves), on va ajouter un framework qui va communiquer avec MesOs pour le déploiement de nos éléments :

 

  • Marathon, pour le déploiement d’application persistantes dans le temps (webapp)
  • Chronos, pour la répartition de jobs
  • Volt, spécialement créé pour administrer des conteneurs Docker.

Avec des fonctionnalités certes moins poussées que MesOs, il est possible d’orchestrer aisément ses conteneurs Docker sur un Data Center.

Docker Swarm permet de déclarer sur le cloud un “Tableau blanc” identifié par un jeton créé sur le “Maître de la Swarm” (comprendre la tête de cluster), que chaque noeud pourra rejoindre.

Une fois que le cluster possède des noeuds, il devient possible d’y instancier de nouveaux conteneurs sans quitter l’écosystème Docker; en effet Swarm offre la même API que Docker lui-même, les outils sont donc compatible et permette de gérer de manière transparente un cluster comme un simple serveur Docker.

Autres présentations

Continuous Delivery of Infrastructure – The case of a growing startup par Nicolas Blanc | BlaBlaCar
http://fr.slideshare.net/TIADParis/tiad-continuous-delivery-of-infrastructure

Automating the application lifecycle: from build to run par Laurent Bernaille | D2SI
http://fr.slideshare.net/TIADParis/tiad-lifecycle-automation

Best Practices – Proposition for making the most out of automation par Christophe Roux et Fabien Lallemand | D2SI
http://fr.slideshare.net/TIADParis/tiad-choisir-et-construire-son-projet-dautomatisation

From standardization to automated alerts remediation par Philippe Sartiaux | Schlumberger
http://www.slideshare.net/TIADParis/tiad-from-standardization-to-automated-alerts-remediation

How to optimize Legacy IT running the business while preparing for the future par Jerôme Labat | HP
http://www.slideshare.net/TIADParis/tiad-automation-day-by-jerme-labat

Automate Everything with Google Cloud par Bastien Legras | Google
http://www.slideshare.net/TIADParis/tiad-automate-everything-with-google-cloud

In a Chocolate Factory par Guillermo Musumeci et Julien Stanojevic| D2SI
http://www.slideshare.net/TIADParis/tiad-in-a-chocolate-factory

Full Stack Automation par Adrien Blind | Société Générale et Clément Cunin| D2SI
http://www.slideshare.net/TIADParis/tiad-full-stack-automation

DevOps & Continuous Delivery in the Cloud par Stéphane Goudeau | Microsoft Azure
http://www.slideshare.net/TIADParis/tiad-devops-continuous-delivery-dans-le-cloud

DIY: A simple orchestrator built step by step par Ahmet Demir | D2SI
http://www.slideshare.net/TIADParis/tiad-dyia-simple-orchestrator-built-step-by-step

See you next year @TIADParis 2016