Suite aux vidéos de Xavki sur l’installation d’une stack Node-exporter/Prometheus/Grafana que j’ai trouvé très interessantes, j’ai voulu mettre à jour mon monitoring en m’y inspirant. Cependant je préfères la stack TICK (Télégraf, Influxdb, Chronograf et Kapacitor), la stack de influxdata, principalement pour l’intégration complète et puissante des notifications directement dans chronograf. Le fait aussi de n’avoir qu’un seul agent (Télégraf), au lieu de plusieurs exporter (docker-exporter, node-exporter etc …). Dernier point, je n’ai pas trouvé beaucoup d’information sur le sujet, donc cela m’a permis de beaucoup monté en compétence, notamment sur la gestion des rôles avec la création d’un rbac pour ça.
Cela fait des années que je me dis qu’il faut que je prennes du temps pour mettre en place un vrai système de sauvegarde, et j’ai enfin trouvé le temps (youhou \o/).
Je me suis donc lancé dans la quête du meilleur outil pour faire ceci, pour cela, j’ai évalué mon besoin.
Analyse du besoin Quoi sauvegarder ? Les machines à sauvegarder Déjà quels périphériques faut-il sauvegarder, dans mon cas, j’ai besoin de sauvegarder mes smartphones, tablettes, PCs (Linux et windows) et mes serveurs. Il me font donc une solution cross-platform.
Les données Ensuite il y a la question des fichiers, là j’ai surtout besoin de sauvegarder mes données personnelles (photos, documents, sextape etc …), car si je perds ces données, ba je l’ai dans le cul.
Quand on parle de conteneurs, bien souvent 3 technologies nous viennent à l’esprit : docker, kubernetes et lxc.
Cependant nous avons beaucoup plus de technologies que ça.
Nous ne parlerons pas ici de ce que j’appelle les conteneurs systèmes (Conteneurs comme LXC qui viennent avec tout l’OS), mais des conteneurs applicatifs (comme docker par exemple). Nous essaierons de comprendre le fonctionnement des conteneurs, en regardant les spécifications de ceux-ci, et en regardant les alternatives qui existe.
Docker C’est indéniable, les conteneurs applicatifs sont ce qu’ils sont grâce à docker.
Historique simplifié Docker était à la base une sorte d’interface de gestion à LXC, toujours pour faire du conteneurs applicatifs, mais avec comme backend LXC, il était donc très dépendant du développement de LXC.
J’entends parler de multipass partout, mais vraiment partout, j’ai donc voulu tester ceci, mais le fait de ne pouvoir lancer que des VMs ubuntu me parraissait trop limité.
Après quelques recherches, j’ai vu que ce n’était en fait pas vraiment le cas, nous pouvons installer ce que nous voulons en fait, tant que c’est une image avec cloud-init intégré.
Voici donc un tout petit article sur l’utilisation de multipass sans ubuntu.
Installation de multipass Malheureusement il n’y a pas 36 solutions, soit on compile, soit on installe par snap, ou avec un peu de chance, vous être sur une base archlinux, et c’est dispo dans AUR.
Je cherchais un moyen de chiffrer les homes des utilisateurs de mon PC, sous manjaro depuis peu. Après avoir testé plusieurs solutions, mon choix c’est arrêté sur veracrypt, parce que pourquoi pas.
Pour ceci nous utiliserons donc veracrypt (à installer en fonction de votre distribution), couplé avec pam_exec.
Pour ce tutoriel, j’utilise manjaro avec xfce4 et lightdm, le comportement peut être différent avec d’autre environnement de bureau ou d’autre gestionnaire de connexion.
De plus j’utilise LVM, avec un VG spécifique pour les homes nommés vghome, avec un LV par utilisateur, mon script sera à adapter en fonction de votre installation bien évidemment.
Je suis très longtemps resté sur mon bon vieux nginx pour faire mon reverse proxy, ça fonctionne parfaitement.
J’avais déjà testé traefik en version 1.5, et je l’avais trouvé plutôt lent et limité, mais récemment, je me suis dit que j’allais retesté tout ça, à l’heure ou j’écris ces lignes, nous sommes à la version 2.2, nommée chevrotin.
J’ai eu beaucoup de mal à bien comprendre le fonctionnement de traefik, car la quasi totalité des tutoriels sont identiques niveau configuration, ce qui changeait c’est l’application mis derrière. Mais aucun réel tutoriel qui en explique le fonctionnement. Nous allons ici tenter de réellement comprendre ce que nous faisons, avec une approche totalement différente.
Depuis peu, j’ai choisi de passer de docker à podman, j’ai donc décidé d’écrire un petit article dessus.
Podman est au même titre que docker un outil pour créer et gérer des conteneurs, avec des images au format OCI.
Différences podman / docker Avant de parler des différences, nous allons parler des points communs, podman et docker utilisent exactement la même CLI, c’est à dire que créer un alias docker pointant vers podman fonctionnera parfaitement :
docker run -ti alpine devient podman run -ti alpine docker pull alpine devient podman pull alpine etc … Pas de clustering Par contre avec podman, pas de clustering, podman swarm n’existe pas.
Ayant récemment changé le PC portable de ma copine, j’ai donc décidé de réinstaller toute les machines de la famille (2 PCs portable, et 2 PC Bureautique), avec un OS unique pour simplifier la gestion derrière.
Le problème étant que je suis lasse de l’installation manuel d’archlinux, et surtout je n’ai plus le temps de passer des heures à configurer le tout.
J’ai alors commencé par aller sur distrowatch voir ce qu’il se faisait en ce moment, et après un premier filtre sur les distributions basé sur des distributions basé sur des distributions basé sur encore d’autres distributions, j’ai effectué cette énorme liste :
Pendant les 2 prochaines semaines, je vais être exécrable, pourquoi ?! Hé bien je vais vous l’expliquer.
Déjà, parce que ça va être le défilement des faux cul pour te souhaiter une bonne et heureuse année, alors qu’ils n’en ont rien à foutre de ta gueule.
C’est le moment de recevoir plein de messages de gens dont les dernières nouvelles étaient pour la nouvelle année précédente, de recevoir des putains de messages groupés, sans aucune personnalisation, ou pire personnalité (Bonne année à vous tous).
Avec les réseaux sociaux, ce phénomène agrave les choses, avec un simple Bonne année 2020 !!!, et qui veut prends, pourquoi se faire chier franchement ?
2019-09-23
3 minutes
No tag
Depuis quelques temps, mon PC du boulot est passé sous windows 10.
Sous Windows 7, j’avais donc des VMs Debian et des VMs CentOS (pour être au plus proche des serveurs) afin de faire mes tests sans risques.
Mais au passage de Windows 10, je me suis dis que l’utilisation de wsl pourrait être pas mal, sachant que je bosse principalement sur du bash, du perl et du python, ça ne devrait poser aucun soucis. Je garde quand même quelques VMs pour faire des tests plus poussés évidemment, comme les tests de provisionning ou de clustering, mais sur hyper-v maintenant car j’utilise docker4windows.