Hebdomadaire Shaarli
Semaine 07 (February 12, 2024)
Le scraping est une technique d'extraction de données d'un site web statique ou dynamique.
Dans cette article on va collecter des données ciblées d'un site pour les mettre en tableau qui pourra ensuite être traité pour faire des tris, des stats, des collections….
Le scraping peut aussi servir à nourrir un site web à partir de d'autres sites, en quelques sortent en remixant leurs données
L'exemple est en python
Librairie JS pour créer des dataviz interactives sur des cartes openstreetmap
Ressource très complète pour comprendre le fonctionnement de git
Une page consacrée à la gestion des css avec Twine pour des histoires au format harlowe.
tw-story (page entière) tw-passage (zone texte) tw-sidebar (zone de navigation/sauvegarde)
tw-link pour les liens et tw-link.visited
on peut ajouter des "étiquettes" tags qui peuvent servir à avoir des styles dédiés à certaines étiquettes.
ex: tw-story [tag="hiver"] et tw-story [tag = "été"] permet d'avoir des styles différents pour les passages étiquettés avec l'un ou l'autre
OpenRefine est un logiciel qui permet de nettoyer un jeu de données ou de le restructurer pour améliorer son import dans des outils de traitement ou de partage de données
Description de forme de différents types de graphismes.
Liste aussi les librairies de codes, les logiciels et les app qui peuvent générer chaque type de représentation
Un comparatif de différents dashboard opensource collecteurs de données (un + pour grafana)
Comparatif d'outils de datavisualisation, surtout des bibliothèques pour intégration
Comment fonction la soumission et la validation de commit collaboratif dans git