synchronisation de fichiers administratifs (genre /etc/hosts) via rsync ========================== UN ARTICLE AVEC efax ET éventuellement pour combler sips (scriptable image processing system) => voir fichier efax_premiers_pas.txt dans dossier Bureau => IL SEMBLE QUE D'AVOIR UNE PAGE DE GARDE AVEC UN LOGO SOIT UN PLUS un article sur IPSecuritas si je le fais fonctionner stdin stdout tar O O bzip O O split O N md5 O O MAIS ça ne sert pas à grand chose xargs le tout en une combinaison comme suit : tar cf - DOSSIER_QUELCONQUE | bzip2 -c | split -b 2m - /DOSSIER_DESTINATION/PREFIXE_FICHIERS faire ce qui suit avec une boucle ET seulement ensuite avec xargs pour en montrer clairement l'intérêt ls /DOSSIER_DESTINATION/PREFIXE_FICHIERS* | xargs -L 1 -J MORCEAU curl -T MORCEAU ftp://IDENTIFIANT:MOT_DE_PASSE@SERVEUR_FTP/DOSSIER_DESTINATION/ NOTE : le ftp de Mac OS X (lukemftp) s'acquitte très bien des transferts (réception ET émission) de plusieurs fichiers à la fois. Exemple : ftp -v -u ftp://yannick:y020867@robert/ *.eps L'option -u c'est pour upload, -v pour verbose PARFAIT : IL SUFFIT D'UTILISER L'UN POUR L'ENVOI (curl) ET L'AUTRE POUR LA RECUPERATION (ftp) ! m md5 pour valider le transfert des fichiers "splittés" (dans le détail pour être capable d'identifier UN fichier corrompu qui sera le seul à devoir être renvoyé) - en UTILISANT l'option -c PUIS cat pour réassembler le TOUT ! TOUJOURS pour xargs : ls *.zip | xargs -n 1 unzip -t ou ls *.zip | xargs -n 1 unzip -t | grep testing ---------------------- POUR SVM Mac : Pour un prochain Terminal, je propose de mettre en oeuvre quelques nouvelles commandes pour arriver à UN objectif, à savoir transférer un ensemble de fichiers volumineux vers un site FTP et comment les récupérer. Cela a l'air trivial mais cela soulève en réalité des problèmes en cascade que des commandes vraiment "sympathiques" permettent de résoudre. En clair, qui dit volumineux dit transfert (autant en émission qu'en réception) long et par conséquent sujet à un important risque de coupure. Début de solution : compresser les données. Complément de solution : couper en petits morceaux. Deuxième souci, comment s'assurer de l'intégrité des données une fois les transferts réalisés ? Solution : utiliser un système de chiffrement. Troisième souci : comment transférer plusieurs morceaux en un minimum de commandes ? Solution : adopter un programme d'énumération OU un programme de transfert capable de manipuler un ensemble de fichiers (les deux sont vus, un en envoi, le second en réception) Quatrième souci : comment reconstituer une archive complète à partir des morceaux récupérés Solution : en "regroupant" les morceaux et on en profite dans la foulée pour décompresser les données à la volée J'ai omis un détail, c'est qu'à la base, on commence par créer une archive pour conserver, outre les données, le maximum de métadonnées aussi. Point supplémentaire : un avantage supplémentaire et pas des moindres de découper en petits morceaux réside dans la possibilité de ne re-transférer qu'un volume réduit de données si une corruption est détectée dans un des morceaux plutôt que de perdre un temps précieux à recommencer un long chargement. Voilà, je me propose de voir tout cela, ce qui permet de montrer un maximum de commandes pour réaliser une tâche précise. ============================ awk (/Volumes/Data/MEDION\ WinMe/Mes\ documents/Professionnel/KOMMANDO/Unix/exemple_awk.txt) => faire une somme des tailles de fichiers (trouvés par un find CRITÈRES -ls) un moyen 'simple' d'avoir juste les PID et les noms de programmes AVEC leurs arguments : ps axww|cut -b1-6,27- ?? screen