On Tuesday 03 October 2006 13:23, Flavio Stanchina wrote: > Daniele P. wrote: > > vorrei usare xfsdump su un subtree (80GB) di un filesystem da > > 500GB. I tempi perà mi sembrano inaccettabili, [...] > > Non avevo risposto perchà all'epoca ero in vacanza (;-) e comunque di > xfs non so nulla, ma dopo aver letto il tuo messaggio di oggi ho > riguardato i precedenti e mi à venuto in mente che... > > L'idea di fare il backup con il tool nativo del filesystem nasce > > dal fatto che nei subtree ci sono moltissimi hardlink, che > > dovrebbero essere gestiti meglio da un tool nativo del filesystem > > che da un tool generico come tar o rsync. > > tar gestisce perfettamente gli hard link, ovviamente fintantochà > tutti i link allo stesso file sono dentro all'albero da archiviare. Vero, perà perfettamente non vuol dire nel modo pià efficiente possibile. Forse nel modo pià efficiente possibile per una utility generica. Mmm, non vorrei dire cavolate, ma mi sembra che le utility che hanno accesso al filesystem non hanno disposizione chiamate di sistema che possano dato un inode restituire la lista dei nomi dei file, per cui tar deve tenersi a mente tutta la struttura, e fare un stat su tutti i file che incontra. Una veloce occhiata ai sorgenti di tar sembra confermare la mia ipotesi: c'à una tabella di hash chiamata link_table e per ogni file letto viene fatto il confronto tramite stat. Se poi ci aggiungiamo la gestione delle acl bisogna usare star e altre chiamate di sistema. Il tool nativo del filesystem, limitandosi a fare il dump di una lista di inode e dei metadati dovrebbe essere molto pià efficiente. > Per quanto riguarda rsync, adesso non ricordo a memoria, ma mi pare > che ci sia un'opzione per dirgli di fare la cosa giusta con gli hard > link. Sicuro, infatti lo schema di base del backup si basa su rsync con l'opzione --link-dest. Ciao, Daniele P. -- Per iscriversi (o disiscriversi), basta spedire un messaggio con OGGETTO "subscribe" (o "unsubscribe") a mailto:linuxtrent-request@xxxxxxxxxxxxx