Ciao a tutti, e grazie per le risposte
In effetti non avevo specificato questi dettagli.
I file di aggiornamento sono da 3 a 5, dipende dai casi, l'aggiornamento
verrebbe fatto da 1 a 3 volte al giorno, mentre la larghezza del file sarebbe
nell'ordine di 15Mb per il file piu' grosso.
Il trasferimento verra' fatto tramite una piccola applicazione FTP che posso
sviluppare in Delphi con componenti Indy. Questa applicazione verrebbe
istallata sul server e posso fare in modo che compia tutte le operazioni
necessarie. Purtroppo non ho la possibilita' di utilizzare una compressione on
the fly
Grazie
Alberto
----Messaggio originale----perche'
Da: piviul@xxxxxxxxxxxx
Data: 17/12/2012 14.11
A: "postgresql-it"<postgresql-it@xxxxxxxxxxxxx>
Ogg: [postgresql-it] Re: Migliore pratica per gestione comando Copy
acheriom@xxxxxxxxx scrisse in data 17/12/2012 11:39:
Ciao Daniele,
Questa era la prima opzione che avevo pensato pero' l'avevo scartata
diminuissipensavo che zippando i files e mandandoli sul server di destinazione
ini tempi totali di caricamento.
Se tu mi dici che questa e' la migliore delle soluzioni allora questo
renderebbe la vita molto piu' facile a me. Per di piu' il file csv e' gia'
un formato che puo' essere accettato direttamente da PostgreSQL.Io sono d'accordo con Daniele anche se però bisogna vedere con che
frequenza puoi/vuoi aggiornare i dati di postgres e quanto stimi siano i
cambiamenti da esportare. Se la sql di esportazione è qualche KB non
avrei dubbi, sceglierei di accedere direttamente a postgres; se
incomincia essere qualche MB allora forse la soluzione che prospetti di
2 script separati forse...
Ciao
Piviul
_______________________________________________
Postgresql-it mailing list
Postgresql-it@xxxxxxxxxxxxx
http://lists.psql.it/mailman/listinfo/postgresql-it