goudron repris sur ssh

Je voudrais utiliser tar cf - | ssh user@hostname tar xf - tar cf - | ssh user@hostname tar xf - pour copyr un très grand set de files. Le seul problème est que ce sera sur un lien VPN très flakey.

Est-il possible de configurer un transfert repris comme celui-ci? J'utiliserais rsync , mais je ne sais pas comment le faire car la façon dont les keys SSH sont organisées signifie que la destination de la copy doit démarrer la command.

One Solution collect form web for “goudron repris sur ssh”

Vous pouvez toujours utiliser rsync à partir de la "destination".

Voici la command à exécuter sur le server de destination.

rsync -avz <username>@source.com:/path/to/backup /local/path/to/copy/backup/to

Remplacez le et du server source sur lequel vous souhaitez copyr datatables.

Vous n'avez pas besoin de "server" rsync en cours d'exécution sur l'hôte distant. Cela se produit de manière transparente pour l'user final tant que votre server ssh fonctionne sur le server source.

Il suffit d'exécuter la command tel quel et rsync fonctionnera sur ssh depuis la destination, en copiant datatables de la source.

  • tar --listd-incremental inclut tous les directorys de chaque incrément?
  • Comment split un grand .tar.gz sur une machine Windows pour download sur un server Linux?
  • Modification simultanée lors de la sauvegarde: rsync vs dump vs. vs vs vs?
  • Exclure les dossiers montés de l'archive tar
  • Segmenter les sauvegardes mysql en utilisant du goudron
  • Comment récupérer un server à partir d'un file tar
  • rembourrage avec zéros
  • Installez la version ancienne de PHP sur Centos 6
  • Est-ce que je peux get un bit pour ne pas utiliser le cache du système de files lors de la lecture de files?
  • Faites en sorte que rsync fonctionne avec une cible ou une tarte compressée sans aucun file d'incrémentation
  • Déduplication des archives tar
  • Les astuces du serveur de linux et windows, tels que ubuntu, centos, apache, nginx, debian et des sujets de rĂ©seau.