Windows Server 2012 R2 Deduppé 356 Go à 1,32 Go

Je expérimente la déduplication sur un espace de stockage Server 2012 R2. Je l'ai laissé exécuter la première optimization de décount hier soir, et j'ai été ravi de constater qu'elle réclamait une réduction de 340 Go.

entrez la description de l'image ici

Cependant, je savais que c'était trop beau pour être vrai. Sur ce lecteur, 100% de la déduire provient des sauvegardes SQL Server:

entrez la description de l'image ici

Cela semble irréalist, étant donné qu'il existe des sauvegardes de bases de données qui sont 20x de cette taille dans le dossier. Par exemple:

entrez la description de l'image ici

Il estime qu'un file de sauvegarde de 13,3 Go a été déduite en 0 octets. Et bien sûr, ce file ne fonctionne pas réellement lorsque j'ai effectué un test de restauration de celui-ci.

Pour append une insulte à une blessure, il existe un autre dossier sur ce lecteur qui a presque une TB de données qui aurait dû déduire beaucoup, mais n'a pas.

La déduplication Server 2012 R2 fonctionne-t-elle?

3 Solutions collect form web for “Windows Server 2012 R2 Deduppé 356 Go à 1,32 Go”

La déduplication fonctionne.

Avec la déduplication, la taille sur le champ de disque devient sans signification. Les files ne sont plus des «files» habituels, mais des points d'parsing et ne contiennent pas de données réelles, mais des métadonnées pour décomstackr le moteur pour rebuild le file. Je crois comprendre que vous ne pouvez pas get d'économies par file puisque dédiffusion est par volume, de sorte que vous ne recevez que des économies par volume. http://msdn.microsoft.com/en-us/library/hh769303(v=vs.85).aspx

Peut-être que votre travail de déduplication n'était pas encore terminé, si d'autres données n'avaient pas encore été déduite. Ce n'est pas super rapide, est limité par le time par défaut et peut être limité en fonction de votre matériel. Vérifiez la planification de décount à partir du Gestionnaire de server.

J'ai déployé du décomptage sur plusieurs systèmes (Windows 2012 R2) dans différents scénarios (SCCM DP, différents systèmes de deployment, servers de files generics, servers de files de dossiers d'users, etc.) depuis environ un an maintenant. Assurez-vous que vous êtes complètement corrigé, je me souviens de plusieurs correctifs pour déduire la fonctionnalité (à la fois les mises à jour cumulatives et les correctifs) depuis RTM.

Cependant, certains problèmes ne permettent pas de lire des données directement à partir de files optimisés dans le système local (IIS, SCCM dans certains scénarios). Comme suggéré par yagmoth555, vous devez soit essayer Expand-DedupFile pour l'optimiser ou simplement faire une copy du file (le file cible sera non optimisé jusqu'à la prochaine optimization) et réessayer. http://blogs.technet.com/b/configmgrteam/archive/2014/02/18/configuration-manager-dissortingbution-points-and-windows-server-2012-data-deduplication.aspx https: //kickthatcomputer.wordpress .com / 2013/12/22 / no-input-file-specified-windows-server-2012-dedupe-on-iis-with-php /

Si votre sauvegarde SQL est effectivement corrompue, je crois que c'est en raison d'un problème différent et non de la technologie de déduplication associée.

Il me semble que j'ai peut-être sauté l'arme en disant que ce type de déduplication n'est pas possible. Apparemment, il est totalement possible, car en plus de ces sauvegardes SQL Server non compressées, j'ai également des sauvegardes VMWare à l'instantané des VM hôtes.

Comme je l'ai suggéré par yagmoth55, j'ai lancé un Expand-DedupeFile sur certains de ces files de 0 octets et j'ai retrouvé un file totalement utilisable à la fin de celui-ci.

J'ai ensuite examiné ma méthode de test pour savoir comment j'ai déterminé que les files n'étaient pas bons et j'ai trouvé un défaut dans mes tests (permissions!).

J'ai également ouvert un file de sauvegarde déduplicé de 0 octet dans un éditeur hexadécimal, et tout s'est bien passé.

J'ai donc ajusté ma méthode de test et tout semble fonctionner. Comme je l'ai laissé, les déducteurs ont réellement amélioré, et j'ai maintenant économisé plus de 1,5 To d'espace grâce à la dédupe.

Je vais tester cela plus avant avant de donner un coup de main à la production, mais maintenant, il semble prometteur.

Oui, mais je n'ai vu le cas d'un cluster hypervé db déduite. 4t à 400g, et la machine virtuelle était en cours d'exécution. Le operating system a été totalement corrigé.

Pour votre file de sauvegarde sql, est-ce une décharge que vous pouvez lire? Je vérifierais le contenu. Pour cette partie, je ne peux pas répondre à la façon dont il déduit le file ascii.

  • Le controller de domaine n'a pas été reconnu lors de la tentative de dégradation d'un autre controller de domaine
  • Kerberos Failure Audit Event Id 4769 sur le controller de domaine
  • Comment configurer un server pour envoyer des e-mails après le démarrage (c.-à-d. Pas la signification d'un server de messagerie)?
  • Pourquoi mon count user ne peut-il pas supprimer un ordinateur AD dans Powershell?
  • Windws Server 2012 R2 Journal des events / Audit des files supprimés / Seules les dernières minutes visibles
  • La meilleure façon de surveiller le server Windows?
  • L'installation d'Hyper-V 2012 R2 à USB donne l'erreur INACCESSIBLE_BOOT_DEVICE
  • SSL sur IIS8.5 - Travailler avec l'URL nommée, mais localhost résulte en ERR_CERT_COMMON_NAME_INVALID
  • Erreur ADFS lors de la saisie du fournisseur de services SAML
  • Windows Server: quelle est la différence entre le filtrage de security (sous l'onglet Portée) et l'onglet Délégation dans la gestion des stratégies de groupe?
  • Echec du DNS de Cisco AnyConnect SSL VPN Subnet
  • Les astuces du serveur de linux et windows, tels que ubuntu, centos, apache, nginx, debian et des sujets de rĂ©seau.