Redactie - 10 maart 2021

Back-ups van grote datasets maken met minimale impact

Back-ups van grote datasets maken met minimale impact image

Er is maar een beperkte hoeveelheid data die per keer via het netwerk kan worden verzonden. Daarom plannen de meeste bedrijven back-ups tijdens daluren, zodat back-upworkloads de cruciale bedrijfsactiviteiten niet verstoren. Het probleem van back-ups die slechts één keer per dag worden gemaakt, is dat de periode groter wordt waarbinnen data verloren kan gaan. Een back-upschema van één keer per dag komt overeen met een 24-uurs Recovery Point Objective (RPO), wat betekent dat een hele dag aan data verloren kan gaan in geval van een calamiteit. Dat is veel data.

Onderzoeken tonen aan dat de kosten van dataverlies stijgen. Het verlies van data leidt ertoe dat bedrijfskritische gegevens verloren kunnen gaan die ondernemingen nodig hebben om concurrerend te blijven. En het uitvoeren van dataherstel kost vaak bergen IT-resources en tijd. Er zijn dus genoeg redenen om de kans op dataverlies zoveel mogelijk te verkleinen.

Eén manier om dit te doen, is door de omvang te verminderen van de back-upworkloads die via het netwerk moeten worden verzonden. U kunt dit bewerkstelligen als uw back-upoplossing incrementele back-ups kan maken, zodat alleen wijzigingen tussen back-ups hoeven te worden geüpload. Toch kan de veranderingssnelheid voor de datagestuurde bedrijven van vandaag resulteren in grootschalige back-upworkloads, ook als het alleen om de wijzigingen sinds de laatste back-up gaat. Een andere manier om de impact van back-upworkloads te verminderen, is door de hoeveelheid bandbreedte te reguleren die tijdens piekuren voor die workloads wordt gebruikt. Carbonite Server Back-up biedt onder meer de volgende geavanceerde functies om de impact te minimaliseren van back-upworkloads die via het netwerk worden verzonden:

Quick File Scanning (QFS)

Carbonite Server Back-up maakt gebruik van een bedrijfseigen, gepatenteerde technologie, Quick File Scanning genaamd, om in de metadata van een bestand te controleren of dit sinds de laatste back-up is gewijzigd. Deze mogelijkheid om snel grote datasets te scannen om alleen bestanden te vinden die zijn gewijzigd, is cruciaal voor de efficiëntie van de oplossing.

DeltaPro – Deltaverwerking

Naast het gebruik van QFS om de gewijzigde bestanden te identificeren, stelt onze bedrijfseigen en gepatenteerde DeltaPro-oplossing voor dataverwerking ons in staat om de wijzigingen op blokniveau in de veranderde bestanden te vinden. De combinatie van QFS en DeltaPro maakt een hoge optimalisatie van de dataverwerking mogelijk, waardoor bedrijven de periode voor potentieel dataverlies mogelijk kunnen verkleinen en tegelijkertijd de impact op het netwerk kunnen verminderen.

Bovendien verkleinen onze compressie- en ontdubbelingsprocessen de back-upomvang aan de kluiszijde, waardoor de opslagruimte efficiënter wordt benut. Er is geen extra hardware nodig om deze hoge mate van efficiëntie te bereiken.

Tijdens de eerste back-up legt de agent alle data vast die op de beveiligde server staan. Deze eerste back-up wordt een seed genoemd. Wanneer voor het eerst een back-up van een bestand wordt gemaakt, wordt de data gecomprimeerd, versleuteld en naar de kluis verzonden. Eenmaal in de kluis wordt de data verder ontdubbeld.

Wanneer de agent de volgende back-up uitvoert, herkent DeltaPro alle gewijzigde blokken of nieuwe bestanden. Vervolgens worden alleen die wijzigingen gecomprimeerd, versleuteld en naar de kluis verzonden. Hierdoor worden enorme hoeveelheden ruimte in de kluis bespaard en kunnen volgende back-ups veel sneller worden voltooid.

Wanneer een beheerder een bepaalde versie wil herstellen, worden alleen de blokken die voor die specifieke versie nodig zijn teruggestuurd naar de agent. Hierdoor kan de data in één handeling worden hersteld, alsof er elke keer een volledige back-up is gemaakt wanneer deze gepland stond.

Met de dataoverdracht op basis van DeltaPro wordt de grootte van elke back-up om een zo kort mogelijk tijdvenster voor back-ups aan te houden fors verkleind en hebt u tegelijkertijd minder opslag nodig. U houdt de controle over wanneer en hoeveel van uw bronnen en netwerk worden gebruikt, en u beschikt over end-to-end beveiliging die u zelf beheert.

Hoogtepunten van DeltaPro:

  • Compressie in de front-end vermindert de opslagomvang
  • Versleuteling in de front-end op basis van NIST 256-bit Advanced Encryption Standard (AES)
  • Versleuteling tijdens overdracht met SSL-/TLS-verificatie
  • Versleuteling tijdens opslag in datacenters die voldoen aan de SOC 2 Type 2-norm
  • Ontdubbeling in de back-end vermindert de opslagomvang verder
  • Bandbreedtebeperking
  • Geen directe toegang tot data van klanten: zonder het taakversleutelingswachtwoord dat door de klant is verstrekt, of zonder toegang tot het agentsysteem (beheerd door de klant), kan de back-updata niet met Carbonite worden ontsleuteld.

Bezoek voor meer informatie onze pagina over back-ups met Carbonite Server.

Door: Steven Jurczak van Carbonite + Webroot, onderdeel van OpenText