CTO-voorspellingen 2018: vijf manieren waarop data zich zal ontwikkelen

CTO-voorspellingen 2018: vijf manieren waarop data zich zal ontwikkelen

Vorig artikel Volgend artikel

Digitale transformatie is – als het goed gaat – de focus voor de IT-strategie van elk bedrijf. En data is het middelpunt van deze transformatie. Data is steeds meer gedistribueerd, dynamisch en divers, waardoor onder meer IT-infrastructuren en applicatiearchitecturen moeten veranderen om aan te sluiten op de nieuwe realiteit binnen een hybride-cloudomgeving. Op basis van deze context doen wij vijf CTO-voorspellingen voor 2018.

1. Data wordt zelfbewust

Op dit moment bestaan er processen die uitgaan van data en bepalen hoe data wordt verplaatst, beheerd en beschermd. Maar wat als de data dit zelf regelt?

Op het moment dat data nóg zelfbewuster en diverser wordt, zorgt de metadata ervoor dat de data zichzelf proactief kan verplaatsen, categoriseren, analyseren en beschermen. De stroom tussen data, applicaties en storage-elementen wordt realtime in kaart gebracht terwijl de data de gebruiker voorziet van de juiste informatie op het juiste moment. De data wordt daarnaast autonoom en bepaalt zelf wie er toegang krijgt en de data mag delen en gebruiken, wat grotere gevolgen met zich mee kan brengen voor externe bescherming, privacy, beheer en soevereiniteit van data.

2. Virtuele machines als ‘carpoolservice’

Het wordt makkelijker, sneller en goedkoper om een toenemende hoeveelheid gedistribueerde data te beheren met behulp van virtual machines (VM’s) die draaien op een webinfrastructuur, dan met behulp van echte machines.

Een cloud-VM die verschillende workloads ondersteunt, is als het ware te leasen: gebruikers krijgen toegang tot de VM zonder die te hoeven aanschaffen of de details ervan te kennen. Aan het eind van de ‘leaseperiode’ wordt de VM opgeheven. VM’s die draaien op een webinfrastructuur, zijn de carpoolservice van computing, waarbij de gebruiker eenvoudigweg de taak specificeert, die moet worden volbracht. De cloudleverancier is verantwoordelijk voor de rest, waarmee VM’s voor bepaalde workloads makkelijker in het gebruik zijn dan traditionele modellen.

3. Data groeit sneller dan dat je het kunt verplaatsen

Dat data zeer dynamisch is en in hoog tempo wordt gegenereerd, is geen geheim. Dit gebeurt in de toekomst zelfs zo snel, dat in plaats van de data te verplaatsen, de applicaties en resources voor de verwerking ervan naar de data worden gehaald. Dit is van invloed op nieuwe architecturen als edge, core en cloud. In de toekomst is de hoeveelheid data die in de core wordt verwerkt, altijd minder groot dan wat aan de egde wordt gegenereerd. Dit gebeurt echter niet per ongeluk, maar heel bewust, want er moet wel voor worden gezorgd dat de juiste data wordt bewaard voor latere besluitvorming.

4. Van ‘big data’ naar ‘huge data’

De vraag naar analyse van grote datasets stijgt in rap tempo, dus moet de data zich dicht bij de bron bevinden. Persistent memory biedt ultra-low latency computing zonder dataverlies; deze latency-eisen dwingen softwarearchitecturen nieuwe, datagedreven mogelijkheden te creëren voor bedrijven.

De drijfveer hierachter is de evolutie van de rol van IT binnen de organisatie. Eerder bestond die rol uit het automatiseren en optimaliseren van processen als bestellen en factureren. Tegenwoordig verrijkt IT klantrelaties met always-on diensten, mobiele apps en rijke webervaringen. De volgende stap is het creëren van nieuwe businessmogelijkheden met behulp van de data die via verschillende sensoren en apparaten wordt verzameld. Deze stap vraagt om nieuwe applicatiearchitecturen ondersteund door technologieën als persistent memory.

5. De opkomst van gedecentraliseerde, onveranderbare mechanismen voor databeheer

In 2018 zullen mechanismen worden geïntroduceerd voor betrouwbaar, onveranderbaar en gedistribueerd databeheer. Deze mechanismen, zoals blockchain, zullen van grote invloed zijn op het datacenter, omdat ze de traditionele wijze van databescherming en -beheer op de proef stellen.

Huidige datacenters en applicaties zijn te vergelijken met commercieel beheerde boerderijen, met een centraal controlepunt (de boer) dat alles beheert. De nieuwe mechanismen voor databeheer bieden microdiensten die de data kunnen gebruiken om de benodigde functies uit te voeren. Deze twee componenten werken samen en zonder een overkoepelend, centraal beheerd controlepunt. Ook is het niet mogelijk om informatie die op blockchain staat, te veranderen of te verwijderen, en zijn alle transacties onomkeerbaar.

Deze blogpost is geschreven door Mark Bregman, CTO bij NetApp.

[Afbeelding © Dreaming Andy - Adobe Stock]

Meer content

Reageren is uitgeschakeld omdat er geen cookies opgeslagen worden.

Cookies toestaan Meer informatie over cookies