Redactie - 06 mei 2015

7 tips voor de juiste IT management software

Het selecteren van de juiste IT management software is niet zo eenvoudig. In de razendsnel veranderende wereld is het, mede door commodity hardware en virtualisatie, lastiger dan ooit geworden om hier de juiste keuzes in te maken. Er zijn zoveel mogelijkheden, ze lijken allemaal ongeveer hetzelfde te doen en zijn allemaal fantastisch … toch? Ik heb hieronder daarom een zevental richtlijnen uitgewerkt die je in dergelijke trajecten kunt gebruiken. Ik hoop dat je er wat aan hebt!

1. Start opnieuw
Blijf niet te lang doorgaan met de tools die je ooit hebt aangeschaft. Partijen zoals bijvoorbeeld Facebook en Google kunnen veel sneller en efficiënter innoveren, mede doordat ze geen legacy hoeven mee te zeulen. Gebruik moderne tooling voor moderne uitdagingen en ga er niet standaard van uit dat je bestaande leveranciers ook nu de beste oplossingen kunnen bieden.

Challenge the dinosaurs :-)

2. Kies freemium, een eigen installatie en test in productie
In het IT management software vakgebied is een aantal trends zichtbaar:

  • De software moet gratis te testen zijn voordat deze aangeschaft wordt. Dit mag ook de software met een wat gelimiteerde functionaliteit zijn. Ook hiermee kun je namelijk een prima indruk krijgen van het product.
  • Het product moet ook zonder hulp te installeren zijn. Dit is de beste maatstaf om te kunnen bepalen of de software eenvoudig in beheer en gebruik is én zegt heel veel over de te verwachten total cost of ownership en de return on investment.
  • Zorg dat je test in productie voordat je koopt. Dit is denk ik de belangrijkste tip. Hiermee voorkom je namelijk dat er tools worden aangeschaft die in de acceptatie-omgeving goed werken, maar in de productie-omgeving plotseling veel overhead blijken te veroorzaken. Scheelt een hoop frustratie en geld!

Houd rekening met virtualisatie
Virtualisatie is een niet te stoppen trend waar je IT Management software mee om moet kunnen gaan.

Veel legacy producten zijn onvoldoende in staat om de juiste counters uit te lezen of kunnen überhaupt niet omgaan met omgevingen die op basis van gebruik naar boven of beneden bijgeschaald worden. Iets om dus goed rekening mee te houden!

Meet performance o.b.v. latency of response time
Performance, uitgedrukt in latency of response time, is momenteel een van de belangrijkste KPI’s. Deze dient gemeten te worden vanaf de eindgebruiker tot in de backend.

Performance werd voorheen gemeten in resource gebruik (CPU bijvoorbeeld), maar dit is achterhaald. In de moderne gevitualiseerde omgeving is dit moeilijk te meten, wat vaak leidt tot foute cijfers. En wat zegt het over de door de eindgebruiker ervaren dienstverlening? Niets toch?

Zorg voor 100% dekking
De vaak gehanteerde 80/20 regel is hierop niet van toepassing. De te kiezen software moet het volledige applicatielandschap omvatten. Zowel verticaal als horizontaal is het van belang om elk aspect van de keten in kaart te hebben.

Overigens bedoel ik hiermee niet dat je altijd alles moet meten, maar wel dat je op de momenten dat het nodig is, direct over de juiste informatie kunt beschikken.

Data moet real-time, voorspelbaar en compleet zijn
Laat ik beginnen om te melden dat data uit het merendeel van legacy tools ook real-time en volledig zijn. Voorspelbaar zijn ze echter nog zeker niet allemaal.

  • Real-time: In het geval van incidenten wil je direct over de juiste data beschikken. Een paar uur is niet meer acceptabel met het oog op de snelheid van de (social) media en de mogelijke impact daarvan op het imago van de organisatie.
  • Volledig: Als extra handelingen nodig zijn om bij incidenten alle informatie bij elkaar te krijgen, kost dit tijd die je niet hebt en die feitelijk onnodig is. Integraties tussen tooling en correlatie uit meerdere bronnen is daarbij cruciaal om snel de juiste beslissingen te kunnen nemen.
  • Voorspelbaar: Wellicht is dit wel de meest interessante. Veel tooling werkt met rules om goed om te kunnen gaan met incidenten of signalen die daar op duiden. Dit kost veel tijd om in te richten en vaak wordt er niet de juiste aandacht aan besteed om ze actueel te houden. Resultaat hiervan is dat er gezocht blijft worden op oude zaken en er niet gereageerd wordt op nieuwe afwijkingen. Het is daarom van belang gebruik te maken van tooling die flexibel en zelflerend is (dus bij voorkeur niet gebaseerd op rules) om adequaat te kunnen inspelen op de razendsnelle ontwikkelingen op IT-gebied en om ons heen.

Data moet deelbaar zijn op een externe data opslag
Tooling die machine, agent, wire, agent of synthetische data verzamelt moet zelf als generieke data opslag kunnen fungeren. Of hij moet de data 1-op-1 kunnen doorzetten naar een externe dataopslag.

Dit is van belang om een correlatie uit te voeren over alle databronnen. Daarnaast zorg je er zo voor dat de ruwe data beschikbaar blijft en voorkom je dat de data ongemerkt gemanipuleerd wordt.

Ik hoop dat dit je helpt in je tooling selectie. Mocht je vragen of feedback hebben, dan hoor ik dat graag!

Auteur: Coen Meerbeek, Performance Consultant bij SMT

Copaco | BW 25 maart tm 31 maart 2024 Trend Micro BW BN week 10-11-13-14-2024
Copaco | BW 25 maart tm 31 maart 2024