Redactie - 11 oktober 2017

De stap van IoT naar IQT

De stap van IoT naar IQT image

Elk levend organisme heeft een zenuwstelsel. Het speelt de coördinerende rol bij alle handelingen, zoals het aansturen van spieren, verwerking van zintuigelijke prikkels en bij hogere diersoorten de emotionele en cognitieve processen. Het bestaat uit een centraal zenuwstelsel en een perifeer zenuwstelsel, waarvan het autonoom zenuwstelsel weer een onderdeel is.

Zenuwcellen zijn de bouwstenen en bestaan uit drie typen: sensorische, motorische en schakelcellen. De eerste zorgt voor de sensorische waarneming, de tweede sturen de motoriek aan en schakelcellen zorgen voor de logische verwerking van alle signalen en alle impulsen die het centraal zenuwstelsel voortbrengt.

De natuur nabouwen

De logica van ons eigen zenuwstelsel herkennen we ook in de dode wereld, waar we met sensoren, elektronica en mechanisatie een soortgelijk systeem bouwen dat de wereld om ons heen langzaam automatiseert. Centrale computersystemen worden steeds slimmer waardoor we nu echt over kunstmatige intelligentie kunnen spreken. We proberen met Big Data, analytics en ontwikkelde algoritmes ons centrale brein na te bouwen. Hierdoor kunnen we vooraf bedachte acties benoemen en uitvoeren.

Naast ons denkvermogen waarmee we gerichte activiteiten uitvoeren, bezitten we daarnaast een autonoom zenuwstelsel. Dat regelt de besturing van onbewuste processen zoals hartslag en spijsvertering. Voor ons is dat interne proces volledig geautomatiseerd en weten we pas dat het er is, als het niet lekker loopt en we misselijk worden of buikpijn hebben. Maar ook reflexen zijn onderdeel van dat autonome proces. Denk aan het wegtrekken van je vingers als je een heet voorwerp aanraakt. Deze reflexen zorgen ook voor een leerproces: je weet na een eerste vervelende ervaring dat je een brandnetel beter niet kunt vastpakken.

Verschillenden leerprocessen

Deze twee verschillende leerprocessen – cognitief en autonoom – kun je vergelijken met wat we in de digitale wereld ‘deep learning’ en ‘machine learning’ noemen. Deep learning doen we op een centrale plaats, op basis van big data opgeslagen in datalakes, allerlei soorten analytics en met de hieruit verkregen inzichten proberen we dat in slimme algoritmes na te bootsen. Dit kan in de vorm van applicaties, mobiele apps of zelfs in minimale microservices die zelfstandig door netwerken hun weg weten te vinden. Hierdoor kunnen we steeds beter vooraf herkennen wat zou kunnen plaatsvinden en hierop onze vooraf bedachte en gerichte acties afstemmen.

Machine learning doen we niet centraal maar op basis van impulsen aan de rand van de infrastructuur. Denk aan de reflexen in ons lichaam als we reageren op warmte, kou of pijnprikkels. Machine learning moet snel zijn, je kunt niet als je een pijnprikkel voelt eerst afwachten wat het centrale brein daarvan vindt, voordat je je hand terugtrekt. Dat is in onze digitale wereld net zo: ter plekke moet worden besloten wat te doen. Een signaal moet ter plekke worden verwerkt en in een directe lokale actie worden vertaald.

Big data versus fast data

Dit verschil in big data en fast data uit zich ook in hoe we op dit moment de ontwikkeling van de cloud zien. Centraal verzamelen we enorm veel data; in zulke hoeveelheden dat die bijna niet meer verplaatsbaar zijn. Natuurlijk kunnen we hierdoor centraal meer ‘intelligentie’ opbouwen, maar we onderkennen ook dat heel veel lokale intelligente handelingen beter lokaal kunnen worden afgehandeld. En helemaal niet naar centrale clouds hoeven te worden gebracht. Het is de discussie over de ‘verschuivende’ edge: wat is de rand van ons digitale gebied waar we dataprocessing moeten kunnen uitvoeren?

Net zoals ons eigen lichaam wordt in onze digitale wereld veel informatieverwerking lokaal afgehandeld. Met de komst van het Internet of Things en de termen Fog-computing en Mist-computing, zie mijn eerdere blog hierover, breiden we ons centrale digitale brein uit met een uitgebreid lokaal en decentraal zenuwstelsel. Tot in de haarvaten van onze fysieke wereld brengen we sensoren, actuatoren en displays aan, die lokale dataopslag, dataverwerking, eigen intelligentie en connectiviteit vragen.

Realtime in plaats van administreren

In plaats vanuit verwachtingen en administraties te denken wat ergens gebeurt, kunnen we nu ‘weten’ wat ergens gebeurt. Dit kan ook consequenties hebben voor veel van onze administratiesystemen. Met ERP berekenen en simuleren we welke voorraad we ‘ergens’ in een magazijn hebben liggen. Als we dat ‘gewoon’ realtime kunnen weten, kunnen we direct acteren. Als we weten dat een onderdeel nu op 15 minuten rijden van de fabriek is, kunnen we de productie realtime plannen, zonder eerst te wachten tot het onderdeel is ingecheckt. Zoals het oude spreekwoord al zegt: meten is weten, gissen is missen en gokken is dokken.

De digitalisering van de haarvaten van onze fysieke wereld brengt de realtime maatschappij en realtime economie dichterbij. Als retailers op elk moment weten welke producten (nog) in het schap liggen, kan de logistiek verder automatiseren. Als groentetelers op elk moment weten wat de status van gewasgroei en omringende logistiek is, valt er veel voedsel, afval en energie te besparen. Als fabriekseigenaren elk moment weten wat de actuele status van in productie zijnde machines is, kan gerichter en goedkoper onderhoud mogelijk worden.

OEM

Dell Technologies is al tientallen jaren producent van lokale dataprocessing-producten. Veel daarvan zien eindgebruikers helemaal niet, die worden door derden onzichtbaar in hun eigen producten ingebouwd. We zijn immers ook een grote OEM, een Original Equipment Manufacturer, die producten levert ten behoeve van merkleveranciers. Zij bouwen het in hun producten alsof het een eigen fabricaat is. Hierdoor zijn we al decennia een onzichtbare marktleider op het gebied van IoT. Echter door de groeiende decentrale behoefte van het cloud operations-model, open source-toepassingen, de agile dev/ops-functies en infrastructuur en software as-a-service-diensten, kan er opeens veel meer toegevoegde waarde voor klanten worden gecreëerd.

IQT

We hebben alle kennis en ingrediënten in huis dit te ontwikkelen naar wat we IQT noemen: ‘the IQ of Things’. IQT is de combinatie van IoT en de praktische toepassing van Artificial Intelligence. De creatie van serieuze machine learning-capabiliteit aan de randen van de digitale infrastructuur. Dit zijn vaak mensonvriendelijke omgevingen waar hitte, druk, trillingen en vuil zware eisen stellen aan de daar geplaatste apparatuur.

Juist daar waar we als mens niet kunnen komen, willen we de juiste waarneming, intelligentie en actuatoren plaatsen. En vandaar alleen de relevante informatie naar de centrale systemen te brengen.

Daarom is een aparte divisie gevormd om alle ingrediënten die we binnen Dell Technologies hebben, van hardware tot virtualisatie, van software tot datalakes en van analytics tot compliance, voor de IoT-wereld in de decentrale industriële cloud samen te brengen. Een mooi initiatief want er valt op dat gebied nog heel veel te doen. Want deze gefedereerde en gedistribueerde cloud is vele malen groter dan alle centrale clouds bij elkaar.

Door: Hans Timmerman (foto), CTO Dell EMC Nederland