Bepalen gedrag in de 'fysieke' wereld
Het Internet of Things begint vaak bij een probleem dat je wilt oplossen. Neem een kantoorgebouw van 8 verdiepingen, vol met flexplekken. Om te voorkomen dat mensen op alle verdiepingen moeten zoeken naar een beschikbare werkplek, zou je een slimme stoel kunnen gebruiken die communiceert of deze wel of niet beschikbaar is. Je moet daarvoor om te beginnen de stoel een identiteit geven en de locatie weten. Vervolgens zou je een druksensor kunnen toevoegen om te weten of er iemand op zit.
Maar wat als je even opstaat? Of je wilt inspelen op de verwachting dat mensen een tas op de stoel zullen zetten om deze voor de hele dag te behouden.
Daartoe wordt vaak een combinatie van sensoren gebruikt, zoals een extra temperatuursensor om te weten of er levend of dood gewicht op de stoel zit, en natuurlijk enige intelligentie om de sensorwaarden te interpreteren. Het "recept" om betekenis te geven aan de gecombineerde sensorwaarden en de resulterende status vast te stellen, is wat we een algoritme noemen (intelligentie). Maar als je deze casus uitdiept, merk je dat het onmogelijk is om de stoel slim te maken met alleen sensoren. Bij het creëren van een werkend algoritme voor het wel of niet beschikbaar zijn van een werkplek zijn altijd aannames, normen en afspraken betrokken. Want heb je in je aannames niet mensen buitengesloten die in een rolstoel zitten, of staand werken? En wat is de definitie van beschikbaar (norm)? Sommige bedrijven vinden het goed dat je je werkplek 30 minuten onbeheerd achterlaat om naar het toilet te gaan of een kop koffie te pakken. Terwijl anderen je een vergadering van 3 uur laten bijwonen terwijl ze de stoel (werkplek) voor jou bezet houden. Wil je echt weten of iemand daar aan het werk is, dan moet je weten aan wie je de informatie vraagt, iemand die in het systeem kijkt (digitaal filter), of degene die aan het bureau ernaast zit.
Het voorbeeld van de gedigitaliseerde stoel laat goed zien hoe er alternatieve realiteiten ontstaan; elk object krijgt een Digital Twin. We hebben de fysieke stoel en de virtuele stoel en deze kunnen verschillen. Het bedrijf dat het systeem als filter heeft, zal zeggen dat de stoel op een bepaald moment bezet was, terwijl op hetzelfde moment de persoon die aan het bureau ernaast zit, ziet dat de stoel leeg is. Het algoritme op basis van de sensordata, aannames en normen bepaalt wat je ziet.
Dit is een heel simpel voorbeeld van alternatieve werkelijkheden die ontstaan in/over de fysieke wereld, kijk je via de digitale (systeem)bril of ben je fysiek ter plaatse. Als je dit doortrekt, dan ontstaan vanuit de algoritmen behorend bij een gedigitaliseerde omgeving cq object dus ook informatiebubbels in hoe mensen de fysieke omgeving waarnemen.
En we kijken veel vaker via de digitale bril dan we ons realiseren, denk alleen al aan het navigeren via google maps. De weergave (Digital Twin) op Google Maps bepaalt hoe wij de fysieke omgeving ervaren en daarop reageren, bijvoorbeeld door om te rijden in verband met
een file die er misschien helemaal niet is…