Floating device data en wegkantdata slim combineren: Eén plus één is drie?

De verkeersinformatie die we uit smartphones en in-car systemen kunnen afleiden, zijn op zichzelf al een belangrijke aanvulling op de informatie die wegkantdetectie oplevert. Maar écht interessant wordt het als we de zogenaamde floating device data en wegkantdata fuseren. Wat komt daarbij kijken? Welke kansen biedt het? En welke stappen moeten we nog nemen om die kansen ook te verzilveren? De auteurs Steven Logghe en Serge Hoogendoorn leggen het uit.

 
Foto: Rob de Voogd
 
Data-inwinning met behulp van floating devices is een nog betrekkelijk nieuwe vorm van verkeersdetectie. Toch heeft deze methode al voor een kleine aardverschuiving in ons vakgebied gezorgd. Voor floating device data hoef je geen inductielussen in de weg te frezen, geen camera’s op te hangen of bluetooth-kastjes te plaatsen – maar het levert je wel waardevolle verkeersinformatie op over elke uithoek van het wegennet. Tel uit je winst!

Nu is het wel zo dat floating device data de wegkantdata niet zomaar kan vervangen. Met de floating devices als bron is het bijvoorbeeld niet mogelijk om intensiteiten, dichtheden en wachtrijen af te leiden – grootheden die essentieel zijn voor verkeersmanagement zoals we dat nu kennen. Maar wie denkt dat floating device data dus maar een bijrol zal spelen in verkeersmanagement, vergist zich. Door floating device data slim te combineren met wegkantdata openen zich namelijk nieuwe, hoogst interessante mogelijkheden waarbij één plus één al snel drie is.

Mogelijkheden
Datafusie is het bij elkaar brengen van data van verschillende aard of uit verschillende bronnen. De techniek luistert nauw en het is zeker geen eenvoudig proces – zie voor de basisstappen het kader onder aan dit artikel. Maar als het goed gebeurt, staat datafusie garant voor flinke kwaliteitssprongen.

De belangrijkste sprong is dat we de gaten in de ene bron kunnen dichten met data uit de andere bron. Hiermee kun je allereerst de ‘scherpte’ en ‘scherptediepte’ van het verkeersbeeld verbeteren: de dekking, nauwkeurigheid, betrouwbaarheid en tijdigheid van de verkeersinformatie gaan omhoog. Maar datafusie maakt het ook mogelijk om inhoudelijk, wat verkeerskundige grootheden betreft, tot een beter dataproduct te komen. Toegespitst op ons voorbeeld: de beperking dat we uit floating device data niet goed intensiteiten, dichtheden en wachtrijen kunnen destilleren (tenzij we bijna 100% uitgeruste voertuigen hebben), kun je opheffen door deze data met bijvoorbeeld data uit inductielussen te combineren.

Deze kwaliteitssprongen zijn een kans op zich. Wegbeheerders kunnen er echter ook voor kiezen om datafusie te gebruiken om een gelijkblijvende kwaliteit te leveren tegen minder kosten. Zo zou een slimme combinatie van (relatief goedkope) floating device data en de data van enkele (relatief dure) inductielussen dezelfde informatiekwaliteit kunnen leveren als een dicht meetlussennet, zoals nu nog nodig is.

Een andere benadering van het gebruik van data
Maar datafusie heeft meer potentie dan sec het opkrikken van de kwaliteit van onze verkeersinformatie. Als datafusie werkelijk common practice wordt in het vakgebied verkeersmanagement, dan kan dat onze hele benadering van het gebruik van data doen kantelen, waarbij we verkeersmanagement in feite een niveau hoger tillen. Hoe dat zo?

De huidige wegkantdetectie is vaak hard gekoppeld aan de verkeersmanagementtoepassing. Zo liggen de tellussen op snelwegen één op één gelinkt aan de portalen voor filestaartbeveiliging. Als je deze verkeersdetectie voor andere toepassingen wilt gebruiken, bijvoorbeeld om de verkeersintensiteit te bepalen, zorgt dit niet zelden voor problemen: locatie en verkeersgrootheden zijn dan niet optimaal voor die nieuwe toepassing. Een ander probleem van wegkantdetectie is dat er vaak te veel vanuit de techniek wordt geredeneerd, en niet vanuit de functionele eisen. Simpel gesteld: ‘met dit type sensor kunnen we deze data genereren en daar moet de verkeersmanager het maar mee doen.’

Als we echter met behulp van datafusie meerdere databronnen combineren, komen we als het ware los van een specifieke technologie. Het zal dan ook gemakkelijker zijn om vanuit het probleem te redeneren. Je neemt de verkeersmanagementmaatregel die nodig is als vertrekpunt en bepaalt op basis van de gewenste functionaliteit heel specifiek de ‘databehoefte’. Vragen die daarbij een rol spelen zijn: Welke verkeersgrootheden hebben we nodig? Welke betrouwbaarheid is vereist? Hoe nauwkeurig moeten ze zijn in tijd en in ruimtelijke schaal? Enzovoort. Na het beantwoorden van alle vragen, kun je met als basis de beschikbare floating device data, de al geïnstalleerde wegkantmeetpunten én de mogelijkheden van datafusie bepalen waar – voor zover nodig – extra wegkantmeetpunten nodig zijn.

Het vaststellen van die databehoefte en de bijbehorende datakwaliteitseisen is overigens geen sinecure. Neem als voorbeeld het concept van gecoördineerd netwerkbreed verkeersmanagement zoals dat is gebruikt voor de gecoördineerde toeritdosering in de Praktijkproef Amsterdam. Hier geldt dat we in de buurt van de kiem buitengewoon snel en nauwkeurig moeten kunnen ingrijpen: we hebben geen seconde te verliezen! De ondersteuning vanuit de buffers is echter minder tijdkritisch en dus zullen de eisen ten aanzien van de leveringsfrequentie daar lager zijn.

Een ander voorbeeld is reis- en routeinformatie, waarin reistijd veelal de basisgrootheid is. Actuele reistijden vereisen een vorm van voorspellen. Dit kan op een naïeve manier, door gerealiseerde reistijden simpelweg te extrapoleren of door uit te gaan van historische gegevens. Zo’n aanpak vereist dat we op een of andere manier de gerealiseerde reistijd uit de beschikbare (gecombineerde) gegevens moeten bepalen. Omdat reistijd over een traject wordt bepaald, zijn de precieze locaties van de wachtrij of congestie van minder belang en middelen kleine foutjes dikwijls uit. Met de kwaliteitseisen die we dan aan de data stellen, loopt het dus wel los. Voorspellen kan echter ook door gebruik te maken van modellen. In theorie geeft dit betere resultaten, zeker in het geval van afwijkende verkeerssituaties. Maar naast de uitdaging om accurate modellen te ontwikkelen – een opgave die vooralsnog niet is volbracht – zijn de eisen die dergelijke modelgebaseerde voorspellingen aan de data stellen hoog. Ten eerste omdat deze modellen uitgaan van een nauwkeurige bepaling van de huidige verkeerstoestand, meestal beschreven in termen van dichtheid (of wachtrijen) en snelheid op alle wegvakken. Ten tweede omdat nauwkeurige informatie nodig is over de (toekomstige) verkeersvraag. Ten derde omdat, met name als we wat verder vooruit moeten voorspellen (nota bene: we moeten ten minste de reistijd vooruit kunnen voorspellen!), we ook informatie nodig hebben over de routekeuze en de hieruit te bepalen turnfracties.

Samenvattend: de eisen aan de kwaliteit van informatie hangen nadrukkelijk af van de toepassing en de wijze waarop we die toepassing willen invullen. In algemenere zin betekent dit dat de effectiviteit van een maatregel of toepassing (toeritdosering, reis- en routeinformatie, gecoördineerde netwerkregelingen enzovoort) bepaald wordt door de kwaliteit van de data die de toepassing gebruikt. Als de inventarisatie van de databehoefte goed is uitgevoerd én de benodigde kwaliteit met behulp van datafusie daadwerkelijk geleverd wordt, zal dit ons verkeersmanagement wel een niveau hoger brengen.

Overigens zou het ook goed zijn om kritisch te blijven kijken naar de algoritmiek binnen onze toepassingen: kunnen die niet beter op het gebruik van floating device data en datafusie worden ingericht? Een toeritdoseeralgoritme maakt nu bijvoorbeeld gebruik van intensiteiten en snelheden en vereist dus (een fusie met) wegkantdata. Maar er zijn inmiddels ook algoritmes ontwikkeld die in theorie met alleen snelheden kunnen functioneren (V-ALINEA).

Wat is ervoor nodig?
Maar genoeg over hoe het zal zijn als datafusie de standaard is. De belangrijke vraag van dit moment is, wat ervoor nodig is om ook daadwerkelijk op dat punt te komen. Eén voorwaarde is wat we zojuist hebben besproken, namelijk een scherp beeld krijgen van de databehoefte en datakwaliteitseisen. Uiteindelijk zal voor elke weg in een volledig gebied duidelijk moeten zijn welke verkeersgrootheden nodig zijn, inclusief kwaliteitseisen. Op basis daarvan kan dan worden bepaald hoe en waar data moet worden ingewonnen en hoe datafusiealgoritmes moeten worden ingeregeld om aan de nodige eisen te voldoen.

Ten minste zo belangrijk is echter dat er een goed businessmodel komt voor het inwinnen en vooral fuseren van data. De hamvraag is of de wegbeheerder de technologie datafusie inkoopt, of de dienst datafusie (de gefuseerde data). Bij wegkantdetectie is het verschil tussen deze twee modellen eerder gering. De kosten van wegkantdetectoren worden 100% doorberekend aan de wegbeheerder, dus per saldo maakt het weinig uit of je de technologie in eigen huis hebt of de dienst inkoopt. Maar wanneer ook floating device data worden meegenomen, zijn er potentiële schaalvoordelen. De floating device data kunnen immers ook voor andere doelen worden gebruikt, waarbij de verschillende afnemers de kosten delen. Dienstenmodellen zijn in dat geval logischer. Het is dan wel belangrijk hoe er met de data wordt omgegaan. Als wegbeheerders de data niet alleen voor eigen verkeersmanagementdiensten gebruiken, maar meteen ook als open data beschikbaar stellen, dan vervalt misschien de business case voor private partijen en wordt de doorberekening van de datakosten navenant hoger.

Uitgaande van de kwaliteitseisen en het businessmodel zal ook duidelijk worden welke systeemarchitectuur wenselijk is. Op dit moment lijkt het bij hoogfrequente data beter om met gedistribueerde architecturen te werken. Datafusie kan dan ‘op locatie’ gebeuren, zoals nu ook bij verkeersregelinstallaties. Nadeel is wel dat onderhoud en kosten hierdoor groter zullen worden. Bij andere toepassingen volstaan centrale architecturen. Deze zijn makkelijker te onderhouden, er kunnen meer databronnen aan toegevoegd worden en de kosten zullen lager uitvallen.

Tot slot
Al met al lijken de kansen voor datafusie erg groot. Met de beschikbaarheid van floating device data en het beschikbaar komen van nieuwe fusietechnieken speciaal gericht op verkeersdata lijkt the sky the limit. Verschillende vraagstukken zijn echter nog onbeantwoord. Hoe goed is de kwaliteit van de verschillende (nieuwe) bronnen? Hoe goed krijgen we de informatie door de bronnen slim te combineren? Maar ook: welke kwaliteit hebben we überhaupt nodig? Tot slot is het goed om ook nog eens na te denken over onze huidige regelaanpakken. Zouden we met ander algoritmiek die gebruik maakt van andersoortige data dezelfde effecten kunnen bereiken?

Samengevat: een tweede aardverschuiving in onze wereld van data-inwinning lijkt aanstaande, maar voor dataspecialisten en verkeerskundigen is er nog voldoende werk te verzetten voor één plus één echt drie is.

____

De auteurs
Dr. Steven Logghe is directeur Verkeersmanagement van Be-Mobile.
Prof. dr. ir. Serge Hoogendoorn is hoogleraar Verkeersmanagement aan de TU Delft en strategisch adviseur bij Arane.


Datafusie in vier stappen

 
Datafusie is het bij elkaar brengen van data van verschillende aard of uit verschillende bronnen. Dat kan op verschillende ‘niveaus’ – zie bijgaande tabel. In het vakgebied verkeersmanagement hebben we het vooral over de datafusie van niveau 1. Dit wil zeggen dat we de verkeerstoestand proberen te bepalen door (ruwe) data zo verstandig mogelijk te combineren. Het basisproces van deze vorm van datafusie bestaat uit vier stappen:

Stap 1: Meten
Met behulp van verschillende detectiesystemen meten we (verschillende) verkeersvariabelen. Elke meetmethode levert zijn eigen grootheden op met bijbehorende kwaliteits- en leveringseisen.
De ‘output’ van deze stap zijn verschillende sets aan ruwe data, elk uit een aparte bron (data uit lussen, bluetooth-data, floating device data etc.).
Stap 2: Consistent maken van data
De volgende stap is ervoor zorgen dat de verschillende soorten ruwe data die we hebben gemeten, consistent worden gemaakt. Meestal betekent dit dat we de data koppelen aan plaats en tijd. Vooral het consistent maken van plaats is een lastig proces: zowel puntmetingen als trajectmetingen moeten op eenduidige wijze aan het wegennetwerk worden gekoppeld.
Stap 2 heeft als output gefilterde data die consistent binnen een raamwerk zijn ingepast.
Stap 3: Fuseren
In deze stap fuseren of integreren we de gemeten verkeersgrootheden tot een verkeerskundige beschrijving van de verkeerstoestand. Hiertoe hebben we verschillende rekenmethoden of algoritmes tot onze beschikking. Sommige methodes hebben relatief veel parameters en zijn zeer gevoelig (zoals Kalman-filters), terwijl andere weinig tuning behoeven en ook robuuster lijken (adaptive smoothing method). De output van stap 3 is een beschrijving van de verkeerstoestand in verkeerskundige termen als intensiteit of dichtheid.
Overigens is de kwaliteit van de uiteindelijke informatie sterk afhankelijk van de gebruikte methode. Standaard statistische technieken zoals interpolatie volstaan meestal niet: het algoritme moet de kenmerken van de dynamica van verkeersstromen respecteren en gebruiken.
Stap 4: Verrijken
Met datafusie is het ook mogelijk om afgeleide verkeersparameters te bepalen. Dat kan gaan om indicatoren, zoals verplaatsingskosten, geluidsindicatoren en emissie. Maar denk ook aan afgeleide verkeerstoestanden: verliesuren, voorspellingen enzovoort.

Om deze stappen goed te kunnen doorlopen, is het wel zaak om voldoende meetdata te hebben. ‘IJle data’ leidt tot gemodelleerde verkeerstoestanden met meer onzekerheden en grotere meetfouten.


Tabel Datafusie