Welke eisen moet je aan verkeersdata stellen, wil je weggebruikers effectief kunnen informeren en sturen? Die vraag blijkt niet een-twee-drie te beantwoorden, zeker niet in regionaal verband. Reden voor het samenwerkingsverband Regionaal Verkeersmanagement Midden-Nederland om er in triple helix-verband grondig onderzoek naar te doen. In deze bijdrage vertellen de auteurs over de stand van zaken.

 
Het samenwerkingsverband Regionaal Verkeersmanagement Midden-Nederland (RVM-MN) bestaat uit de wegbeheerders Rijkswaterstaat, provincie Utrecht, gemeente Utrecht, gemeente Amersfoort en diverse kleinere gemeenten uit de regio. Al vanaf 2010 ontwikkelen en implementeren zij gezamenlijk verkeersmanagementmaatregelen om de bereikbaarheid van Midden-Nederland te optimaliseren.

Bij het concretiseren van de maatregelen loopt de regio echter nog steeds tegen lastige datavragen aan, ondanks eerdere onderzoekstrajecten. Bijvoorbeeld: zijn de verkeersgegevens die voorhanden zijn, bruikbaar voor de beoogde maatregel? Wat zijn de (kwaliteits)eisen waaraan de data moeten voldoen om het regionaal verkeersmanagement effectief te kunnen uitvoeren? Welke inwinmethode(s) zijn betrouwbaar genoeg voor de gevraagde datakwaliteit? Om die vragen eens en voor altijd te beantwoorden besloot de Programmaorganisatie RVM-MN om samen met markt en universiteit, in triple helix-verband dus, een aantal studies te starten. Allereerst heeft RVM-MN samen met TU Delft onderzocht hoe je de data-eisen voor de verschillende (regionaal ) verkeersmanagementtoepassingen gestructureerd en herleidbaar kunt bepalen. Deze kennis zal worden toegepast in een meer praktijkgericht vervolgonderzoek, de Centraal Systeem Basismeetnet-studie (CSB-studie). In een Proof of Concept ten slotte beproeft de regio regelconcepten in de (data)praktijk.

In deze bijdrage bespreken we de highlights van de studies, waarbij we met name ingaan op de bevindingen van het theoretische onderzoek. Van de CSB-studie en de Proof of Concept geven we een stand-van-zaken. Tot slot benoemen we enkele leerpunten met betrekking tot regionale samenwerking en organisatie.

Achtergrond: data-eisen opstellen

 
Willen de verkeersgegevens bruikbaar zijn voor regionaal verkeersmanagement, dan is uiteraard de datakwaliteit van belang. Met dat begrip drukken we uit hoe het is gesteld met de nauwkeurigheid, betrouwbaarheid en latency van de gegevens. Oftewel: hoe verhouden de gemeten grootheden zich tot de werkelijkheid?
Die kwaliteit is echter niet de enige ‘bruikbaarheidsfactor’. Ook de semantische kenmerken van de data – welke grootheden worden geleverd, hoe vaak worden de gegevens geleverd – bepalen hoe goed een verkeersmanagementapplicatie functioneert. Uiteraard spelen de specificaties van de applicatie hierbij een rol. Welke data in welke kwaliteit nuttig of noodzakelijk zijn, zal per applicatie verschillen.

Bij het opstellen van de data-eisen redeneren we idealiter vanuit de applicatie. Welke eisen stellen we aan de prestaties van de applicatie en hoe laat zich dat vertalen naar nauwkeurigheid, betrouwbaarheid, leverfrequentie en latency van de data? Welke grootheden, zoals intensiteit, dichtheid of reistijd, zijn nodig? Een andere vraag is onder welke verschillende omstandigheden de applicatie effectief zal functioneren. Gelden altijd dezelfde eisen of verschilt dat per situatie?

Het mag duidelijk zijn dat het opstellen van zo’n eisenpakket een gedegen kennis vereist van verkeersmanagement en de werking van de (verkeerskundige) applicaties. Zo is het belangrijk een scherp beeld te hebben van de relatie tussen eis en resultaat. Bijvoorbeeld: wat levert een 10% hogere nauwkeurigheid op? Bij wijze van voorbeeld toont figuur 1 de relatie tussen de behaalde kwaliteit bij het schatten van wachtrijen en de prestatie van de applicatie Geïsoleerde toeritdosering. De donkere lijn in de figuur laat zien hoe een grotere relatieve fout uiteindelijk leidt tot meer voertuigverliesuren. Met deze kennis kun je een maatschappelijke baat verbinden aan de datakwaliteit en aan de kosten die het behalen van deze kwaliteit met zich meebrengt.
 

Figuur 1: De relatie tussen ‘fout bij het schatten van de wachtrij’ en ‘voertuigverliesuren hoofdwegennet en stedelijke wegennet’ voor een toeritdoseerinstallatie. De figuur laat zien dat bij een hogere relatieve fout in het bepalen van de wachtrij met name de verliesuren op het stedelijke wegennet toenemen. Dit komt omdat bij een grote relatieve fout de wachtrij op de toerit regelmatig wordt onderschat. Daardoor kan terugslag ontstaan, met grote vertragingen op het stedelijke wegennet als gevolg. Omdat de TDI dan blijft doseren leidt dit tot een verbetering in de situatie op het hoofdwegennet, zoals uit de figuur blijkt. Deze verbetering weegt echter niet op tegen de verslechtering op het stedelijke wegennet.


 

Als alle data-eisen eenmaal zijn geïnventariseerd, kan er worden overlegd met de betrokken leveranciers: wat kunnen zij bieden? Na deze ‘reality check’ zal meestal blijken dat niet zonder meer aan alle eisen kan worden voldaan. Het is dan zaak te onderzoeken hoe de doelen wel bereikt kunnen worden, door de complete dataketen na te lopen op kansen. Soms is het nuttig om energie te steken in het verbeteren of uitbreiden van de metingen zelf, maar het kan ook voldoende zijn om de gebruikte algoritmes aan te passen – zie het kader ‘De ketenbenadering’.
Het is vervolgens aan verkeerskundigen om te bepalen welke extra inspanningen zinvol zijn, maar ook in hoeverre de eisen aan de kwaliteit en de semantische eigenschappen (zoals: welke grootheden te leveren) aangepast kunnen worden.

Dit iteratieve proces moet uiteindelijk leiden tot een set eisen die vanuit het perspectief van de dataleverancier haalbaar en vanuit het perspectief van de verkeerskundige zinvol is. Zie ook figuur 2.
 

Figuur 2: Het iteratieve proces om te komen tot een bruikbare set aan specificaties van te leveren data, inclusief eventuele aanpassingen van de verkeerskundige applicaties.


 

Het is overigens goed mogelijk – en vaak zelfs noodzakelijk! – dat niet alleen de eisen aan de te leveren gegevens wijzigen, maar ook de specificaties van de verkeerskundige applicatie. Zo kan de wegbeheerder er bijvoorbeeld voor kiezen om een toeritdoseeralgoritme te gebruiken op basis van snelheden in plaats van dichtheden, op het moment dat dichtheden niet betrouwbaar kunnen worden geleverd. Alleen door niet te star vast te houden aan wat ‘moet’ aan de applicatiekant en wat ‘kan’ aan de leverancierskant, kom je tot een optimale set aan eisen.

 

De ketenbenadering: Van ruwe data naar bruikbare verkeersgegevens

 
In de zoektocht naar de juiste basisgegevens voor een toepassing is het essentieel de ‘dataketen’ als geheel te beschouwen.

We nemen als voorbeeld het bepalen van wachtrijen bij een verkeersregel- of toeritdoseerinstallatie. Voor gemengde, metropole netwerken zijn de kop- en staartlocatie, de dichtheid in de wachtrij, maar ook eventuele consequenties als vertraging en blokkades, cruciale verkeerskundige grootheden. Het is echter heel lastig om deze grootheden goed te meten. Kleine fouten in tellingen kunnen al leiden tot grote fouten in schattingen van het aantal voertuigen op een wegsegment. En al zou je het aantal voertuigen op een wegsegment exact kunnen vaststellen, dan nog weet je daarmee niets over de kop- en staartlocatie van een mogelijke wachtrij. Ook de consequenties van een wachtrij in termen van vertraging of blokkades zijn niet zonder meer uit de aantallen af te leiden.

Hoe dit probleem aan te pakken? Eén insteek is om energie te steken in de kwaliteit van de schattingen. Er kan gebruik worden gemaakt van meerdere databronnen en van een intelligente combinatie van verkeerskundige relaties en data-assimilatietechnieken. De vraag is echter hoe ver je hierin moet gaan. En niet onbelangrijk: kún je wel tot een ideale wachtrijschatter komen, gezien de grote effecten van zelfs kleine telfouten? Het zou daarom verstandig zijn om óók naar de regelalgoritmiek te kijken en die waar mogelijk aan te passen. Anders gezegd: de focus moet niet op een enkele schakel worden gelegd, maar op de keten.
Bijgaande figuur geeft een schematische weergave van de bedoelde keten. De gedachte is dat de uiteindelijke kwaliteit van de verkeersgegevens wordt bepaald door zowel de kwaliteit van de onderliggende ruwe data (de basisgegevens) als de gebruikte algoritmes.

 

 

Vragen die bij deze ‘ketenbenadering’ spelen, zijn onder meer: Worden de juiste grootheden op de juiste locaties gemeten? Zijn er alternatieve grootheden en aanpakken? Weten we voldoende over de fouten in die metingen en over de invloed daarvan op de uiteindelijke verkeersgegevens? Zijn de veronderstellingen over de meetgegevens in de algoritmes valide? Zijn die algoritmes verkeerskundig en wiskundig correct? Hoe ‘robuust’ zijn de algoritmes? Zijn er contextuele factoren die de foutgevoeligheid beïnvloeden? In het voorbeeld van wachtrijen: als de wachtrijen al in de buurt van de kritische grenzen zitten, is de gevoeligheid hoog.

Hoe we deze vragen beantwoorden, zal per verkeerskundige applicatie en uiteraard ook per toepassingsgebied verschillen. Voor netwerkbreed verkeersmanagement zal één set eisen gelden, voor informatievoorziening een ander, idem voor beleidsanalyses enzovoort.

 

Ervaringen uit de praktijk: CSB-studie

 
Op basis van deze bevindingen besloot het programma RVM-MN eind 2016 een vervolgstudie te starten. Het doel is de inzichten in basisverkeersgegevens verder te verdiepen. De provincie Utrecht speelt in de vervolgstudie een coördinerende rol.

De studie richt zich op vier onderzoeksvragen:

  1. Welke verkeersgegevens zijn op welke locaties en in welke kwaliteit nodig voor de verschillende toepassingen?
  2. Kunnen we deze verkeersgegevens afleiden uit de (op dit moment) beschikbare meetgegevens en algoritmes?
  3. Wat is de nauwkeurigheid, actualiteit en betrouwbaarheid van de verkeersgegevens?
  4. Aan welke knoppen kunnen we draaien – meetlocaties, meetgegevens of algoritmes – om de nauwkeurigheid, actualiteit en betrouwbaarheid van de verkeersgegevens waar nodig te verbeteren?

Merk op dat deze vragen gelden per toepassing, zoals toegelicht in het kader over de ketenbenadering.

De eerste (tussen)resultaten van de studie zullen naar verwachting nog dit jaar worden gepresenteerd. Eén leerpunt kwam echter al snel naar boven: een systematisch onderzoek van de gehele monitoringketen is alleen mogelijk als er ook voldoende inzicht (openheid) is in de gebruikte algoritmiek. Zo gebruikt de regio een algoritme dat op basis van lusdata bij verkeersregelinstallaties een brede waaier aan verkeersgegevens schat. Maar dit algoritme was niet open – en er kon dus onmogelijk worden getoetst of fouten in de resulterende verkeersgegevens het gevolg waren van fouten in de onderliggende meetgegevens (door sensor- of communicatieproblemen) of door foutieve aannames in de algoritmes en/of fouten in de verkeerskundige/wiskundige uitwerking daarvan.

De eis van openheid ligt voor de hand, maar kan op gespannen voet staan met commerciële belangen van marktpartijen. De oplossing moet worden gezocht in het vinden van win-winconstructies, waarbij elke betrokken partij uit de triple helix gedurende het traject meerwaarde ervaart van de cyclische verbeterslagen én de ruimte krijgt om fouten te maken. De tegenprestatie is dat partijen hun keukendeuren waar nodig voldoende openzetten, in ieder geval binnen het project. Doe je dit niet dan betekent dit ook onvoldoende kwaliteit in termen van opzet en uitvoer van het onderzoek. Wegbeheerders kunnen hierin een katalyserende rol spelen.

Ervaringen uit de praktijk: Proof of Concept

 
Dan een stand van zaken van de genoemde Proof of Concept. Trekker van dit project is de gemeente Utrecht. In deze studie wordt een vorm van Gecoördineerd Netwerkbreed Verkeersmanagement (GNV) beproefd. De situatie op de weg wordt in detail gemonitord en op basis van die gegevens worden meerdere regelcomponenten aangestuurd met het doel filevorming op knooppunt Oudenrijn, parallelbaan A12 richting De Meern, te voorkomen of uit te stellen.

Voor een correcte aansturing van de regeleenheden, onder meer toeritdoseerinstallaties, zijn twee monitoringfuncties essentieel: het detecteren van ‘kiemen’ waarop geregeld moet worden (wat is de locatie waar de kop van de file kan ontstaan?) en het bepalen van de ruimte in het netwerk om het verkeer richting de kiem te doseren.

Voor het detecteren van kiemen is het belangrijk in beeld te brengen 1) wat het voertuigvolggedrag is, 2) of congestie stroomafwaarts van de kiem niet de oorzaak van de file is en 3) of de file niet te lang is om nog weg te regelen. Tijdigheid van de informatie is hierbij een belangrijke randvoorwaarde, zodat snel kan worden ingegrepen om een capaciteitsval te voorkomen.

Uit ervaring weten we dat het voorspellen van een kiem erg complex is. Daarom is er in de Proof of Concept een Kiemenspeurder gebruikt die triggert op actuele situaties. De consequentie is wel dat je altijd reagéért en dus achter de feiten aanloopt. Het is dan ook belangrijk zo snel als mogelijk in actie te komen bij eventuele kiemen en er dan ook vol in te gaan met de regelsystemen.
Die snelle detectie bleek lastig: uit een eerste evaluatie bleek dat de Kiemenspeurder twee tot drie minuten te laat reageert op een kiem, waardoor de kans dat congestie weggeregeld kan worden, afneemt. De vertraging was vooral te wijten aan de gebruikte databron: de ‘gewone’ lusdata hebben een vertraging van dik twee minuten. In de volgende fase van de Proof of Concept zal daarom gebruik worden gemaakt van de service Meetraaimanager, waarmee de latency slechts seconden bedraagt.

Uit een evaluatie van de nulsituatie is verder gebleken dat de potentie van de Kiemenspeurder groot is. Op sommige dagen regelde de toeritdoseerinstallatie (TDI) met lokale monitoring 80% van de tijd niet effectief, omdat de TDI triggerde op congestie stroomafwaarts van de kiem. Ook werd de TDI regelmatig niet ingeschakeld in situaties waarin er juist wel effectief op een kiem geregeld kon worden. Wat dat aangaat is de ruimte voor verbetering enorm.

Om effectief te kunnen doseren wordt niet alleen gebruikgemaakt van de ruimte op de toerit, maar ook van de ruimte op het stedelijke netwerk. Hierdoor kan er langer worden gedoseerd en kan de capaciteitsval ook langer worden uitgesteld. Om effectief te bufferen is het wel van belang dat meer dan 50% van het verkeer uit de buffer naar de kiem rijdt. Op dit moment zijn er nog geen inwinsystemen beschikbaar die de fracties naar de kiem goed bepalen. Vooralsnog wordt met lustellingen een inschatting van de fracties gemaakt. Mogelijk biedt floating car data hier in de toekomst een oplossing voor.

Hoe zwaar er in de VRI wordt ingegrepen om verkeer richting de kiem te doseren is afhankelijk van de functie en de vulling van de buffer. Het schatten van de actuele bufferruimte is daarom een essentiële functie van het GNV-regelconcept. De nauwkeurigheid van een op lussen gebaseerde wachtrijschatter is niet toereikend. Daarom is in de Proof of Concept voor het eerst een op radardetectie gebaseerde wachtrijschatter toegepast. Het resultaat van deze wachtrijschatter is dat er nu een redelijk gedetailleerde reconstructie van het verloop van de bufferruimte wordt gegeven. In het vervolg van de Proof zal blijken of de kwaliteit voldoende is om de actuele bufferruimte nauwkeurig te schatten.

Samenwerking en organisatie

 
Zowel het CSB-onderzoek als de Proof of Concept bevestigen dat er een andere vorm van samenwerking tussen de verschillende partijen noodzakelijk is om tot effectief verkeersmanagement te komen. Dit geldt voor de samenwerking tussen de wegbeheerders onderling, tussen de wegbeheerders (opdrachtgever) en de marktpartijen (opdrachtnemer) en tussen de verschillende marktpartijen onderling.
De wegbeheerders van de regio hebben bijvoorbeeld nu nog separate losse contracten met hun eigen leveranciers. Omdat er vooraf geen eenduidige processen zijn gedefinieerd voor het koppelen tussen de wegkant- en de centrale systemen, kost het relatief veel inspanningen om bijvoorbeeld verkeersregelinstallaties te koppelen aan topsystemen. De regio werkt er hard aan om deze processen te stroomlijnen gekoppeld aan nieuwe vormen van gezamenlijke verantwoordelijkheid. Dat laatste is nodig voor professioneel opdrachtgever- en opdrachtnemerschap.

Een ander punt is dat innovatieve onderzoeksprojecten als CSB en de Proof of Concept veel flexibiliteit van de deelnemende partijen vereist. De samenwerking, interactie en afstemming tussen de partijen is veel intensiever dan bij een regulier project.
De rol en verantwoordelijkheid van de partijen moeten daarom helder en expliciet gedefinieerd zijn. De samenwerkende partijen moeten het lef hebben om fouten te durven te maken en de wil hebben om samen ervoor te staan om de fouten op te lossen. Kortom: learning by doing.

Uiteraard moet het project zelf goed gemanaged worden. Welke afspraken zijn er gemaakt en komt iedereen die na? Projectmanagement conform de agile/scrum-aanpak kan hierbij helpen: werken in korte sprints van 4 tot 6 weken met een wekelijkse afstemming tussen alle partijen geeft inzicht in de voortgang en een betere prognose naar het eindresultaat. De frequente afstemming van agile/scrum zorgt ook voor betere kennisdeling, wat het eenvoudiger maakt elkaars problemen te begrijpen en een gezamenlijke oplossing te vinden.

 
Tot slot
Door het uitvoeren van de theoretische studie, het praktijkgerichte CSB-onderzoek en de Proof of Concept hebben we meer inzicht verkregen in welke indicatoren bepalend zijn voor gecoördineerd regelen en welke kwaliteitseisen we hieraan moeten stellen. Er is bovendien een start gemaakt met het ontwikkelen van een geïntegreerde monitoringketen, voor zowel operationeel verkeersmanagement als beleidsanalyse. Op basis van deze kennis kunnen ook de regelsystemen worden aangepast, zodat die beter aansluiten op de eigenschappen van de monitoringcomponenten.

Toch blijft er nog veel te onderzoeken over – het CSB-onderzoek en de Proof of Concept zijn nog in volle gang. Naar verwachting zal robuust en effectief verkeersmanagement in Midden-Nederland eind 2019 integraal operationeel zijn.

____

De auteurs
Erik de Boer is programmamanager bij provincie Utrecht.
Peter Jan Kleevens is Verkeersspecialist bij gemeente Utrecht.
Jaap van Kooten en Serge Hoogendoorn zijn respectievelijk directeur en strategisch adviseur van Arane.
Hans van Lint is hoogleraar Verkeersimulatie bij TU Delft.

Comments are closed.