Column: Gaat de ontwikkeling van verkeersmodellen de goede kant op?

Mark van Raay (4Cast)

Mark van Raaij
Partner van 4Cast

 
In het Verkeersmodellen-themanummer van NM Magazine werd een groot aantal mooie innovaties in ons vakgebied besproken. Toch miste ik, als verkeerskundige die veel met modellen werkt, een beschouwing van de recente ontwikkeling van de meer ‘mainstream’ rekensystemen. En van de wijze waarop die in de praktijk van alledag worden toegepast.

Laten we ons in deze column beperken tot de statische verkeersmodellen, die primair gebruikt worden voor de effectbepaling op de middellange en lange termijn. Voor die groep constateer ik een trend van een steeds hoger detailniveau in combinatie met een steeds groter modelleringsgebied. Het gaat dan bijvoorbeeld om de implementatie van nagenoeg volledige wegennetwerken en bijbehorende verfijnde gebiedsindelingen.
Bij de bouw van zulk uitgebreide systemen wordt vaak gesteld dat een verfijnde modelinvoer automatisch resulteert in een betere modellering van de vervoersvraag. Ook zou het verhoogde detailniveau het systeem beter geschikt maken om vragen over luchtkwaliteit en geluidsniveaus te beantwoorden.

Maar is dat zo? De praktijk leert dat deze gedetailleerd ingerichte modelsystemen substantiële rekentijden kennen, oplopend van enkele dagen tot soms meer dan een week. Bij licentiegebonden softwarepakketten is het daarom nauwelijks nog mogelijk om sequentiële modelberekeningen uit te voeren. Dat is wat je noemt een tegenstrijdige ontwikkeling, omdat binnen ons vakgebied regelmatig databasegeoriënteerde softwarepakketten worden ingezet waarbij het sequentieel draaien van scenario’s juist een systeemprincipe is.

Een ander probleem van de grote detaillering is dat die steeds hogere eisen stelt aan de opslag. Per modeltoepassing gaat het om vele honderden gigabytes aan data! Dit bemoeilijkt het beheer van de systemen en een eventuele migratie.

Dan de modeluitkomsten zelf. Bij de beoordeling van de modeluitkomsten is de vraag op welk detailniveau de uitkomsten van deze verfijnde modelsystemen nog betrouwbaar zijn. Hebben we wel voldoende empirische data beschikbaar om de modelsystemen op dit schaalniveau te valideren? En overstijgt het modelleringsniveau niet het significantieniveau van de computerrekentechniek? Een fijne zonering leidt immers tot kleine producties die verdeeld worden over een groot aantal bestemmingen. Representeert dit nog een gemiddeld gedrag van een grote groep? Een fijne zonering vraagt een andere modelbenadering waarbij zeer kleine aantallen op relatiebasis worden voorkomen.

En juist omdat de rekentijden zo lang zijn, worden er in de praktijk steeds vaker concessies gedaan aan de toetsing van de modelresultaten. Denk dan aan het weglaten van gevoeligheidsanalyses, bedoeld om de plausibiliteit van de modelberekeningen vast te stellen. Een gevaarlijke manier om tijd te winnen: deze controles zijn echt essentieel om de plausibiliteit te toetsen.

Verder constateer ik dat er steeds vaker gekozen wordt voor een vereenvoudigde modelbenadering waarbij niet alle facetten van de vervoersvraagontwikkeling worden meegenomen. De ontwikkeling en de toename van het gebruik van de ‘QuickScan’-modelsystemen bevestigt de behoefte aan kortere doorlooptijden. Maar hoe zit het eigenlijk met het toepassingskader en de validatie van dit soort systemen?

Misschien is het dus wel tijd om de ontwikkeling van verkeersmodellen – in ieder geval de statische – een beetje bij te sturen. Het gaat om de modellering van een complexe samenhang van een groot aantal variabelen. We dienen ons daarom bewust te zijn van het toepassingskader van de modeluitkomsten. Een toetsing van de plausibiliteit en robuustheid van de berekeningen maakt hier altijd onderdeel van uit.

Vanuit dát gedachtegoed moeten we onze rekenmodellen blijven inrichten. We moeten terug naar de basis, met de rekentechniek en het gebruikersgemak als belangrijkste uitgangspunten.