OpenTraffic – Naar een gemeenschappelijke verkeersmodellenomgeving

Het aantal toepassingen van simulatiemodellen in ons vakgebied is groot. Of het nu gaat om het programmeren van een verkeersregeling, het (her)inrichten van infrastructuur of om het inschatten van de effecten van netwerkmanagement – we leunen steeds zwaar op de berekeningen van de modellen. Maar de (terechte) vraag die je jezelf hierbij kunt stellen, is: hoe valide zijn die berekeningen eigenlijk? Duidelijk is dat de modellen voor de meeste gebruikers een ‘black box’ zijn: het is onduidelijk wat er onder de motorkap gebeurt. Met een nieuwe, open en gemeenschappelijke aanpak zouden we de validiteit van ons modelleninstrumentarium nu en in de toekomst kunnen garanderen, betogen de auteurs in deze bijdrage. Zij introduceren OpenTraffic.

Simulatiemodellen voor verkeer- en vervoertoepassingen zijn in feite software-implementaties van wetenschappelijke theorieën en wiskundige modellen voor menselijk reis- en rijgedrag, zie figuur 1. Die vertaalslag van theorie naar software is echter geen rechttoe rechtaan invuloefening, maar een iteratief proces waarin wetenschap en praktijk nauw (zouden) moeten samenwerken en communiceren.
Aan de basis van elk simulatiemodel staat een set van theorieën over hoe mensen zich in het verkeer gedragen. Een voorbeeld van zo’n theorie is de stimulus-response theorie voor volggedrag. Automobilisten zouden volgens die theorie hun volgafstand en snelheid aanpassen op basis van een gelimiteerde set stimuli: huidig snelheidsverschil met en afstand tot voorligger, de huidige snelheid, omstandigheden als licht en weer etc. Een andere theorie is die van nut-maximalisatie waarin reizigers rationele keuzes maken tussen verschillende routes of andere reisopties. Ook voor het wisselen van rijstrook, het reageren op informatie of het plannen van gehele tripketens bestaan verschillende theorieën.

Van theorie naar simulatiemodel
Figuur 1: Van theorie naar een simulatie model: een iteratief proces waarin wetenschap en praktijk nauw met elkaar (zouden) moeten samenwerken


Om met deze theorieën aan de slag te kunnen gaan, moeten ze eerst worden uitgewerkt in wiskundige modellen. Denk dan aan differentiaalvergelijkingen voor volggedrag of aan discrete-keuzemodellen voor routekeuze. Het is belangrijk op te merken dat één theorie kan worden vertaald in meerdere wiskundige modellen. Bij het mathematisch modelleren moeten we immers tal van keuzes maken die niet door de gedragstheorie worden voorgeschreven. De kinematische golftheorie, die verklaart hoe verstoringen als een plotselinge rembeweging propageren in een verkeersstroom, kan bijvoorbeeld in twee coördinatenstelsels worden uitgewerkt: vast of met de verkeersstroom meebewegend. Dat leidt tot twee verschillende wiskundige modellen die exact dezelfde theorie implementeren, maar heel verschillende eigenschappen hebben.
Een tweede punt is dat een wiskundig model niet noodzakelijk ‘net zo valide is’ als de onderliggende theorie, in ieder geval niet onder alle omstandigheden. Dat hangt af van de kwaliteit van de vertaalslag en de aannames die daarin worden gemaakt.

Keuzes bij het implementeren van simulatieprogramma's
Figuur 2: Voorbeeld van de vele keuzes die worden gemaakt bij het implementeren van een simulatie programma (klik op de afbeelding voor een vergrote weergave).

Voordat een wiskundig model met een computer kan worden opgelost, moet het worden vertaald in een numeriek (discreet) model. Opnieuw geldt dat er daarbij meerdere paden bewandeld kunnen worden: er zijn verschillende numerieke methoden om hetzelfde wiskundige model op te lossen. Sommige zijn zeer nauwkeurig maar complex – en daarmee kostbaar. Andere zijn juist veel simpeler, maar ook onnauwkeuriger. De keuzes voor een methodiek luisteren uiteraard nauw: voor je het weet berekent een numeriek model iets heel anders dan de onderliggende wiskunde dicteert!
Maar met de numerieke modellen zijn we er nog steeds niet: deze moeten vertaald worden in softwarecode en vormen de (reken)basis van een daadwerkelijk simulatiemodel. En wederom geldt dat er hierbij verschillende wegen kunnen worden gekozen. Deze verschillen zitten bijvoorbeeld in de manier waarop verkeer wordt gegenereerd (stochastiek), en in allerlei heuristieken die worden bedacht om typische softwareproblemen af te vangen. In veel modellen wordt bijvoorbeeld een minimale snelheid (≥ 0) gedefinieerd. Die heuristiek – hoe handig ook – impliceert wel dat er (soms zeer grote) fouten in de file- en netwerkdynamica ontstaan die niets met het onderliggende model te maken hebben en ook niets met verkeersafwikkeling in het echt. Bovendien is er een veelheid aan aanvullende zaken die in een softwareprogramma worden geregeld die effect kunnen hebben op de validiteit van de resultaten. Denk aan de manier waarop gegevens worden opgeslagen, de interne datastructuur, de grafische gebruikersinterface (GUI), visualisatie, import/export-faciliteiten, netwerk editing etc.

Onder de motorkap
Bijna alle simulatiemodellen in de markt (VISSIM, Paramics, AIMSUN, DynaSMART, FOSIM, enzovoort) zijn begonnen als spin-offs van wetenschappelijk onderzoek. Dat betekent dat de modelbouwers de stappen zoals hierboven beschreven hebben gevolgd, waarbij er ook frequent is ‘teruggestapt’ om eerdere keuzes bij te stellen: zoals al eerder opgemerkt is modellen bouwen een iteratief proces. Het probleem is echter dat zodra een model de markt bereikt, de toegang tot en informatie over datgene wat ‘onder de motorkap’ gebeurt, niet meer vanzelfsprekend is. Het iteratieve proces dat figuur 1 is weergegeven, komt dan tot stilstand. Dat is zeer vervelend voor studenten en onderzoekers, die gebruikmakend van alle faciliteiten in zo’n softwarepakket (visualisatie, invoer uitvoer mogelijkheden) juist aan enkele van die onderliggende modellen en/of algoritmes willen sleutelen zonder alle andere wielen opnieuw te moeten uitvinden. Het is ook een probleem voor consultants, die op grond van beperkte informatie over wat er precies intern gebeurt, moeten beoordelen en beslissen hoe ze de simulatiepakketten al of niet kunnen inzetten en voor welke problemen deze een valide simulatieoplossing biedt. Experts in bijvoorbeeld verkeersafwikkeling zouden hierin de rol van adviseur kunnen spelen, ware het niet dat ook zij niet kunnen beoordelen wat precies en in welke kwaliteit er in de software is geïmplementeerd.

Data, data, data en dubbel werk
Maar de grootste consequenties van dit ‘black box-probleem’ zijn naar onze mening voor de opdrachtgevers. Het gaat dan niet alleen om de modelvaliditeit en het beoordelen daarvan, maar zeker ook om de uitwisselbaarheid van de in- en uitvoer van de modellen. Veel wegbeheerders hebben de afgelopen jaren flink geïnvesteerd in een modelleninstrumentarium. Ook is er veel werk gemaakt van monitoring, zowel lokaal als via de Nationale Databank Wegverkeersgegevens. In principe is hiermee een geweldige kwaliteitssprong mogelijk in bijvoorbeeld operationeel verkeersmanagement en in tactisch en strategisch verkeer- en vervoerbeleid. Maar de beperkte uitwisselbaarheid van invoergegevens tussen de verschillende modellen gooit roet in het eten. Het probleem is dat een simulatienetwerk dat gebouwd is in bijvoorbeeld Vissim, niet zomaar is om te zetten naar Paramics of vice versa. De verleiding is dan groot om als er eenmaal een model X voor een gebied is gemaakt, dat model X ook maar bij toekomstige studies te gebruiken, terwijl voor die studies model Y beter geschikt zou zijn. Hier gaat de bekende spreuk op: als je een hamer hebt, lijkt elke schroef op een spijker.
Wegbeheerders die de verstandige keuze maken om dan toch maar voor het meer valide model Y te kiezen, merken dat ze het wiel dan opnieuw moet uitvinden: het netwerk coderen, data crunchen, invoergegevens in de juiste vorm gieten etc. Uit onze eigen ervaring en de vele contacten met consultants blijkt dat dit dubbele werk tussen de 50 en 70% van de manuren opeist binnen een adviesproject! En dan hebben we het nog niet eens over het schatten van HB (herkomst-bestemming)-matrices.
De consequentie is dat in veel gebieden in de loop der jaren meerdere modellen zijn gemaakt, waarbij er geen wezenlijk inhoudelijk verschil is tussen de netwerken. Ze beschrijven dezelfde wegen, kruispunten en verkeersregelingen en doen dat op hetzelfde detailniveau. Alleen de dataformaten en objectdefinities in die modellen zelf verschillen.
Dit probleem van dubbel werk speelt ook bij het toepassen van verkeersmodellen waar de functionaliteit wel verschilt, maar het gemodelleerde gebied overlap vertoont. Veel voorkomend is een situatie waarbij een gemeente een statisch model heeft voor strategische studies, een mesoscopisch model om de dynamiek van de verkeersafwikkeling voor een groter gebiedsdeel beter in beeld te brengen en ten slotte een microsimulatiemodel voor enkele drukke kruispunten of deelgebieden. Ook hier ontbreekt vaak de afstemming van data, zeker als het gaat om modellen van verschillende distributeurs. Bij de statische modellen waar de netwerken het minst zijn gedetailleerd, is uitwisselbaarheid vaak nog wel mogelijk met wat dataconversies. Maar als er ook kruispunten zijn gemodelleerd, wordt de uitwisselbaarheid al een stuk moeilijker. Het resultaat is dat een kruispunt in een specifiek gebied misschien wel vier of vijf keer opnieuw wordt gecodeerd.
Een andere consequentie van de beperkte uitwisselbaarheid van de in- en uitvoer is methodologisch van aard. Het schatten van invoergrootheden (HB-matrices, verkeerssamenstelling) en parameters (gemiddeld keuze- en rijgedrag) is een van de lastigste problemen binnen ons vakgebied, maar ook een probleem waar ongelooflijk veel vooruitgang is geboekt in de afgelopen jaren. Als we datgene wat we begrijpen en ook kunnen implementeren, vergelijken met wat er op de werkvloer daadwerkelijk wordt gebruikt (veelal heuristische methodes) dan blijkt er veel ruimte voor verbetering. Hier liggen enorme kansen om als vakgebied in te investeren, in plaats van tijd en geld te verspillen aan het dubbel coderen van netwerken, het in het juiste format gieten van data en het opnieuw kalibreren van het model.

Pleidooi voor een gezamenlijke aanpak
Gelukkig zijn er structurele oplossingen voor de hierboven beschreven problemen voorhanden. Allereerst moeten we naar standaardisatie van de interfaces tussen brondata (zowel netwerken als dynamische data) en simulatiemodellen. Ten tweede moet de ‘cirkel’ tussen modelontwikkeling en -bouw weer worden gesloten, zoals in figuur 1 met de pijltjes is weergegeven. Een beproefde manier om dat te doen is een open-sourceaanpak.
Hier kunnen we veel leren van wat er in andere domeinen gebeurt. Voorbeeld 1: de marktleiders op het gebied van GIS-software hebben zich in de afgelopen decennia georganiseerd en gecommitteerd aan gemeenschappelijke standaarden (zie www.opengeospatial.org) die uitwisseling van data en functionaliteit nu mogelijk maken. Voorbeeld 2: waar bouwers van webpagina’s zich tien jaar geleden nog moesten bekwamen in het bouwen van een complete administratie- en gebruikersinterface van websites zijn er nu zeer professionele open-source contentmanagementsystemen die hiervoor als basis kunnen worden gebruikt. Dat betekent dat webprofessionals zich kunnen bezighouden met het daadwerkelijke probleem: het structureren, presenteren en vormgeven van informatie, in plaats van het opnieuw uitvinden van ‘administratieve wielen’. En zo zijn er vele voorbeelden in technische, alfa en medische disciplines waar het delen van data en kennis leidt tot geweldige kwaliteitssprongen. De organisatie Sourceforge (sourceforge.net), die de ontwikkeling en distributie van opensourcesoftware promoot, is gegroeid van 105.000 projecten in 2005 tot 260.000 projecten in 2011. Daar zaten meer dan 4.600 projecten bij in de categorie ‘Science and engineering’.
Standaardisatie en opensourceontwikkeling leiden tot uitwisseling, hergebruik en samenwerking. Een open-sourceaanpak daarenboven plaatst kennisontwikkelaars en onderzoekers weer ‘in the loop’ bij het ontwikkelen en verbeteren van (in ons geval) simulatiemodellen en -methodes. Dat mes snijdt aan twee kanten. Als een onderzoeker direct zijn experimenten kan doen op beschikbare netwerken, met beschikbare data in realistische scenario’s, en de resultaten geloofwaardig kan visualiseren, dan is de kans veel groter dat zijn resultaten leiden tot daadwerkelijke innovaties.

OpenTraffic
Dit was de aanleiding om begin 2012 vanuit de TU Delft en enkele andere universiteiten (NII Tokyo, QUT, Brisbane) de ontwikkeling van OpenTraffic te initiëren. Dit is een verkeersmodelomgeving die is opgezet als opensource-softwareproject. TU Delft neemt in het project de lead wat de simulatie zelf betreft.
Bij de opzet van OpenTraffic is van meet af aan gekozen voor een modulaire aanpak, waarbij het doel is om in ieder geval een ‘basic’ niveau van functionaliteit te bieden. Denk bijvoorbeeld aan een netwerkeditor, een voertuigsimulatie en een visualisatietool voor deze simulatie. Een kernelement in OpenTraffic is het creëren van een goede en gedragen datastructuur:

  • De netwerken moeten uitwisselbaar zijn tussen modellen van hetzelfde schaalniveau (bijvoorbeeld microsimulatie), maar ook tussen verschillende niveaus van detaillering (micro- en macroniveau).
  • De benodigde data voor de modellen zijn zoveel mogelijk afkomstig van bestaande databronnen, volgens internationaal geaccepteerde uitwisselingsformaten. Voor GIS-data betekent het dat we aansluiten op standaarden, zoals die van het Open Geospatial Consortium, en aansluiten op nationale richtlijnen (zoals opgesteld door Geonuvum) en Europese richtlijnen zoals bijvoorbeeld het Inspire-project (Infrastructure for Spatial Information in Europe) waarin richtlijnen voor de dataspecificatie van transportnetwerken zijn uitgewerkt.
  • De bestanden waarin de invoergegevens worden opgeslagen, moeten leesbaar en goed te interpreteren zijn. Denk bijvoorbeeld aan XML-achtige bestandsformaten, waarin alle variabelen duidelijk worden omschreven.

De ontwikkeling van OpenTraffic is momenteel in volle gang. De eerste module die we ontwikkelen, is een microsimulatieomgeving, waarbij het mogelijk wordt nieuwe of verbeterde algoritmes die het voertuigvolggedrag beschrijven te testen. De planning is om in het najaar 2012 een eerste versie gereed te hebben. Vervolgens zal de functionaliteit stap voor stap worden uitgebreid.

Handen ineen slaan
Maar de snelheid zal er pas echt in komen, als we als opdrachtgevers, consultants en onderzoeksinstellingen in het vakgebied de handen ineenslaan. In dit artikel hebben we een aantal samenhangende argumenten gegeven waarom een open en gemeenschappelijke modelleeromgeving meer dan wenselijk is. Om ze nog even samen te vatten:

  1. Er bestaat een cyclische samenhang tussen wetenschap en praktijk bij het ontwikkelen van modellen. Veel van de huidige simulatie modellen zijn gestart als wetenschappelijke spin-offs, maar zijn nu in feite black boxes waarbij het onduidelijk is wat er onder de motorkap gebeurt en wat dat voor effecten heeft voor de validiteit en kwaliteit van de uitkomsten. Dat is naar onze mening onacceptabel in een vakgebied waarin deze tools worden gebruikt voor het onderbouwen van soms verstrekkend beleid!
  2. In de internationale wetenschap worden grote sprongen gemaakt in termen van begrip van verkeer en vervoer en de theorieën en modellen die we daaruit ontwikkelen. Nederland doet daarin mee met de wereldtop. Die innovaties zouden zo snel mogelijk ‘de werkvloer’ op moeten, en daarvoor is een open-source aanpak randvoorwaardelijk. Bouwers en distribiteurs van simulatiemodellen hebben nu echter geen incentive om daaraan mee te werken. Het gevolg is dat er een grote discrepantie bestaat tussen wat we weten – over rij- en reisgedrag, maar ook over kalibratie en validatie – en wat er in de praktijk daadwerkelijk wordt gebruikt. Volgens sommigen is het gat tussen de wetenschappelijke kennis en wat er in de modellen zit meer dan twee decennia!
  3. Maar die incentive is heel gemakkelijk te vinden. Opdrachtgevers, consultants en onderzoekers verspillen enorm veel tijd en geld door inefficiënt gebruik te maken van data die nodig is om een simulatiemodel toe te passen. Samenwerking, standaardisatie van in- en uitvoer en het openbreken van die zwarte dozen zouden een enorme efficiency- en kwaliteitsslag betekenen voor zowel de praktijk als de wetenschap, en zowel tijd als geld vrijspelen om ons bezig te houden met waar het werkelijk om draait: duurzame, efficiënte en intelligente verkeer- en vervoeroplossingen ontwikkelen en toetsen.

In samenwerking met Grontmij investeert de TU Delft stevig in OpenTraffic en de TU is ook hard bezig om additioneel onderzoeksgeld te genereren. Maar OpenTraffic krijgt pas echt momentum als opdrachtgevers en consultants (mee) investeren in standaardisatie van interfaces en een open aanpak bij het ontwikkelen van modellen en methodes. Die investering betreft natuurlijk geld in de vorm van postdocs en programmeurs en ook energie: een gebruikersgroep organiseren, bijeenkomsten bijwonen enzovoort. Maar het vereist vooral ook een beetje durf om nieuwe paden in te slaan. Wie biedt zich aan?

De auteurs:
Dr. ir. Hans van Lint is universitair hoofddocent op de afdeling Transport en Planning van de TU Delft.
Ir. Guus Tamminga is senior consultant bij Grontmij en promovendus aan de TU Delft.
Prof. dr. ir. Serge Hoogendoorn is hoogleraar Verkeersstromen en Dynamisch Verkeersmanagement aan de TU Delft.