Auteursarchief: Tim van der Pol

Intergemeentelijke samenwerking datagedreven werken 

Lees het gehele artikel

Bij veel gemeenten bestaat een datateam uit niet meer dan 2 tot 5 personen. Capaciteit om te ontwikkelen is daarmee beperkt en diepgaande kennisopbouw is beperkt door een veelvoud aan onderwerpen en vraagstukken waar het datateam verantwoordelijk voor is. Gemeenten zoeken daarom naar manieren om samen te werken op het gebied van datagedreven werken, om collectief meer te bereiken.

Grofweg kan met samenwerking voordeel gehaald worden op de volgende gebieden: 

  1. Techniek 
  2. Data-producten 
  3. Specialiseren 
  4. Kennisdeling

Deze gebieden kennen een zekere overlap en samenhang met elkaar. In mijn visie op samenwerking is het belangrijk vooraf na te denken op welk van deze gebieden het zwaartepunt ligt van de samenwerking. En vooral om dit naar elkaar uit te spreken, om op eenzelfde lijn te komen. Waar zit dan de winst op deze gebieden? 

1. Techniek 

 Door samen op te trekken op technisch vlak, kunnen implementatie- en ontwikkelkosten significant gedrukt worden. De oplossing hoeft meer één keer uitgewerkt te worden en kan meervoudig uitgerold worden. Ik versta hieronder een technisch fundament (het dataplatform en aanverwante componenten) dat gelijk is aan elkaar. Dit kan gaan om één gezamenlijk dataplatform of één per gemeente. Hiermee wordt ook een technisch fundament gelegd waarop data-producten en kennisdeling eenvoudiger te realiseren zijn. Voor de gemeente Nissewaard, Voorne aan Zee en Hoeksche Waard hebben we dit in een half jaar weten te realiseren. 

2. Data-producten 

Het gezamenlijk werken aan data-producten zorgt ervoor dat niet elke gemeente haar eigen oplossingen hoeft te ontwikkelen. Dit helpt de ontwikkelcapaciteit te vergroten en stimuleert ook kennisuitwisseling op vakinhoudelijk gebied (bijvoorbeeld ondermijning, sociaal domein of groenbeheer). Let wel op goede afspraken rondom beheer en doorontwikkeling. Data Fryslân laat heel concreet zien wat dit op regionaal niveau aan meerwaarde kan opleveren. 

 3. Specialiseren 

Voor een kleine tot middelgrote gemeente is het lastig om alle rollen uit een datateam zelfstandig aan te nemen. Door een gezamenlijk datateam te vormen (of functies te delen), kan meer specialisatie geworven worden. Dit zorgt voor diepgaandere kennis en datateams die meer van elkaar kunnen leren. Veelal gebeurt dit onder de vlag van een shared service center of ander bestaand samenwerkingsverband. Een goed voorbeeld hiervan is Datalab GO, waar gemeenten uit Oost Gelderland de krachten bundelen. Uitdaging bij gezamenlijke datateams is om goed contact te houden met de decentrale businessunits. 

4. Kennisdeling 

Dit is de meest eenvoudige variant van samenwerking. En gebeurt al veel onder de vlag van de VNG via https://kennisnetwerkdata.pleio.nl. Maar het kan ook gebeuren op kleinere schaal zoals via gezamenlijke inspiratiesessies voor datateams of juist de business op regionaal niveau. Een voorbeeld hiervan is de datadag van de Zuid-Hollandse Delta gemeenten. Kennisdeling kan ook plaatsvinden door op bovenstaande gebieden te richten, en vanuit daar kennisdeling te stimuleren. 

Elkaar vasthouden en gunnen

Denk bij het verkennen van samenwerkingen goed na over wat je met elkaar wilt bereiken en wees ervan bewust dat het in de beginfase vooral draait om elkaar vasthouden en elkaar wat gunnen. En dan nog een open deur, maar niet minder belangrijk: wees ervan bewust dat het (zeker in de beginfase) gaat om persoonlijke relaties. Uiteraard helpt bestuurlijke borging en betrokkenheid.

Zoek elkaar op en laten we samen meer waarde gaan halen uit data!

Meer weten?

 Voor meer informatie kun je contact opnemen met Tim van der Pol via de contactpagina.

Een praktische aanpak voor gegevenskwaliteit 

Lees het gehele artikel

Gemeenten nemen dagelijks honderden beslissingen op basis van data: van inburgering tot vergunningverlening en van maatschappelijke ondersteuning tot de BAG. Maar hoe weet je zeker dat die data klopt? De organisatie is hiervoor aan zet (datamanagement). Maar hoe zet je dit praktisch op? De NORA-aanpak voor gegevenskwaliteit biedt een helder raamwerk. In dit artikel maken we het theoretische raamwerk, nog een stukje praktischer, zodat je er nog makkelijker in je eigen organisatie mee aan de slag kan gaan. 

 NORA Stappenplan Gegevenskwaliteit 

    1. Start met creëren van waarde

      Start niet groot, maar slim. Kies één dataset of proces waar fouten echt pijn doen: risico’s voor inwoners, financiële impact of externe verantwoordingsplicht. Door scherp te kiezen wordt het project behapbaar en de kans op succes groter. En het belangrijkste: datakwaliteit zorgt hiermee voor meerwaarde en wordt geen doel op zichzelf.
      Tip: Laat de business zelf bepalen wát belangrijk is — dan ontstaat eigenaarschap.

    2. Maak je gegevens glashelder

      Beschrijf samen met beleidsmedewerkers, uitvoering, functioneel beheer en dataexperts:

    • wat elk gegeven betekent; 
    • waar het vandaan komt; 
    • wie het invoert; 
    • wanneer het moet worden ingevuld; 
    • hoe systemen en bronnen samenhangen; 
    • wie gebruik maakt van een gegeven.
      Dit zorgt voor een gedeeld beeld én voorkomt dat kwaliteit wordt gezien als een “IT-probleem”. Ook kan je hierdoor nog scherper keuzes maken waar datakwaliteit meten waarde toe gaat voegen en waar niet. 
    1. Zet heldere kwaliteitseisen neer

De NORA kent 9 kwaliteitsdimensies, uitgewerkt naar 32 kwaliteitsattributen. Als de business hiermee aan de slag gaat, is de kans groot dat men verzuipt. Voor de meeste vraagstukken is het voldoende om de volgende twee vragen gezamenlijk te beantwoorden: 

    • Wanneer moet het gegeven ingevuld zijn (en hoe herkennen we dit geautomatiseerd)?  
    • Hoe herkennen we dat het ingevulde gegeven klopt? Maak een waar/niet waar bewering. 

 Voorbeelden: 

    • “adres verplicht bij start aanvraag”; 
    • “besluitdatum moet gevuld zijn na vergunningverlening”; 
    • “gezaghebber is ingevuld als aanvrager  <18 jaar”. 

Door eerst alleen regels te kiezen die automatisch gecontroleerd kunnen worden, ontstaat schaalbaarheid zonder extra werkdruk. Zet alleen handmatige controles in als automatisering niet kan én foutieve invoer een te groot risico vormt.
Gebruik vooral de NORA ter inspiratie of als bovenstaande vragen niet tot gewenste datakwaliteitsnormen leiden. 

    1. Maak kwaliteit zichtbaar

De opgestelde criteria uit stap 3 moeten meetbaar gemaakt worden. Niet één keer, maar structureel, zodat datakwaliteit structureel gemeten kan worden. Een geautomatiseerd datakwaliteitsrapportage of dashboard is hiervoor cruciaal.
Een rapportage/dashboard maakt de kwaliteit van gegevens concreet, visueel en bespreekbaar. Denk aan: 

    • waar in het proces ontstaan fouten?
    • welke gegevens moeten gecorrigeerd worden?

Technisch schaalbaar maken kan met:

    • DWH-templates voor het verwerken van kwaliteitsregels;
    • gestandaardiseerde BI-rapportages;
    • gespecialiseerde datakwaliteit-applicaties. 
  1. Schoon op

    Uit de analyse blijkt welke data concreet opgeschoond moeten worden. Maak opschonen concreet: wie corrigeert welke gegevens, wanneer, en met welke ondersteuning.
    Uitvoering voert uit, functioneel beheer ondersteunt, de dataeigenaar blijft verantwoordelijk voor voortgang en besluitvorming. 

  2. Continue verbeteren

Opschonen is goed — maar voorkomen is beter. Analyseer daarom:

    • waarom worden gegevens niet, niet goed of niet op tijd ingevoerd?
    • welke processtap of applicatiefunctie veroorzaakt fouten? 

Verbeter daarna structureel:

    • verplichte velden, keuzelijsten, betere schermopbouw; 
    • betere werkinstructies, opleidingen, inwerkprogramma’s; 
    • procesoptimalisatie; 
    • overleg met leveranciers over doorontwikkeling. 

Beheer gebeurt via een PDCA-cyclus: periodiek meten, bespreken, bijsturen. Zo wordt gegevenskwaliteit een leefproces in de organisatie — niet een eenmalig project. Tegelijkertijd borg je in deze fase hoe dagelijks/wekelijks signalen over foutieve data worden afgehandeld.

Aan de slag

Met deze stappen kan je een concrete stap maken in de gegevenskwaliteit van je organisatie. Pak het op als zelfstandig project of als onderdeel van bijvoorbeeld een dataproject. Enkele praktische tips hebben we in eerdere artikelen geschreven. Ga aan de slag, pas aan waar nodig, en creëer zo concrete waarde met verbeterde datakwaliteit in je bedrijfsproces. 

Meer weten?

 Voor meer informatie kun je contact opnemen met Tim van der Pol via de contactpagina.

 

De route van gemeente Nissewaard naar een datagedreven organisatie 

Lees het gehele artikel

De gemeente Nissewaard heeft in korte tijd flinke stappen gezet om een meer datagedreven organisatie te worden. Het begon in de zomer van 2024 als pilot om met behulp van Power BI meer inzicht in de Jeugdzorg en Wmo te krijgen. En nu staat binnen een jaar het fundament voor de gehele organisatie om dataprojecten uit te voeren. De gemeente Nissewaard neemt je mee hoe zij dat voor elkaar hebben gekregen. 

Klein beginnen 

Rody van Oudheusden – Senior Adviseur Sociaal Domein vertelt:

“Door de ontwikkelingen binnen het sociaal domein op Jeugd en Wmo ontstond er vanuit verschillende rollen in de organisatie een steeds grotere behoefte aan actuele inzichten. We gebruikten hier meerdere middelen voor, maar misten een integraal en flexibel dataplatform. Via een pilot wilden we testen of we met Power BI een stap konden zetten. We zijn hierbij met een klein team begonnen en met een beperkte scope. Met ondersteuning van 3-DM die de data analist en data engineer leverde en projectbegeleiding van Telengy hadden we binnen twee maanden de eerste positieve resultaten en zagen we de potentie van de rapportages en visualisaties waarbij we met enkele kliks van totalen op wet-niveau, konden inzoomen op productniveau, kosten en cliënten.” 

Opschalen – van pilot naar fundament 

Mohamed Laghzaoui – Chief Information Officer legt uit:

“Na de geslaagde pilot beseften we ons dat we door moesten pakken. We zijn gaan opschalen om een fundament te leggen voor de hele organisatie. Wat we daarin als Nissewaard in een half jaar hebben bereikt, is bijzonder. Simultaan is gewerkt aan een concreet eindproduct voor het sociaal domein, is een technisch platform neergezet en zijn organisatorische randvoorwaarden ingericht. 

Het technische platform is inmiddels productiewaardig, in beheer genomen, en ons interne datateam is opgeleid om zelf data-producten te bouwen en beheren. Dankzij de begeleiding van Telengy en de technische expertise van 3-DM hebben we niet alleen een eerste succes neergezet, maar ook structureel gebouwd aan onze eigen kracht. 

Dit project is daarmee niet het eindpunt, maar het vertrekpunt voor een organisatie die haar keuzes baseert op betrouwbare, actuele inzichten.

Deze beweging was alleen mogelijk dankzij het brede draagvlak binnen de organisatie. We hebben vanaf het begin de steun en betrokkenheid gevoeld van het Centraal Management Team (CMT), dat het belang van datagedreven sturing vanaf dag één heeft onderkend. Die strategische steun gaf het project de ruimte én het mandaat om te groeien. Zo werd het geen losstaand initiatief, maar een gedeeld organisatiebelang. Wat mij het meest trots maakt, is dat we in korte tijd samen een stevig fundament hebben neergezet dat werkt en dat enthousiasme en beweging in de hele organisatie losmaakt. Dit is geen losstaand IV-project gebleven, maar een strategische stap richting een datagedreven manier van werken en sturen. De eerste successen in het sociaal domein hebben laten zien wat er mogelijk is, en nu ligt er een basis waar we op voort kunnen bouwen.”

Doorontwikkelen  

Rody vertelt over de doorontwikkeling:

“We zijn best trots op waar we nu na een klein jaar staan, want uiteindelijk is het een brede beweging geweest met een goede samenwerking tussen IV en business waarbij we niet alleen voor het sociaal domein maar voor de hele organisatie een goede technische en organisatorische basis hebben neergezet. We zijn er alleen nog niet. Doorontwikkeling richting eindgebruikers is een volgende stap waarmee we de komende tijd echt waarde kunnen creëren. Continue samenwerking tussen onze teams in het sociaal domein en het datateam is hierin ontzettend belangrijk. Alleen dan krijgen we voor elkaar dat we ons beleid, de processen en onze dienstverlening gerichter kunnen optimaliseren op basis van datagedreven besluiten.” 

En Mohamed vult aan:

“Onze focus ligt nu op het vergroten van die olievlek: steeds meer domeinen willen aansluiten, van HR tot vastgoed, van veiligheid tot financiën. We willen met Telengy, 3-DM en ons interne datateam kijken naar voorspellende analyses (forecasting). Denk aan het tijdig signaleren van trends in jeugdzorgaanvragen of het voorspellen van toekomstige zorgdruk. Daarmee verschuiven we van terugkijken naar vooruitkijken. Ook willen we de eerste stappen richting het verantwoord toepassen van kunstmatige intelligentie (AI). Daarnaast verkennen we hoe we geselecteerde datasets beschikbaar kunnen stellen als open data zodat inwoners, partners en onderzoekers ook waarde uit onze data kunnen halen.

Deze beweging kan alleen slagen als je het samen doet. De hulp die we hebben gekregen was noodzakelijk om in beweging te komen. Maar minstens zo belangrijk is de betrokkenheid van onze eigen collega’s geweest: samen bouwen we aan een gemeente die niet langer op onderbuikgevoel stuurt, maar op inzicht. En dat is randvoorwaardelijk in een wereld waarin wendbaarheid, transparantie en maatschappelijke legitimiteit steeds belangrijker worden. Ik zie daarom de toekomst met vertrouwen tegemoet. Niet alleen omdat we de technologie op orde hebben, maar vooral omdat we als organisatie in beweging zijn. We hebben het fundament gelegd, nu bouwen we door.”

Meer weten?

 Voor meer informatie kun je contact opnemen met Tim van der Pol via de contactpagina.

 

Procesoptimalisatie begint met inzicht

Lees het gehele artikel

Gemeenten staan dagelijks voor de uitdaging om hun dienstverlening efficiënt, transparant en toekomstbestendig te organiseren. Van het verstrekken van vergunningen tot het verwerken van uitkeringen – de processen zijn talrijk en vaak complex. We hebben vaak het gevoel dat het efficiënter kan en lagere doorlooptijden mogelijk zijn, maar hoe? Process mining helpt om inzicht en grip te krijgen, om vanuit daar processen te optimaliseren.

Wat is process mining?

Process mining is een analysemethode die gebruik maakt van logdata die in elke softwareapplicatie wordt vastgelegd. In logdata staat wie, wat, wanneer heeft uitgevoerd. Door deze gebeurtenissen achter elkaar te zetten, ontstaat een stroomschema. Zet je alle werkprocessen / zaken / processen in één stroomschema, dan zie je waar snelwegen lopen en waar zandweggetjes worden gebruikt. Ook kan je zien waar files ontstaan of waar juist hard gereden kan worden. Het laat daarmee niet alleen zien hoe een proces volgens het boekje zou moeten verlopen, maar ook hoe het daadwerkelijk loopt – inclusief omwegen, vertragingen en inefficiënties.

Binnen gemeenten zijn er talloze processen die zich goed lenen voor process mining, zoals:

  • vergunningverlening (zoals deels uitgewerkt in bovenstaand voorbeeld);
  • afhandeling van meldingen openbare ruimte;
  • Wmo-aanvragen en jeugdzorgprocessen;
  • inkoop- en facturatieprocessen;
  • bezwaar- en klachtprocedures.

Daarnaast is er ook weinig nodig om een dergelijk onderzoek te starten. In de basis gaat het om drie elementen die uit een systeem gehaald moeten worden:

  1. Kenmerk van het te volgen proces over tijd (bijv. zaak-ID of aanvraagnummer).
  2. Een tijdstempel (datum en tijd) wanneer een gebeurtenis plaats heeft gevonden.
  3. De naam van de gebeurtenis bij de tijdstempel, bijv. registratie brief.

Aanvullende informatie over de gebeurtenis kan helpen voor diepgaandere analyse. Zoals wie of welk team registreerde de brief, via welke applicatie gebeurde dat of op welke locatie gebeurde het. Door dit zo systematisch in beeld te brengen komt er een feitelijk beeld van het proces naar boven en niet alleen hetgeen wat medewerkers weten. Dit leidt tot betere gesprekken en daarmee ook acties om onwenselijke stromen binnen een proces te voorkomen.

Aan de slag

Process mining is niet complex, maar vraagt om de juiste begeleiding, kennis van gemeentelijke processen en de vaardigheid om dit goed te visualiseren. Het laatste kan met de vrij beschikbare Python-packages, zoals PM4Py. Telengy combineert haar gemeentelijke kennis van processen met de Data Scientists van 3-DM. Hierdoor is een proces in korte tijd in kaart gebracht en kunnen de waardevolle gesprekken beginnen.

Meer weten?

Telengy-adviseur Tim van der Pol en Ankit Majhi van 3-DM zijn verantwoordelijk voor dit artikel. Voor meer informatie kun je contact opnemen met Tim van der Pol via de contactpagina.

Data-oplossingen delen: van, door en met gemeenten

Lees het gehele artikel

Alle gemeenten zijn hetzelfde en alle gemeenten zijn uniek. Iedere gemeente heeft hetzelfde nodig, maar toch net op een andere manier. Best logisch als je decentraal beleid wilt. Maar ook best lastig als je niet 342 keer het wiel opnieuw uit wilt vinden. Ook bij datagedreven werken is het zoeken naar een goede middenweg tussen gezamenlijkheid en lokaal maatwerk.

Eigendom gemeente

Afgelopen jaar hebben Telengy en 3-DM samengewerkt met gemeenten om deze balans te vinden. We ontwikkelen samen met de gemeente dataproducten die ook eigendom blijven van de gemeente. Hierdoor kan de gemeente zelfstandig voortbouwen op wat we opleveren en inspelen op nieuwe databehoeften met de fundering die we hebben gelegd. Dit vermindert de afhankelijkheid van leveranciers en stelt gemeenten in staat om meer zeggenschap te krijgen over de ontwikkeling van dataproducten.

Hergebruik loont

Wat we voor de ene gemeente ontwikkelen, kunnen we -met toestemming van de eigenaar- ook toepassen bij andere gemeenten. Dit stelt ons in staat om in kortere tijd meer te bieden aan gemeenten met vergelijkbare databehoeften, wat vaak het geval is. Het resultaat? Tussen de 80 en 90% van de ontwikkelde producten kan direct worden gekopieerd naar andere gemeenten. In de praktijk betekent dit dat we in enkele weken de producten die voor gemeente A zijn ontwikkeld, ook als basis klaar hebben voor gemeente B. Daarna volgt het maatwerktraject.

En mooie bijvangst, het ‘maatwerk’ voor gemeente B, is vaak snel te kopiëren naar gemeente A, waardoor er echte win-win situaties ontstaan. Dit geldt zowel voor code voor het datamodel als rapportages in bijv. Power BI.

We zijn erg benieuwd welke organisaties nog meer op deze of andere manieren samenwerken en code/scripts met elkaar delen. Laat het ons weten!

Meer weten?

Voor meer informatie kunt u contact opnemen met Tim van der Pol via de contactpagina.

Datagedreven werken in 2025 – Gemeentelijk Gegevensmodel (GGM) als versneller 

Lees het gehele artikel

Hoe brengen we duurzame verandering in de organisatie met behulp van datagedreven werken? Een stuk van die puzzel, en daarmee de focus voor 2025, is interoperabiliteit in combinatie met kennisdeling. De combinatie van deze twee gaat ervoor zorgen dat datagedreven werken nog sneller en duurzamer tot organisatieverandering leidt.  

 Een bron modelleren naar een bruikbaar basis analytisch model kost gemiddeld ongeveer drie maanden. Dit is tijd waar de business geen waarde ervaart van datagedreven werken. Als deze tijd verkort kan worden, blijft er meer tijd over voor waardecreatie voor de business. Een gemeentelijk initiatief wat dit versnelt is het inmiddels breed omarmde Gemeentelijk Gegevensmodel (GGM), ontwikkelt door de gemeente Delft. Niet voor niets winnaar gemeentedelers 2022(!). 

Versnelling op vier niveaus

  1. Gemeenten modelleren per applicatie voor elkaar naar het GGM gestandaardiseerde databaseschema. Dat scheelt 90% ontwikkeltijd voor elke gemeente na de eerste gemeente die het heeft gemodelleerd.
  2. Analytische scripts en bijbehorende rapportages/ machine learning-modellen/ dashboards ontwikkelt op GGM zijn voor een significant deel één op één herbruikbaar voor andere gemeenten.
  3. Ontwikkelen op basis van data gemodelleerd is voor data engineers en data analisten eenvoudiger, omdat er een goed gedocumenteerd logisch gegevensmodel onder ligt. De samenhang tussen objecten is daarmee snel operationeel te maken.
  4. Bij de overgang naar een nieuwe applicatie hoeft grotendeels alleen de nieuwe applicatie op het GGM-model aangesloten te hoeven worden, om bestaande rapportages weer te laten werken. 

Dit betekent overigens géén plug and play-oplossing. Iedere gemeente gebruikt applicaties anders, en kent weer andere beleidsregels, uitvoeringsinrichtingen en andere uitzonderingen of datakwaliteit problemen. Het betekent wél een platform waarin gemeenten in een zelfde datalandschap opereren met hier en daar een dialect wat tot spraakverwarring kan leiden. Dat is een héle grote stap t.o.v. de huidige situatie waar gemeenten op datagebied eilanden zijn in de stille oceaan.  

Terugblik 2024 en bijdrage 2025

Als Telengy gaan we ook in 2025 weer onze steen bijdragen om deze stap met elkaar te zetten. Help je mee?
Terugblikkend op onze eigen artikelenreeks van 2024, laat goed zien hoe we als Telengy naar datagedreven werken en AI kijken: vanuit de inhoud, complexe vraagstukken eenvoudig weergeven, en vanuit daar praktisch aan de slag gaan om meerwaarde te creëren voor de maatschappij. Hieronder vind je het overzicht van al onze DGW-artikelen uit 2024. 

Praktisch aan de slag

 Complexe zaken makkelijk gemaakt

 AI

Meer weten?

Voor meer informatie kun je contact opnemen met Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.

 

 

 

Waardecreatie met data – kom van je stoel en stap samen in de keuken! 

Lees het gehele artikel

Het is een illusie dat een datateam bij voorbaat een heerlijk datagerecht voor je gaat bereiden. Sterker, het is maar de vraag of er überhaupt een gerecht uit die keuken gaat komen.  

Samen met Monique van der Stappen, teammanager informatiemanagement gemeente Hoeksche Waard, pleiten wij ervoor om samen de keuken in te stappen. Het datateam met de business. Waarom? Dat gaan we uitleggen aan de hand van de praktijkervaring van de gemeente Hoeksche Waard. 

Monique is de bedenker van de datadag ‘Hoe eet jij je data’ waar gemeenten elkaar inspireren hoe je nóg meer waarde uit data kan halen. Om in het thema van ‘Hoe eet jij je data’ te blijven, stappen we vandaag in de datakeuken. Laat het je smaken. 

Betrokkenheid business?

Sinds 2020 is de gemeente Hoeksche Waard actief bezig om op basis van data beter onderbouwde keuzes te maken, wat direct en indirect moet leiden tot verhoogde maatschappelijke waarde. Dit heeft geleid tot tal van data-initiatieven en evenveel dashboards. Ieder dashboard is met evenveel passie en liefde gemaakt, maar toch zien we dat het gebruik ervan zeer wisselend is. Zie het als een buffet waar sommige schalen onaangeroerd blijven en andere volledig zijn opgediend. Na drie jaar ervaring kunnen we zeggen dat dit enorme verschil terug te brengen is naar een simpel gegeven: was de business actief betrokken bij zowel de totstandkoming, als bij het in gebruik nemen van het eindproduct (zoals een dashboard of rapportage)?   

Voorwaarden toekomstig gebruik

Door de business te betrekken bij de totstandkoming creëer je drie voorwaarden die belangrijk zijn voor toekomstig gebruik:   

  1. Bestaande afspraken en definities worden met de business vertaald tot datadefinities. Hiermee sluit het eindproduct goed aan op de praktijk van de business en snapt de business hoe deze tot stand zijn gekomen.
  2. De business kan actief feedback geven op de vorm van het eindproduct. Vooraf gestelde vereisten kunnen hiermee worden getoetst en zelfs worden aangescherpt. Pas als je met de data aan de slag gaat, zie je pas echt wat er mogelijk is en wat je wil.
  3. Je leidt je toekomstige ambassadeurs en vraagbakens van je eindproduct op. Zij kunnen het product het beste ‘verkopen’ op de werkvloer. Tenslotte hebben zij al de meerwaarde gezien en mede vormgegeven.

Betrokken business bij dataproduct

Die laatste is gelijk ook het bruggetje naar het belang van een zeer betrokken business bij het in gebruik nemen. Waarom is dit belangrijk, naast het aan de man brengen van het product?  

  1. Een actief betrokken business bepaalt direct bij ingebruikname aan welke tafels welke inzichten gebruikt worden en onder welke condities (KPI’s) afwijkingen besproken of geanalyseerd moeten worden. 
  2. Sturing op datakwaliteit kan alleen bereikt worden als de business hier actief op gaat sturen. En slechte datakwaliteit leidt tot slecht gebruik van een dataproduct. Zie hier de reden waarom de business actief betrokken moet worden om de datakwaliteit te borgen. 

Deze inzichten komen rechtstreeks uit de praktijk en maken of breken een dataproduct. Dus wil je écht waarde creëren met data, stuur dan mét de business op deze 5 punten. Succes is dan (bijna zeker) gegarandeerd. Heerlijke gerechten zullen zo uit de datakeuken opgediend kunnen worden! 

Meer weten?

Voor meer informatie kun je contact opnemen met Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.

Democratisering van data 

Lees het gehele artikel

Democratisering van data? Gaat de data dan naar de stembus? Of betekent het dat data toegankelijk wordt voor burgers? En belangrijker nog: wat moet je er mee als organisatie? 

Het democratiseren van data betekent het toegankelijk en analyseerbaar maken voor een zo breed mogelijke doelgroep binnen een organisatie en eventueel zelfs buiten de organisatie (bijv. inwoners of belangengroepen). Ongeacht de functie of technische vaardigheden. Je kan dit tweeledig zien:

  1. Als doel van een organisatie om dit te bewerkstelligen.
  2. Als geleidelijke (steeds sneller gaande) trend in de datawereld waarin technologische middelen zo makkelijk toegankelijk en bruikbaar worden, waardoor de drempel om met data aan de slag te gaan steeds lager wordt.

In dit artikel staan we enerzijds stil bij de technologische trend en anderzijds de aspecten waar je rekening mee moet houden als je data eenvoudiger toegankelijk en analyseerbaar maakt binnen de organisatie.  

Technologische ontwikkeling

Datagedreven werken is niets nieuws. Toch zijn organisaties er in steeds grotere mate mee bezig. Dit komt doordat er meer data beschikbaar is, maar zeker ook omdat de technologische ontwikkeling de drempel om aan de slag te gaan lager maakt. Op het gebied van dataplatforms zijn Snowflake en Databricks goede voorbeelden waarmee veel infrastructurele hobbels worden weggenomen. Data hoeft hierdoor niet meer van de ene naar de andere oplossing verplaatst te worden en weer terug, om data te modelleren en te combineren. De kosten voor onderhoud en ontwikkeling worden hiermee gedrukt. 

Recentelijk is daar Microsoft Fabric bijgekomen waarmee zelfs een dataplatform als Software as a Service (SaaS) wordt aangeboden. Deze ontwikkelingen gaan gepaard met steeds verdergaande versimpeling van integraties en het zogenoemde ‘low-coding’ principe. Hiermee kan met klikken en slepen complete datapijplijnen en scripts ontwikkeld worden. Voeg hier de laatste ontwikkeling van generatieve AI aan toe (in Fabric Copilot genoemd), en je ziet hoe laagdrempelig het is geworden om met data aan de slag te gaan. 

Dataorganisatie nóg belangrijker

Doordat data zo laagdrempelig toegankelijk wordt en steeds meer mensen hun eigen oplossingen kunnen ontwikkelen, wordt het belang van datamanagement en datageletterdheid steeds groter. We zullen uitleggen waarom.

Als steeds meer mensen in de organisatie hun eigen oplossingen kunnen ontwikkelen of antwoorden uit de data kunnen halen, is het van belang dat dit op een consistente manier gebeurd. Anders krijg je de onwenselijke situatie dat iedereen andere datasets gebruikt voor eenzelfde soort vraagstuk, met telkens andere antwoorden. Ook qua efficiëntie laat dit veel te wensen over. Enkele van de vele vragen die beantwoord moeten worden zijn:  

  1. Wie mag welke tooling gebruiken? 
  2. Wie krijgt toegang tot welke geprepareerde dataset? 
  3. Hoe gebruiken we dezelfde datadefinities voor hetzelfde begrip? 
  4. Hoe gaan we om met de uitkomsten? Laten we deze altijd (de)centraal toetsen?

Datageletterdheid

Daarnaast is datageletterdheid van cruciaal belang bij verdere democratisering van de data. Datageletterdheid gaat over het goed om gaan met (de uitkomsten van) de data. Het juist interpreteren en de juiste conclusies maken van grafieken en tabellen. Daarnaast is het herkennen van misleidende of ongepaste manieren van datagebruik net zo belangrijk. Des te meer iemand met data kan doen (berekeningen doorvoeren, eigen dashboards maken), des te meer kennis er nodig is van data om de juiste analyses te kunnen maken. Het democratiseren van data brengt daardoor een steeds groter risico op foutief gebruik van data met zich mee. En daarmee is dit een cruciaal stuk in de organisatorische puzzel die gelegd moet worden bij de implementatie van nieuwe technologieën die democratisering van data mogelijk maken. 

Meer weten?

Voor meer informatie kun je contact opnemen met Han de Ridder, 06 81 75 07 29, h.d.ridder@telengy.nl of Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.

Data-opleiding Telengy

Lees het gehele artikel

Telengy adviseert steeds meer gemeenten en andere decentrale overheden over het gebruik van data en dataoplossingen. Het is een significant onderdeel geworden van de informatievoorziening binnen de overheid. Twaalf adviseurs bundelen de krachten om hun kennis en vaardigheden uit te breiden op dit gebied. Zij startten hiervoor met een data-opleiding waarin de basisonderwerpen van werken met data aan bod komen. Een opleiding die adviseurs kennis meegeeft van zowel de technische als de organisatorische kant van datagedreven werken.

De opleiding

De opleiding is opgebouwd uit drie dagen op verschillende inspirerende locaties in het land.

Dag 1: organisatie en randvoorwaarden

De organisatie en randvoorwaarden om duurzaam datagedreven te werken. Vragen die we hier beantwoorden met elkaar zijn o.a.:

  • Hoe bepaal je het datavolwassenheidsniveau van een organisatie?
  • Welke rollen heeft een datateam?
  • Welke positie krijgt het datateam in een organisatie?
  • Welke informatie heb je nodig voordat een dataproject kan starten?
  • Wat zijn typische dataproject structuren en processen?
  • Welke rol heeft het bestuur?

Dag 2: datatechnologie

Een dataoplossing kan heel complex zijn opgebouwd of bestaan uit simpele Excel bestanden. Een organisatie moet bepalen op welke wijze datatechnologie ingericht en ingepast wordt in het huidige landschap. Data-engineers en -scientists van Aurai nemen de groep mee in het opzetten van een datapipeline en bijbehorende instrumenten en terminologieën. Na deze dag kan elke adviseur een goed gesprek voeren over de technologie en begrijpen adviseurs wat er nodig is voor welke dataoplossing en datavolwassenheidsniveau.

Dag 3: governance, datamanagement, privacy en ethiek

Op welke wijze stuurt en begeleidt een organisatie datagedreven werken? Governance, datamanagement, privacy en ethiek staan centraal. In een ochtend wordt door Ronald Baan het DAMA-DMBOK raamwerk toegelicht en in de middag de wijze waarop data- en computerscience gebruikt wordt om organisaties te helpen vanuit JADS.

Resultaat

De groep adviseurs en projectleiders die hebben deelgenomen hebben nu specifieke kennis op het gebied van data. Hiermee zijn zij een goede gesprekspartner op het gebied van data voor zowel de bedrijfsvoering van een organisatie, denk hierbij aan het inrichten van de dataorganisatie of het ophalen van de informatiebehoefte, als het informatisering en automatisering domein dit kan gaan over het aanbesteden van een dataplatform of het ontwerpen van een datapipeline.

De werkgroep blijft actief binnen Telengy. De NL dataweek staat al in de agenda en er zijn vervolgsessies gepland om kennis verder uit te diepen.

Meer weten?

Veel onderdelen van de dataopleiding worden ook gebruikt in de Leergang Informatie en Innovatie. Mocht je meer willen weten over datagedreven werken bij Telengy of wil je datatgedreven werken in jouw organisatie agenderen, dan vernemen wij dit graag. Voor meer informatie kunt u contact opnemen met Roel Ottens, 06 50 43 15 77, r.ottens@telengy.nl,  of Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.

 

Uitstel Omgevingswet – brieven bouwen, tijd besparen

Lees het gehele artikel

Brieven schrijven, het leukste wat er is!? Zeker niet als je meerdere keren per week dezelfde brief de deur uit moet doen, met telkens kleine aanpassingen op basis van de casus die voorligt. Dat is bij de Omgevingswet niet anders.Tekstblokje plakken, gearceerde stukken invullen, voorwaarden die niet van toepassing zijn verwijderen. Met enkele ingrepen is dit niet meer nodig en heb je jarenlang profijt van een forse tijdsbesparing.

Met het uitstel van de Omgevingswet is het een perfect moment om de sjablonen in de VTH-applicatie onder de loep te nemen. Maar hoe pak je dit slim aan?

De ingrediënten

Vorm een kleine werkgroep, met daarin de volgende rollen:

  • functioneel Beheerder van de applicatie;
  • 1 afgevaardigde per team die documenten verzendt (vergunningverlening, administratie), die het mandaat heeft namens het team om de inhoud te bepalen;
  • juridische adviseur / kwaliteitsmedewerker;
  • communicatie.

Verzamel alle documenten en

  • maak een selectie van de 10 meest gebruikte sjablonen;
  • ga hier als eerste mee aan de slag.

Het recept

 Toets (en verbeter) de brieven inhoudelijk op:

  • B1 taalniveau;
  • juridische correctheid;
  • aansluiting op de daadwerkelijke werkwijze (vaak zie je dat processen in de loop der tijd zijn aangepast, maar brieven nog niet zijn geüpdatet);
  • consistentie tussen de brieven (zelfde termen, zelfde opbouw, zelfde aanhef, etc.).

Analyseer de brieven op informatie die casusafhankelijk is (die dus per brief ingevuld moeten worden), bijv.:

  • aanhef;
  • activiteiten;
  • voorwaarden;
  • locatiegegevens;
  • leges.

Ga na of deze gegevens in de applicatie worden geregistreerd en of deze via een verwijzing geautomatiseerd uit het systeem gehaald kunnen worden (dit kan de functioneel beheerder). Denk hier ook aan tekstblokken die afhankelijk van een enkel gegeven gegenereerd kunnen worden, bijv.:

  • voorwaarden die op basis van een activiteit getoond moeten worden.
  • teksten die op basis van een resultaat van een advies getoond moeten worden.

Als optionele keuze kan je er nog voor kiezen om de brief op te splitsen tussen een introductiegedeelte met persoonsgegevens (adres, aanhef en reden van de brief en procedure), en een gedeelte met gegevens die ter inzage gelegd kunnen worden. Deze twee losse brieven zorgen er voor dat je niet (of minimaal) hoeft te anonimiseren voor publicatie

Nu kun je de sjablonen gaan maken en testen!

  • Door middel van logica die alle applicaties bieden bij het genereren van brieven, kunnen de hier boven genoemde slimme combinaties gemaakt worden, waardoor bijna geen tekst meer handmatig gevuld worden.
  • Velden die niet uit de applicatie te halen zijn, kan je met slimme invulvelden maken die gehighlight zijn en makkelijk zijn in te vullen met de juiste opmaak (zie bijgaande link hoe je dit eenvoudig doet: Slimme invulvelden maken)

Laat vol trots aan de eindgebruikers zien wat er is veranderd en hoeveel tijd het ze bespaard. Communicatie is belangrijk voor snelle adaptatie en voorkomt vragen achteraf.

Heb je de 10 meest gebruikte sjablonen geautomatiseerd, dan is het tijd om met opgedane kennis vrij snel de overige sjablonen na te lopen en zo veel als mogelijk te automatiseren. Maak ook gebruik van de 10 tips voor sjablonen van Telengy-collega Stella Mol.

Succes, we zijn benieuwd naar de opbrengsten. Mochten we ergens over mee kunnen denken, we helpen je vrijblijvend op weg!

Datagedreven werken in 2023: het draait om waarde

Lees het gehele artikel

Kennis is macht. Een bekende zinsnede uit het werk van Thomas Hobbes en veel gebruikt in het programma ‘Wie is de Mol?’. In een programma als ‘Wie is de Mol?’ zijn op het oog nutteloze feitjes als wie stond naast wie in opdracht x mogelijk goud waard, doordat antwoord op dit soort vragen je een ticket naar de volgende ronde kunnen bezorgen. In een organisatie gaat deze vlag niet op en kan het verzamelen van alle beschikbare informatie afleiden van het te behalen doel.

Een klein voorbeeld: bij het analyseren van klanttevredenheid is het niet relevant om (in eerste instantie) te analyseren welke vragen via welk kanaal binnen komen. Zodra er aanwijzingen zijn dat klanttevredenheid correleert met het kanaal of type vraag, kan je gaan inzoomen op dit detailniveau, niet vooraf.

Dit klinkt gemakkelijker dan het is. Nu in de meeste organisaties een datateam aanwezig is, is een vraag eenvoudig gesteld. Maar doordat aan beide kanten (business en datateam) nog volop geoefend wordt met dataoplossingen, vindt het gesprek over de waarde van de vraag nog weinig plaats of vinden we het moeilijk om deze te beantwoorden. Omdat hier wel de sleutel tot succes ligt, voor zowel de busniess als het datateam, staat het datajaar 2023 in het teken van de waarde van de informatie, en daarmee van de waarde van de dataoplossing.

Van Doel naar Uitwerking

Het toewerken naar een dataoplossing vergt scherpte in wat je noodzakelijkerwijs moet weten om je doel te behalen. Daarna kan je de vraag beantwoorden wat je dan moet weten om het doel te behalen, om vervolgens tot een uitwerking te komen. Dit klinkt eenvoudig, maar is het niet. De drang om veel te willen is menselijk en hardnekkig. Start daarom met het definiëren van het doel of de opgave als business, eventueel met behulp van een business analist. Deze doelen zijn al snel groot en bestrijken meerdere subdoelen. De kunst is om hieruit één of twee subdoelen te kiezen met potentieel de hoogste waarde. Een kwalitatieve analyse is vaak al genoeg, al kan ook hier een kwantitatieve analyse bij helpen. Schrappen leidt tot focus en tot een betere doelgerichtheid.

Nu het subdoel is gekozen, ga je naar de vraag; wat moeten we weten om het doel te bereiken? Dit gaat óók om gegevens buiten data-analyse om. Wat zijn onze communicatiekanalen per onderwerp? Wat zijn factoren die klanttevredenheid beïnvloeden volgens de literatuur? Maar ook hier is het weer scherp zijn en schrappen wat niet of zeer beperkt bijdraagt aan het doel.

We weten nu wat we willen weten en kunnen naar de uitwerking. Het uitzoekwerk en het bouwen van de dataoplossing. De stappen tussen het bepalen van het doel naar een uitwerkingsstrategie kost minimaal enkele sessies, maar kan al snel oplopen tot 10 sessies. Dit kan vertragend aanvoelen, maar leidt tot scherpte in het bouwen en daarmee tot versnelling. Maar, nog veel belangrijker, leidt deze aanpak tot meer waarde (en daarmee gebruik) van het eindresultaat.

Een handige tool om bij dit proces te helpen is het ‘Datagedreven Innovatie Canvas’ (Vrije Universiteit Amsterdam – datcan.nl). Werk van rechts naar links en vervang de middelste kolom met de simpele vraag: wat willen we weten (om het doel te bereiken).

Ik wens je een mooi 2023 met veel waarde toevoegende dataoplossingen!

Meer weten?

Voor meer informatie kunt u contact opnemen met Tim van der Pol, adviseur bij Telengy, via tel. nr. 06 21 36 68 58 of via e-mail: t.v.d.pol@telengy.nl

 

 

 

Naar een volwassen dataorganisatie, maar waar naartoe?!

Lees het gehele artikel

Het eerste dashboard is opgeleverd, management wordt maandelijks gevoed met rapportages over de stand van zaken van enkele afdelingen. De eerste stappen naar datagedreven werken zijn gezet. Maar met elk dashboard en elke rapportage ontstaan er nieuwe vragen, en nog meer nieuwe behoeftes. De vraag overstijgt de capaciteit om te leveren. Het datateam loopt vast of management raakt gefrustreerd, want er waren gouden bergen beloofd.

Waar eerst een ad hoc organisatie voldeed, is nu structurele inbedding in de organisatie nodig voor datagedreven werken. Datagedreven werken betekent een organisatieverandering.

Maar hoe pak je dat aan? Waar sta je nu en waar werk je naar toe?

Voor de gemeente West Betuwe hebben we deze gap-analyse uit mogen voeren, met bijbehorende praktische handvatten om naar de gewenste dataorganisatie te komen. Hieronder leggen we uit hoe we dat doen. Ten slotte deelt de teamleider Sociaal Domein gemeente West Betuwe zijn ervaringen met het onderzoek en wat het de gemeente West Betuwe heeft opgeleverd.

Aanpak

Om de gemeente West Betuwe te helpen hebben wij ons onderzoek opgedeeld in drie delen:

  1. Het in kaart brengen van de opgaves en bijbehorende informatiebehoefte en daarmee vaststellen welk datavolwassenheidsniveau de dataorganisatie nodig heeft om in die behoefte te voorzien.
  2. Het huidige datavolwassenheidsniveau en stand van zaken bepalen.
  3. Uitzoeken wat er nodig is om naar het gewenste niveau te komen.

De benodigde informatie hebben wij opgevraagd en we hebben vervolgens interviews gehouden met o.a. de medewerkers met de beschreven rollen in onderstaand schema.

Datavolwassenheid ‘matchen’ met informatiebehoefte

Door middel van interviews en documenten bepalen we de informatiebehoefte. De informatiebehoefte halen we op door te kijken naar opgaves en welke informatiebehoefte daar globaal bij past. Deze bepaalt het ambitieniveau en daarmee het te bereiken doel op de datavolwassenheidsladder.

Hiervoor gebruiken we het datagroeimodel, dat is geïnspireerd op modellen van Gartner en Davenport. Uiteraard bepalen we ook het huidige niveau, dit doen we aan de hand van 5 categorieën:

  1. Waarde en gebruik van data.
  2. Beschikbaarheid van data.
  3. Kwaliteit en betrouwbaarheid van data.
  4. Eigenaarschap van data.
  5. Kwaliteit en vaardigheden van de medewerkers.

Dit geeft direct een concreter beeld waar de aandacht en energie op gericht kan worden om het gewenste resultaat te bereiken.

Dataorganisatie

Om een doorontwikkeling mogelijk te maken op de verschillende categorieën die het datavolwassenheidsniveau bepalen, kan de gemeente op verschillende plekken in de organisatie activiteiten uitvoeren. Hiermee zorg je voor een structurele verbetering van de dataorganisatie en samenhang tussen te onderdelen. Dit kan je ophangen aan het onderstaande raamwerk geïnspireerd op het model van het Ministerie van Justitie en Veiligheid voor de algehele dataorganisatie.

Inrichting datateam, intern en/of extern

Omdat datagedreven werken specialistische kennis vraagt, gebundeld in een datateam, wil je deze resources zo goed mogelijk inzetten in je organisatie. Dit kan door middel van een of meerdere centraal georganiseerde en/of decentraal georganiseerde datateam(s). Zelfs regionale samenwerking is hierin mogelijk. Afhankelijk van de wensen en voorkeuren op onderstaande punten, kan een ontwikkelscenario worden vormgegeven:

  • Mate van regie en flexibiliteit in de beantwoording van de informatiebehoefte.
  • Opzet en verdeling van de het datateam, beschikbaarheid van resources.
  • Mate van samenwerking om krachten, kennis en geld te bundelen.
  • Technische invulling (dataplatform).

De stelregel is hierbij: Hoe meer decentraal het datateam opereert, hoe meer regie de afdelingen hebben op de ontwikkeling van dataoplossingen en hoe meer het datateam gespecialiseerde kennis krijgt van een domein. Maar tegelijkertijd betekent dit ook, hoe meer decentraal, hoe duurder en/of kwetsbaarder het datateam wordt. Ook kennisuitwisseling wordt in veel gevallen minder optimaal bij decentrale teams. Het is per organisatie zoeken naar de juiste balans in combinatie met de ambities.

Ervaring gemeente West Betuwe

Teamleider Maatschappelijke Ontwikkeling Sociaal Domein Dolf Haank van de gemeente West Betuwe licht verder toe:

De beleidsafdeling van het Sociaal Domein van de gemeente West Betuwe heeft circa anderhalf jaar geleden besloten ‘datagedreven werken’ in te voeren. Het toenmalige doel was structureel een betere, op feiten gebaseerde analyse te kunnen maken op de kostenontwikkeling van het Sociaal Domein. Met behulp van partners werd een dashboard ontwikkeld waarin kostenontwikkeling op het gebied van vooral WMO en Jeugd in kaart werd gebracht. We wisten dat dit slechts een eerste stap was. Uiteindelijk wilden we een doorontwikkeling naar preventie, maar ook hadden we het idee dat het mogelijk zou moeten zijn om onze beleidseffecten te meten. En zelfs ook meer data onder onze beleidsontwikkeling te leggen. Toen onze data-analist een andere functie aanvaardde hebben we ervoor gekozen om niet zondermeer een vacature uit te zetten maar eerst een analyse te maken van waar we stonden, hoe we data gedreven werken meer gericht vorm konden geven. We wilden weten wat daarvoor nodig was, wat realistisch was. Pas daarna wilden we een nieuwe functie data-analist inkaderen en omschrijven. Zelf hadden we als middelgrote gemeente daarvoor niet de expertise in huis. Daarom hebben we Telengy gevraagd dit voor ons te doen.

Telengy heeft dit onderzoek voor ons uitgevoerd. Het viel ons op dat Telengy dit onderzoek kleinschalig kortdurend en toch gedegen wist uit te voeren. Niet alleen werd verkend wat de situatie en behoefte was van de gemeente, maar deze werd ook bekeken in relatie tot onze netwerken zoals bijvoorbeeld de intergemeentelijke bedrijfsvoering organisatie.

Opvallend was dat Telengy niet wilde opschrijven wat we wilden horen, maar vooral wat we moesten horen.

Onze ambities werden afgezet tegen gezond realisme. Zo werd ons aanbevolen deze ontwikkeling in een gemeentelijk beleidskader te plaatsen, dus los te komen van ‘alleen’ het Sociaal Domein. Telengy heeft van daaruit een aantal scenario’s voorgelegd met een beeld van de daaraan verbonden keuzes en organisatorische consequenties. Ons begrippenkader werd aangescherpt; ons beeld van de kwaliteit van data werd daardoor verscherpt.  Het rapport werd eerst met de managers besproken en daarna afgerond. Dit rapport is daarna met de directie besproken die tot de conclusie kwam dat dit helpend én passend was voor de gemeentebrede ontwikkeling op het gebied van datagedreven werken. Het onderzoek en rapport is met belangstelling ontvangen door onze partners; Zo zijn we in staat meer gericht met hen af te stemmen en door te ontwikkelen. Waarbij het nog steeds mogelijk is eigen keuzes te maken.

Kortom: dit onderzoek heeft ons veel opgeleverd, niet zozeer in de eindsituatie maar vooral ten behoeve van een gerichte doorontwikkeling.

Meer weten?

Voor meer informatie kunt u contact opnemen met Roel Ottens, 06 50 43 15 77, r.ottens@telengy.nl,  of Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.