Auteursarchief: Tim van der Pol

Waardecreatie met data – kom van je stoel en stap samen in de keuken! 

Lees het gehele artikel

Het is een illusie dat een datateam bij voorbaat een heerlijk datagerecht voor je gaat bereiden. Sterker, het is maar de vraag of er überhaupt een gerecht uit die keuken gaat komen.  

Samen met Monique van der Stappen, teammanager informatiemanagement gemeente Hoeksche Waard, pleiten wij ervoor om samen de keuken in te stappen. Het datateam met de business. Waarom? Dat gaan we uitleggen aan de hand van de praktijkervaring van de gemeente Hoeksche Waard. 

Monique is de bedenker van de datadag ‘Hoe eet jij je data’ waar gemeenten elkaar inspireren hoe je nóg meer waarde uit data kan halen. Om in het thema van ‘Hoe eet jij je data’ te blijven, stappen we vandaag in de datakeuken. Laat het je smaken. 

Betrokkenheid business?

Sinds 2020 is de gemeente Hoeksche Waard actief bezig om op basis van data beter onderbouwde keuzes te maken, wat direct en indirect moet leiden tot verhoogde maatschappelijke waarde. Dit heeft geleid tot tal van data-initiatieven en evenveel dashboards. Ieder dashboard is met evenveel passie en liefde gemaakt, maar toch zien we dat het gebruik ervan zeer wisselend is. Zie het als een buffet waar sommige schalen onaangeroerd blijven en andere volledig zijn opgediend. Na drie jaar ervaring kunnen we zeggen dat dit enorme verschil terug te brengen is naar een simpel gegeven: was de business actief betrokken bij zowel de totstandkoming, als bij het in gebruik nemen van het eindproduct (zoals een dashboard of rapportage)?   

Voorwaarden toekomstig gebruik

Door de business te betrekken bij de totstandkoming creëer je drie voorwaarden die belangrijk zijn voor toekomstig gebruik:   

  1. Bestaande afspraken en definities worden met de business vertaald tot datadefinities. Hiermee sluit het eindproduct goed aan op de praktijk van de business en snapt de business hoe deze tot stand zijn gekomen.
  2. De business kan actief feedback geven op de vorm van het eindproduct. Vooraf gestelde vereisten kunnen hiermee worden getoetst en zelfs worden aangescherpt. Pas als je met de data aan de slag gaat, zie je pas echt wat er mogelijk is en wat je wil.
  3. Je leidt je toekomstige ambassadeurs en vraagbakens van je eindproduct op. Zij kunnen het product het beste ‘verkopen’ op de werkvloer. Tenslotte hebben zij al de meerwaarde gezien en mede vormgegeven.

Betrokken business bij dataproduct

Die laatste is gelijk ook het bruggetje naar het belang van een zeer betrokken business bij het in gebruik nemen. Waarom is dit belangrijk, naast het aan de man brengen van het product?  

  1. Een actief betrokken business bepaalt direct bij ingebruikname aan welke tafels welke inzichten gebruikt worden en onder welke condities (KPI’s) afwijkingen besproken of geanalyseerd moeten worden. 
  2. Sturing op datakwaliteit kan alleen bereikt worden als de business hier actief op gaat sturen. En slechte datakwaliteit leidt tot slecht gebruik van een dataproduct. Zie hier de reden waarom de business actief betrokken moet worden om de datakwaliteit te borgen. 

Deze inzichten komen rechtstreeks uit de praktijk en maken of breken een dataproduct. Dus wil je écht waarde creëren met data, stuur dan mét de business op deze 5 punten. Succes is dan (bijna zeker) gegarandeerd. Heerlijke gerechten zullen zo uit de datakeuken opgediend kunnen worden! 

Meer weten?

Voor meer informatie kun je contact opnemen met Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.

Democratisering van data 

Lees het gehele artikel

Democratisering van data? Gaat de data dan naar de stembus? Of betekent het dat data toegankelijk wordt voor burgers? En belangrijker nog: wat moet je er mee als organisatie? 

Het democratiseren van data betekent het toegankelijk en analyseerbaar maken voor een zo breed mogelijke doelgroep binnen een organisatie en eventueel zelfs buiten de organisatie (bijv. inwoners of belangengroepen). Ongeacht de functie of technische vaardigheden. Je kan dit tweeledig zien:

  1. Als doel van een organisatie om dit te bewerkstelligen.
  2. Als geleidelijke (steeds sneller gaande) trend in de datawereld waarin technologische middelen zo makkelijk toegankelijk en bruikbaar worden, waardoor de drempel om met data aan de slag te gaan steeds lager wordt.

In dit artikel staan we enerzijds stil bij de technologische trend en anderzijds de aspecten waar je rekening mee moet houden als je data eenvoudiger toegankelijk en analyseerbaar maakt binnen de organisatie.  

Technologische ontwikkeling

Datagedreven werken is niets nieuws. Toch zijn organisaties er in steeds grotere mate mee bezig. Dit komt doordat er meer data beschikbaar is, maar zeker ook omdat de technologische ontwikkeling de drempel om aan de slag te gaan lager maakt. Op het gebied van dataplatforms zijn Snowflake en Databricks goede voorbeelden waarmee veel infrastructurele hobbels worden weggenomen. Data hoeft hierdoor niet meer van de ene naar de andere oplossing verplaatst te worden en weer terug, om data te modelleren en te combineren. De kosten voor onderhoud en ontwikkeling worden hiermee gedrukt. 

Recentelijk is daar Microsoft Fabric bijgekomen waarmee zelfs een dataplatform als Software as a Service (SaaS) wordt aangeboden. Deze ontwikkelingen gaan gepaard met steeds verdergaande versimpeling van integraties en het zogenoemde ‘low-coding’ principe. Hiermee kan met klikken en slepen complete datapijplijnen en scripts ontwikkeld worden. Voeg hier de laatste ontwikkeling van generatieve AI aan toe (in Fabric Copilot genoemd), en je ziet hoe laagdrempelig het is geworden om met data aan de slag te gaan. 

Dataorganisatie nóg belangrijker

Doordat data zo laagdrempelig toegankelijk wordt en steeds meer mensen hun eigen oplossingen kunnen ontwikkelen, wordt het belang van datamanagement en datageletterdheid steeds groter. We zullen uitleggen waarom.

Als steeds meer mensen in de organisatie hun eigen oplossingen kunnen ontwikkelen of antwoorden uit de data kunnen halen, is het van belang dat dit op een consistente manier gebeurd. Anders krijg je de onwenselijke situatie dat iedereen andere datasets gebruikt voor eenzelfde soort vraagstuk, met telkens andere antwoorden. Ook qua efficiëntie laat dit veel te wensen over. Enkele van de vele vragen die beantwoord moeten worden zijn:  

  1. Wie mag welke tooling gebruiken? 
  2. Wie krijgt toegang tot welke geprepareerde dataset? 
  3. Hoe gebruiken we dezelfde datadefinities voor hetzelfde begrip? 
  4. Hoe gaan we om met de uitkomsten? Laten we deze altijd (de)centraal toetsen?

Datageletterdheid

Daarnaast is datageletterdheid van cruciaal belang bij verdere democratisering van de data. Datageletterdheid gaat over het goed om gaan met (de uitkomsten van) de data. Het juist interpreteren en de juiste conclusies maken van grafieken en tabellen. Daarnaast is het herkennen van misleidende of ongepaste manieren van datagebruik net zo belangrijk. Des te meer iemand met data kan doen (berekeningen doorvoeren, eigen dashboards maken), des te meer kennis er nodig is van data om de juiste analyses te kunnen maken. Het democratiseren van data brengt daardoor een steeds groter risico op foutief gebruik van data met zich mee. En daarmee is dit een cruciaal stuk in de organisatorische puzzel die gelegd moet worden bij de implementatie van nieuwe technologieën die democratisering van data mogelijk maken. 

Meer weten?

Voor meer informatie kun je contact opnemen met Han de Ridder, 06 81 75 07 29, h.d.ridder@telengy.nl of Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.

Data-opleiding Telengy

Lees het gehele artikel

Telengy adviseert steeds meer gemeenten en andere decentrale overheden over het gebruik van data en dataoplossingen. Het is een significant onderdeel geworden van de informatievoorziening binnen de overheid. Twaalf adviseurs bundelen de krachten om hun kennis en vaardigheden uit te breiden op dit gebied. Zij startten hiervoor met een data-opleiding waarin de basisonderwerpen van werken met data aan bod komen. Een opleiding die adviseurs kennis meegeeft van zowel de technische als de organisatorische kant van datagedreven werken.

De opleiding

De opleiding is opgebouwd uit drie dagen op verschillende inspirerende locaties in het land.

Dag 1: organisatie en randvoorwaarden

De organisatie en randvoorwaarden om duurzaam datagedreven te werken. Vragen die we hier beantwoorden met elkaar zijn o.a.:

  • Hoe bepaal je het datavolwassenheidsniveau van een organisatie?
  • Welke rollen heeft een datateam?
  • Welke positie krijgt het datateam in een organisatie?
  • Welke informatie heb je nodig voordat een dataproject kan starten?
  • Wat zijn typische dataproject structuren en processen?
  • Welke rol heeft het bestuur?

Dag 2: datatechnologie

Een dataoplossing kan heel complex zijn opgebouwd of bestaan uit simpele Excel bestanden. Een organisatie moet bepalen op welke wijze datatechnologie ingericht en ingepast wordt in het huidige landschap. Data-engineers en -scientists van Aurai nemen de groep mee in het opzetten van een datapipeline en bijbehorende instrumenten en terminologieën. Na deze dag kan elke adviseur een goed gesprek voeren over de technologie en begrijpen adviseurs wat er nodig is voor welke dataoplossing en datavolwassenheidsniveau.

Dag 3: governance, datamanagement, privacy en ethiek

Op welke wijze stuurt en begeleidt een organisatie datagedreven werken? Governance, datamanagement, privacy en ethiek staan centraal. In een ochtend wordt door Ronald Baan het DAMA-DMBOK raamwerk toegelicht en in de middag de wijze waarop data- en computerscience gebruikt wordt om organisaties te helpen vanuit JADS.

Resultaat

De groep adviseurs en projectleiders die hebben deelgenomen hebben nu specifieke kennis op het gebied van data. Hiermee zijn zij een goede gesprekspartner op het gebied van data voor zowel de bedrijfsvoering van een organisatie, denk hierbij aan het inrichten van de dataorganisatie of het ophalen van de informatiebehoefte, als het informatisering en automatisering domein dit kan gaan over het aanbesteden van een dataplatform of het ontwerpen van een datapipeline.

De werkgroep blijft actief binnen Telengy. De NL dataweek staat al in de agenda en er zijn vervolgsessies gepland om kennis verder uit te diepen.

Meer weten?

Veel onderdelen van de dataopleiding worden ook gebruikt in de Leergang Informatie en Innovatie. Mocht je meer willen weten over datagedreven werken bij Telengy of wil je datatgedreven werken in jouw organisatie agenderen, dan vernemen wij dit graag. Voor meer informatie kunt u contact opnemen met Roel Ottens, 06 50 43 15 77, r.ottens@telengy.nl,  of Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.

 

Uitstel Omgevingswet – brieven bouwen, tijd besparen

Lees het gehele artikel

Brieven schrijven, het leukste wat er is!? Zeker niet als je meerdere keren per week dezelfde brief de deur uit moet doen, met telkens kleine aanpassingen op basis van de casus die voorligt. Dat is bij de Omgevingswet niet anders. Met het uitstel van de Omgevingswet is het een perfect moment om de sjablonen in de VTH-applicatie onder de loep te nemen. Maar hoe pak je dit slim aan?

 

Tim van der Pol,expert KennisCentrumOmgevingswet.nl en Telengy-adviseur  beschrijftUitstel Omgevingswet – brieven bouwen, tijd besparen.

Datagedreven werken in 2023: het draait om waarde

Lees het gehele artikel

Kennis is macht. Een bekende zinsnede uit het werk van Thomas Hobbes en veel gebruikt in het programma ‘Wie is de Mol?’. In een programma als ‘Wie is de Mol?’ zijn op het oog nutteloze feitjes als wie stond naast wie in opdracht x mogelijk goud waard, doordat antwoord op dit soort vragen je een ticket naar de volgende ronde kunnen bezorgen. In een organisatie gaat deze vlag niet op en kan het verzamelen van alle beschikbare informatie afleiden van het te behalen doel.

Een klein voorbeeld: bij het analyseren van klanttevredenheid is het niet relevant om (in eerste instantie) te analyseren welke vragen via welk kanaal binnen komen. Zodra er aanwijzingen zijn dat klanttevredenheid correleert met het kanaal of type vraag, kan je gaan inzoomen op dit detailniveau, niet vooraf.

Dit klinkt gemakkelijker dan het is. Nu in de meeste organisaties een datateam aanwezig is, is een vraag eenvoudig gesteld. Maar doordat aan beide kanten (business en datateam) nog volop geoefend wordt met dataoplossingen, vindt het gesprek over de waarde van de vraag nog weinig plaats of vinden we het moeilijk om deze te beantwoorden. Omdat hier wel de sleutel tot succes ligt, voor zowel de busniess als het datateam, staat het datajaar 2023 in het teken van de waarde van de informatie, en daarmee van de waarde van de dataoplossing.

Van Doel naar Uitwerking

Het toewerken naar een dataoplossing vergt scherpte in wat je noodzakelijkerwijs moet weten om je doel te behalen. Daarna kan je de vraag beantwoorden wat je dan moet weten om het doel te behalen, om vervolgens tot een uitwerking te komen. Dit klinkt eenvoudig, maar is het niet. De drang om veel te willen is menselijk en hardnekkig. Start daarom met het definiëren van het doel of de opgave als business, eventueel met behulp van een business analist. Deze doelen zijn al snel groot en bestrijken meerdere subdoelen. De kunst is om hieruit één of twee subdoelen te kiezen met potentieel de hoogste waarde. Een kwalitatieve analyse is vaak al genoeg, al kan ook hier een kwantitatieve analyse bij helpen. Schrappen leidt tot focus en tot een betere doelgerichtheid.

Nu het subdoel is gekozen, ga je naar de vraag; wat moeten we weten om het doel te bereiken? Dit gaat óók om gegevens buiten data-analyse om. Wat zijn onze communicatiekanalen per onderwerp? Wat zijn factoren die klanttevredenheid beïnvloeden volgens de literatuur? Maar ook hier is het weer scherp zijn en schrappen wat niet of zeer beperkt bijdraagt aan het doel.

We weten nu wat we willen weten en kunnen naar de uitwerking. Het uitzoekwerk en het bouwen van de dataoplossing. De stappen tussen het bepalen van het doel naar een uitwerkingsstrategie kost minimaal enkele sessies, maar kan al snel oplopen tot 10 sessies. Dit kan vertragend aanvoelen, maar leidt tot scherpte in het bouwen en daarmee tot versnelling. Maar, nog veel belangrijker, leidt deze aanpak tot meer waarde (en daarmee gebruik) van het eindresultaat.

Een handige tool om bij dit proces te helpen is het ‘Datagedreven Innovatie Canvas’ (Vrije Universiteit Amsterdam – datcan.nl). Werk van rechts naar links en vervang de middelste kolom met de simpele vraag: wat willen we weten (om het doel te bereiken).

Ik wens je een mooi 2023 met veel waarde toevoegende dataoplossingen!

Meer weten?

Voor meer informatie kunt u contact opnemen met Tim van der Pol, adviseur bij Telengy, via tel. nr. 06 21 36 68 58 of via e-mail: t.v.d.pol@telengy.nl

 

 

 

Naar een volwassen dataorganisatie, maar waar naartoe?!

Lees het gehele artikel

Het eerste dashboard is opgeleverd, management wordt maandelijks gevoed met rapportages over de stand van zaken van enkele afdelingen. De eerste stappen naar datagedreven werken zijn gezet. Maar met elk dashboard en elke rapportage ontstaan er nieuwe vragen, en nog meer nieuwe behoeftes. De vraag overstijgt de capaciteit om te leveren. Het datateam loopt vast of management raakt gefrustreerd, want er waren gouden bergen beloofd.

Waar eerst een ad hoc organisatie voldeed, is nu structurele inbedding in de organisatie nodig voor datagedreven werken. Datagedreven werken betekent een organisatieverandering.

Maar hoe pak je dat aan? Waar sta je nu en waar werk je naar toe?

Voor de gemeente West Betuwe hebben we deze gap-analyse uit mogen voeren, met bijbehorende praktische handvatten om naar de gewenste dataorganisatie te komen. Hieronder leggen we uit hoe we dat doen. Ten slotte deelt de teamleider Sociaal Domein gemeente West Betuwe zijn ervaringen met het onderzoek en wat het de gemeente West Betuwe heeft opgeleverd.

Aanpak

Om de gemeente West Betuwe te helpen hebben wij ons onderzoek opgedeeld in drie delen:

  1. Het in kaart brengen van de opgaves en bijbehorende informatiebehoefte en daarmee vaststellen welk datavolwassenheidsniveau de dataorganisatie nodig heeft om in die behoefte te voorzien.
  2. Het huidige datavolwassenheidsniveau en stand van zaken bepalen.
  3. Uitzoeken wat er nodig is om naar het gewenste niveau te komen.

De benodigde informatie hebben wij opgevraagd en we hebben vervolgens interviews gehouden met o.a. de medewerkers met de beschreven rollen in onderstaand schema.

Datavolwassenheid ‘matchen’ met informatiebehoefte

Door middel van interviews en documenten bepalen we de informatiebehoefte. De informatiebehoefte halen we op door te kijken naar opgaves en welke informatiebehoefte daar globaal bij past. Deze bepaalt het ambitieniveau en daarmee het te bereiken doel op de datavolwassenheidsladder.

Hiervoor gebruiken we het datagroeimodel, dat is geïnspireerd op modellen van Gartner en Davenport. Uiteraard bepalen we ook het huidige niveau, dit doen we aan de hand van 5 categorieën:

  1. Waarde en gebruik van data.
  2. Beschikbaarheid van data.
  3. Kwaliteit en betrouwbaarheid van data.
  4. Eigenaarschap van data.
  5. Kwaliteit en vaardigheden van de medewerkers.

Dit geeft direct een concreter beeld waar de aandacht en energie op gericht kan worden om het gewenste resultaat te bereiken.

Dataorganisatie

Om een doorontwikkeling mogelijk te maken op de verschillende categorieën die het datavolwassenheidsniveau bepalen, kan de gemeente op verschillende plekken in de organisatie activiteiten uitvoeren. Hiermee zorg je voor een structurele verbetering van de dataorganisatie en samenhang tussen te onderdelen. Dit kan je ophangen aan het onderstaande raamwerk geïnspireerd op het model van het Ministerie van Justitie en Veiligheid voor de algehele dataorganisatie.

Inrichting datateam, intern en/of extern

Omdat datagedreven werken specialistische kennis vraagt, gebundeld in een datateam, wil je deze resources zo goed mogelijk inzetten in je organisatie. Dit kan door middel van een of meerdere centraal georganiseerde en/of decentraal georganiseerde datateam(s). Zelfs regionale samenwerking is hierin mogelijk. Afhankelijk van de wensen en voorkeuren op onderstaande punten, kan een ontwikkelscenario worden vormgegeven:

  • Mate van regie en flexibiliteit in de beantwoording van de informatiebehoefte.
  • Opzet en verdeling van de het datateam, beschikbaarheid van resources.
  • Mate van samenwerking om krachten, kennis en geld te bundelen.
  • Technische invulling (dataplatform).

De stelregel is hierbij: Hoe meer decentraal het datateam opereert, hoe meer regie de afdelingen hebben op de ontwikkeling van dataoplossingen en hoe meer het datateam gespecialiseerde kennis krijgt van een domein. Maar tegelijkertijd betekent dit ook, hoe meer decentraal, hoe duurder en/of kwetsbaarder het datateam wordt. Ook kennisuitwisseling wordt in veel gevallen minder optimaal bij decentrale teams. Het is per organisatie zoeken naar de juiste balans in combinatie met de ambities.

Ervaring gemeente West Betuwe

Teamleider Maatschappelijke Ontwikkeling Sociaal Domein Dolf Haank van de gemeente West Betuwe licht verder toe:

De beleidsafdeling van het Sociaal Domein van de gemeente West Betuwe heeft circa anderhalf jaar geleden besloten ‘datagedreven werken’ in te voeren. Het toenmalige doel was structureel een betere, op feiten gebaseerde analyse te kunnen maken op de kostenontwikkeling van het Sociaal Domein. Met behulp van partners werd een dashboard ontwikkeld waarin kostenontwikkeling op het gebied van vooral WMO en Jeugd in kaart werd gebracht. We wisten dat dit slechts een eerste stap was. Uiteindelijk wilden we een doorontwikkeling naar preventie, maar ook hadden we het idee dat het mogelijk zou moeten zijn om onze beleidseffecten te meten. En zelfs ook meer data onder onze beleidsontwikkeling te leggen. Toen onze data-analist een andere functie aanvaardde hebben we ervoor gekozen om niet zondermeer een vacature uit te zetten maar eerst een analyse te maken van waar we stonden, hoe we data gedreven werken meer gericht vorm konden geven. We wilden weten wat daarvoor nodig was, wat realistisch was. Pas daarna wilden we een nieuwe functie data-analist inkaderen en omschrijven. Zelf hadden we als middelgrote gemeente daarvoor niet de expertise in huis. Daarom hebben we Telengy gevraagd dit voor ons te doen.

Telengy heeft dit onderzoek voor ons uitgevoerd. Het viel ons op dat Telengy dit onderzoek kleinschalig kortdurend en toch gedegen wist uit te voeren. Niet alleen werd verkend wat de situatie en behoefte was van de gemeente, maar deze werd ook bekeken in relatie tot onze netwerken zoals bijvoorbeeld de intergemeentelijke bedrijfsvoering organisatie.

Opvallend was dat Telengy niet wilde opschrijven wat we wilden horen, maar vooral wat we moesten horen.

Onze ambities werden afgezet tegen gezond realisme. Zo werd ons aanbevolen deze ontwikkeling in een gemeentelijk beleidskader te plaatsen, dus los te komen van ‘alleen’ het Sociaal Domein. Telengy heeft van daaruit een aantal scenario’s voorgelegd met een beeld van de daaraan verbonden keuzes en organisatorische consequenties. Ons begrippenkader werd aangescherpt; ons beeld van de kwaliteit van data werd daardoor verscherpt.  Het rapport werd eerst met de managers besproken en daarna afgerond. Dit rapport is daarna met de directie besproken die tot de conclusie kwam dat dit helpend én passend was voor de gemeentebrede ontwikkeling op het gebied van datagedreven werken. Het onderzoek en rapport is met belangstelling ontvangen door onze partners; Zo zijn we in staat meer gericht met hen af te stemmen en door te ontwikkelen. Waarbij het nog steeds mogelijk is eigen keuzes te maken.

Kortom: dit onderzoek heeft ons veel opgeleverd, niet zozeer in de eindsituatie maar vooral ten behoeve van een gerichte doorontwikkeling.

Meer weten?

Voor meer informatie kunt u contact opnemen met Roel Ottens, 06 50 43 15 77, r.ottens@telengy.nl,  of Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.

 

 

 

 

 

De eerste stappen naar datagovernance

Lees het gehele artikel

Om goed datagedreven te kunnen werken is het nodig dat gemeentelijke data structureel domeinoverstijgend beschikbaar zijn en deze verrijkt worden met databronnen van ketenorganisaties en openbare bronnen. Structureel werken met data kan alleen wanneer de data vindbaar, toegankelijk, betrouwbaar en integer zijn. Dit zorgt voor een zodanig kwalitatief niveau dat de eindgebruiker/vakspecialist de juiste conclusies kan trekken uit de resultaten.

Het is een vereiste dat gegevens juist zijn en er maatregelen worden genomen om bijvoorbeeld persoonsgegevens die onjuist zijn meteen te wissen of te rectificeren. Dit betekent dat medewerkers bewust moeten zijn van hun taak en getraind moeten worden wat waar ingevoerd hoort te worden in systemen. Nu rijst de vraag: hoe pak je dat structureel aan?

Inrichting datagovernance

Dit wordt geregeld door de inrichting van de datagovernance. Een breed begrip met veel taken en verantwoordelijkheden. Geïnspireerd op het model van Raj Grover geven wij vier pijlers waarmee een gemeente kan beginnen met datagovernance.

 

Datamanagement

Datamanagement heeft als doel om ervoor te zorgen dat de aanwezige data compleet, betrouwbaar en op tijd beschikbaar is voor toepassingen die van die data gebruik maken. Om een passende beveiliging, kwaliteit en toegang tot gegevens te ontwikkelen en te waarborgen is een data architectuur handig. Hierin worden diverse modellen ontwikkeld om de ‘datalaag’ te duiden: informatiemodel, gegevensmodel, datamodel, meta datamodel.

De integratie en synchronisatie van data zorgen voor een goede toegankelijkheid van de data voor de gehele gemeente. De invulling hiervan zorgt mede voor eenduidige definities (bijv. van begrippen als beschikking, verlenging, of ambulante zorg). En geeft een vertaling van deze begrippen in de codering in alle lagen van je dataopslag, zodat data op alle plaatsen op een eenduidige manier wordt gepresenteerd.

Procesmanagement

Maak als organisatie afspraken op welke wijze data wordt geregistreerd in de systemen. Wanneer deze afspraken worden vastgelegd in een ontwerp, kunnen datagedreven ontwikkelaars, zoals data-analisten ervan uitgaan welke kolommen op welke manier zijn gevuld. Daarnaast kan er gemonitord worden of er uniform gewerkt wordt en dezelfde definities in de gemeente worden gebruikt. Door het monitoren en evalueren van dit proces kan er efficiënter en effectiever gewerkt worden.

Compliance management

Compliance management is het borgen dat alle medewerkers in de organisatie handelen naar de afgesproken standaarden, processen en de wetgeving (BIO en de AVG). Waardoor risico’s geminimaliseerd worden. Dit is al gedeeltelijk geformaliseerd binnen gemeenten door de wettelijke aanstelling van een Chief Information Officer en een Functionaris Gegevensbescherming. Daarnaast kan het aanstellen van een datasteward verstandig zijn. Deze persoon kan afspraken maken, teams opleiden en het proces rondom data monitoren en waar nodig bewaken.

Mensen management

Mensen management gaat over de wijze waarop operationeel, tactisch en strategisch rollen zich tot elkaar verhouden en wie verantwoordelijk is voor de data binnen de gemeente. Dit gaat ook over welke rollen verantwoordelijk zijn op het sturen van het consequent en kwalitatief registreren van data. Degene die monitort en controleert zou geen formele eigenaar moeten zijn. Dit valt te vergelijken met hoe informatiebeveiliging en privacy worden ingevuld. Eigenaarschap en verantwoordelijkheid voor data(bronnen) blijft een heikel punt binnen gemeenten.

Conclusie

Wil je als gemeente aan de slag gaan, start dan met kleine projecten die overzicht creëren in een (sub)systeem. Dit geeft helderheid in de huidige stand van zaken en maakt verbeterslagen praktisch en behapbaar. Op deze wijze maak je een begin met het systeem dat datagovernance heet.

Meer weten?

Voor meer informatie kunt u contact opnemen met Roel Ottens, 06 50 43 15 77, r.ottens@telengy.nl,  of Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl.

Inbedden datagedreven werken in 2022: Gewoon doen

Lees het gehele artikel

Het begrip ‘datagedreven werken’ zingt in elke overheidsorganisatie rond. De laatste jaren is er steeds meer invulling gegeven aan wat dit begrip nu daadwerkelijk inhoudt. Door middel van pilots, proeftuinen, datalabs en andere vormen om een start te maken, zijn organisaties aan de slag gegaan met dataprojecten. 2022 staat daarom in het teken van structurele inbedding van datagedreven werken in de organisatie.

Inzicht door aan de slag te gaan

Bij de Data Week NL 2021 in Den Bosch waren tal van concrete resultaten te zien van dataprojecten. De verscheidenheid aan thema’s, waaronder duurzaamheid, mobiliteit, waterbeheer en sociaal domein, laat ook zien dat datagedreven werken een generiek instrument aan het worden is. Het aan de slag gaan geeft inzicht in het volwassenheidsniveau van de organisatie op verschillende onderdelen. Dit is onafhankelijk van het type dataproject (rapporteren, monitoren of voorspellen – afbeelding 1). Het gaat er daarom niet om waarmee je aan de slag gaat, maar dát je aan de slag gaat.

Afbeelding 1

Van pilots naar structurele inbedding

Afgelopen jaren zijn vele organisaties tal van proefprojecten gestart. Dit heeft tot veel inzicht geleid. Op allerlei niveaus wordt er nu invulling gegeven om het uit de ‘pilot-sfeer’ te halen, en voor structurele inbedding te zorgen. Zo heeft het Ministerie van Binnenlandse Zaken samen met de lokale overheden de ‘Interbestuurlijke Datastrategie Nederland’ ontwikkeld, wat in 2022 praktische invulling moet krijgen. Maar ook lokale overheden zijn de match aan het maken tussen ambitie (afbeelding 1) en huidig volwassenheidsniveau (afbeelding 2).

Afbeelding 2

De match tussen de gewenste situatie en huidige situatie is (uiteraard) een continu proces. Wel is de overstap van pilot-fase naar borging in de organisatie een van de grootste hordes om te nemen. Als organisatie ga je van ad hoc projecten, naar een constante stroom aan dataprojecten en -vragen. Een nieuwe structuur is nodig om vraag en aanbod goed op elkaar aan te sluiten. Denk hier aan het adopteren van bijvoorbeeld de agile methodiek en hoe je het datateam positioneert. Als aparte unit of als onderdeel van de afdelingen? Daarnaast zijn in de pilotfase de randvoorwaarden meestal anders ingevuld. Zo is er vaak (veel) externe kennis nodig en is ook regelmatig de techniek uitbesteed. Dit hoeft voor de structuurovergang geen probleem te zijn, maar het is wel verstandig om dit vooraf goed te overwegen. Welke kennis ga je in huis halen (datateam rollen) en is die kennis beschikbaar op de markt (veel vraag op dit moment, weinig aanbod)? En hoe ga je de komende drie à vier jaar dataprojecten technisch faciliteren?

Opgaves in dataproject en rolverdeling

Om goed antwoord te geven op bovenstaande vragen, kan het helpen je antwoorden te plotten op onderstaand afbeelding 3, waarin globaal de opgaves binnen een dataproject zijn beschreven, gecentreerd rondom het vraagstuk waaraan het dataproject een bijdrage moet leveren.

Afbeelding 3

In afbeelding 4 zijn de rollen binnen een datateam beschreven vanuit het ICTU rapport over de Chief Data Officer. Deze rollen zijn zeer divers en praktisch onmogelijk om allemaal in te vullen in een gemiddelde organisatie. Het combineren van rollen is noodzakelijk, op zo’n manier dat alle vijf lijnen in afbeedling 3 geborgd zijn door één of twee rollen (de interactie tussen rollen). Eenzelfde acquisitie kan je doen voor de techniek. Organisaties ervaren dat de ad hoc technische structuur vanuit de pilots vaak niet meer voldoet om de constante stroom aan vragen te beantwoorden. De focus ligt hier op de drie onderste ‘bollen’ en de verbindingen daartussen (de datakant): dataverzameling en begrip, modelleren en dataproject resultaat. Welke tool ga je waarvoor inzetten en haal je dat in huis (eventueel in samenwerking met partnerorganisaties om kosten te besparen) of besteed je dit uit (eventueel met bijbehorende functies).

Daarnaast heeft mijn collega Roel Ottens een interessant stuk geschreven over het neerzetten van een datagedreven organisatie.

Afbeelding 4

Figuur 4, Rollen in Data Science Team (bron: rapport Chief Data Officer – ICTU)

Meer weten?

Hoe dan ook, datagedreven werken is al een tijdje onder ons en zal onder ons blijven. 2022 is het jaar om deze ontwikkeling te gaan inbedden in de organisatie. Maar bovenal niet anders dan andere jaren, is 2022 weer een jaar van GEWOON DOEN.

Voor meer informatie kunt u contact opnemen met Tim van der Pol, adviseur bij Telengy, via tel. nr. 06 21 36 68 58 of via e-mail: t.v.d.pol@telengy.nl

 

 

 

 

 

 

 

Datagedreven werken – Een kwestie van gewoon doen!

Lees het gehele artikel

Vele uren en dagen zwoegen met als resultaat een net niet werkend voorspelmodel, hoe erg is dat? Vooral flink balen, maar zeker geen verspilde tijd. De lessen die je persoonlijk en als organisatie leert zijn minstens zo waardevol als de uitkomst van het project. Werken met data is vooral een kwestie van doen, of het gaat om het maken van een rapportage, dashboard of voorspelmodel.

Geen verklaring voor afwijking

Bij mijn net afgeronde project om de declaraties bij gemeenten op jeugdzorg en Wmo te voorspellen, was dit niet anders. In mijn vorige blog beschreef ik de noodzaak voor vele gemeenten om in november/december inzicht te krijgen in hoeveel ze dat jaar nog aan declaraties binnenkrijgen (vaak nog enkele miljoenen). Kort samengevat ben ik hierin een heel eind gekomen, maar voorspelt het model circa 2% te weinig uitgaven. Zoals je in onderstaand figuur kan zien, zitten bijna alle voorspellingen onder de (zwarte) baseline die de daadwerkelijke uitgave voorstelt. Op een uitzondering na, zijn bijna alle voorspellingen (1000x) te laag. Zonder verklaring voor deze afwijking is het model niet goed bruikbaar. Als je niet weet waarom je afwijkt, kan je namelijk ook geen voorspelling doen op de afwijking. Een volgende keer kan de afwijking dan 0% of 10% procent zijn, zonder dat je dit weet (het blijft een voorspelling van de toekomst die je niet weet). Het fundament moet dus een bepaalde mate van voorspelbaarheid hebben, die nu dus ontbreekt. De puntenwolk hieronder zou dus netjes om zwarte lijn moeten liggen, om een bruikbaar model te hebben.

Inzicht in aard van data

Natuurlijk is er teleurstelling dat het voorspelmodel gemeenten niet direct kan helpen (al zal het zeker wel een goede indicatie geven). Maar als je met een dergelijk voorspelmodel (trede 3 in model van figuur 1) aan de slag gaat, doe je vele inzichten op over de aard van je data. Deze inzichten zijn te gebruiken voor rapportages (trede 1) en monitoring/dashboards (trede 2). Zo kwam ik erachter dat er een groot verschil zit in declaratiegedrag tussen jeugdzorg en Wmo, maar ook tussen productcategorieën (type zorg). Kortweg betekent dit dat de ene beschikking met een waarde van €100.000,- de ander niet is (op de een wordt waarschijnlijk bijvoorbeeld maar 30% uitgegeven en op de ander waarschijnlijk 90%). Dit soort inzichten zijn erg waardevol voor de business. Hierop ontstaan vragen voor beleid en uitvoering: Moeten we anders gaan beschikken bij bepaalde zorgtypen? Kunnen we andere financiële ramingen hierop maken? Presteren sommige zorgaanbieders beter dan anderen?

Figuur 1

Een toelichting van het bovenstaande groeimodel vind je hier.

Groei als organisatie

De grootste winst binnen een dataproject zit niet eens op de groei in kennis van je data, maar op groei als organisatie. In een half jaar dat mijn project heeft gelopen, zijn er zo veel inzichten gekomen. Inzichten in processen binnen de keten van onderzoek, valkuilen binnen dataprojecten en de mogelijkheden (en vooral ook onmogelijkheden) met datavoorspellingen. Kennis die je enkel vergaart door te gaan doen. Iedere organisatie op zijn eigen niveau, maar leg de lat vooral niet te laag. Een voorspelmodel zorgt voor versnelling van de niveaus daaronder. Andersom geldt ook rapportages en dashboards verstevigen het fundament van betrouwbare voorspelmodellen en versnelt de doorlooptijd van een project. Kortom, ga aan de slag!

Meer weten?

Voor meer informatie kunt u contact opnemen met Tim van der Pol, adviseur bij Telengy, via tel. nr. 06 21 36 68 58 of via e-mail: t.v.d.pol@telengy.nl.

Datagedreven Werken – Verandering en datakwaliteit 

Lees het gehele artikel

Aansluiting behoefte en data 

Net voor Kerst viel het besluit om een deel van mijn werk weg te gooien en opnieuw te beginnen. In mijn vorige blog ging ik in op de aansluiting tussen data en de behoefte uit de organisatie. Het bleek dat de betrouwbaarheid van het model (een geschatte 10% foutmarge) een gemeente niet het benodigde houvast geeft om te kunnen sturen. In de gesprekken die ik met gemeenten voerde kwam er steevast een ander onderwerp op tafel: Gaan we wel binnen ons budget blijven voor Wmo en jeugdzorg? In november en ook december was hier grote onduidelijkheid over bij veel gemeenten, en tot op de dag van vandaag is er onzekerheid. En daar was mijn benodigde haakje voor een zinvol dataproject. Kort door te bocht wordt daarmee de onderzoeksvraag: hoeveel aan declaraties jeugdzorg en Wmo (Zorg in Natura) gaan we de komende maanden nog binnenkrijgen (via het berichtenverkeer)?   

Eenvoudige vraag? 

In het verleden heb ik deze vraag vaker gehoord, en telkens bleek het een hele lastige vraag. Je verwacht dat de beschikte zorg tot een bepaalde financiële verplichting leidt, die als goede indicator werkt voor te verwachten declaraties. De praktijk is weerbarstiger. Ik kwam in mijn zoektocht veel beschikkingen tegen waar nog geen 10% van de verplichting was benut, tot aan de volle benutting. Dit gegeven is de basis van het te ontwikkelen model geworden.  Zonder te veel in detail te gaan (ik ga graag hierover bij interesse met je over in gesprek) komt het neer op de volgende vraag: wat zijn nu goede indicatoren om te voorspellen wat per beschikking/indicatie de uitnutting van de verplichting gaat worden? Hiermee kan via machine learningmodellen berekend worden wat het te verwachten bedrag aan declaraties gaat worden voor die beschikking en daarmee voor het hele jaar.   

Datakwaliteit / Datapreparatie 

Vol energie ben ik de kerstvakantie aan de slag gegaan met deze vraag. Al snel kwam een oude bekende kwaal waar ik eerder over schreef om de hoek kijken; datakwaliteit. Betalingen die niet aan cliënt te relateren zijn, of juist besluiten waar nooit een betaling op plaats heeft gevonden, en prijzen van zorgproducten die niet in het systeem staan. Keuzes om te maken zijn dan of verwijderen van de record, of ‘schatten’ wat de correcte waarde zou moeten zijn, of met veel pijn en moeite de juiste waardes op gaan speuren. Alle drie de methodieken heb ik moeten gebruiken om het datamodel op te tuigen.   

Datakwaliteit issues tackelen zijn onderdeel van een dataproject, maar de mate waarin het voor komt betekent veel voor de schaalbaarheid van je model. Kortweg komt het op het volgende neer: kan ik het model met nieuwe data zonder (grote) aanpassingen draaiend krijgen of houden? Datakwaliteit is daarmee niet enkel een issue voor de tijd die in het ontwikkelen van een model gaat zitten. Het kan betekenen dat je analyses in de toekomst te kostbaar worden om uit te voeren; de tijd om je berekening opnieuw uit te voeren kost te veel tijd, waardoor je deze niet (frequent) uit gaat voeren.  

Dit doet me eens te meer beseffen dat bij registratieissues in je applicatie het op lange termijn loont om dit niet quick en dirty te doen, maar grondig en gedegen, om latere data-analyses te vergemakkelijken en te automatiseren. 

Waarheen leidt de weg? 

Binnenkort kom ik weer terug met een update waar ik verder tegenaan ben gelopen en hoe ik deze zo goed en zo kwaad als dat gaat overkom. Wil je een keer een gesprek over hoe je hier zelf of als organisatie mee aan de slag kan gaan, benader me dan vooral voor een (digitaal) koffiemoment.  

Meer weten?

Voor meer informatie kunt u contact opnemen met Tim van der Pol, adviseur bij Telengy, via tel. nr. 06 21 36 68 58 of via e-mail: t.v.d.pol@telengy.nl

 

 

 

  

Data Gedreven Werken – De valkuilen waarin ik trap

Lees het gehele artikel

Jeugdzorg Voorspelmodel

Gemeenten en datagedreven werken is een combinatie die in de kinderschoenen staat. Het overgrote deel van de gemeenten (circa 300) wordt gezien als starter[1]. Zelf sta ik ook aan een nieuw leertraject, sinds september volg ik aan de Jheronimus Academy of Data Science (JADS) een opleiding in Data Science. Tijdens deze opleiding ontwikkel ik een voorspelmodel jeugdzorg. Via deze terugkerende blog neem ik jullie mee in mijn leerschool in de (on)zin van datagedreven werken en de valkuilen waar ik ongetwijfeld in zal stappen.

Model voor data-projecten

Het CRISP-DM model[2] vormt een theoretisch, maar ook praktisch kader voor een dataproject (figuur 1). Aan de hand van dit model zal ik de komende maanden een dataproject doorlopen. Het doel hiervan is gemeenten inzicht te geven wat de verwachte groei of afname wordt van het aantal jeugdhulptrajecten de komende jaren.

Figuur 1 CRISP-DM model voor dataprojecten

Mismatch tussen behoefte en uitkomst

Wat mij gelijk opvalt bij de visualisatie van het CRISP-DM model is de centraliteit van de data in het figuur. Uiteraard is een dataproject niets zonder data. De verleiding is daarmee groot om de data leidend te laten zijn voor een project. De data bepaalt dan welke vraag beantwoord wordt, terwijl de behoefte van de business (in dit geval de gemeente) altijd centraal moet staan in een project. Deze mismatch tussen behoefte en uitkomst is dan ook een veelvoorkomende reden waarom dataprojecten niet slagen.[3] Het inrichten van een datawarehouse en de data marts, zonder concrete datavraagstukken voor ogen, zie ik regelmatig gebeuren. Soms moet de gehele inrichting opnieuw gedaan worden, omdat met de data marts (= subsets van data vanuit het datawarehouse voor analyse) de businessvragen niet beantwoord kunnen worden.

Het klinkt zo voor de hand liggend: een geslaagd dataproject beantwoordt aan de vraag vanuit de business. De praktijk is dus blijkbaar weerbarstiger.

Afbakening grip op jeugdzorg

Neem mijn project als voorbeeld. Gemeenten worstelen met tekorten op de begroting, waarvan de meeste uitgaven in het sociaal domein zitten.[4] Grip op het sociaal domein en specifiek de jeugdzorg is een behoefte die groot is.[5] Maar grip op sociaal domein is geen praktisch dataproject. Ook de afbakening grip op jeugdzorg is nog vele malen te groot. Hoe maak je een dataproject behapbaar, wat de kans op slagen vergroot[6], zonder de businessbehoefte uit het oog te verliezen? De vraag aan welke beleidsknoppen kan gedraaid worden met welk mogelijk financieel resultaat klinkt dan al veel praktischer (en wenselijk!). Deze vraag blijkt dan weer te ambitieus. Bij het volwassenheidsmodel van Gartner zitten we dan gelijk op de hoogste analytische trede van een dataproject (figuur 2). Dit is nog te ambitieus voor mij, en voor gemeenten waarschijnlijk ook, die voornamelijk op het laagste niveau van dit model zitten[1].

Figuur 2 Gartner’s Data Science Volwassenheidsmodel

Al snel wordt de verleiding dan groot om aan de hand van de data de scope van de vraag te gaan bepalen. Ik denk dat dit in veel gevallen niet verkeerd is, maar afstemming of dit de vraag is die aan de behoefte voldoet is dan wel cruciaal. Steek dus veel tijd in het pingpongen tussen het gedeelte business doorgronding (understanding) en data doorgronding (understanding) uit het CRISP-DM model. Op basis van deze ping-pongsessies waarbij behoefte, scope en beschikbaarheid aan data zijn besproken, is voorlopig de volgende vraag geformuleerd voor het dataproject: Hoeveel jeugdzorgtrajecten zorg in natura (ZIN) zijn er te verwachten per wijk en per jaar (t/m 2023).

Suggesties voor onderzoeksvraag?

Ik noem het bewust een voorlopige onderzoeksvraag, omdat met inzichten in het vervolg van de cyclus deze vraag met enige zekerheid aan verandering onderhevig zal zijn. Daarom kom ik graag met je in contact als je suggesties hebt voor aanscherping van het project, andere invalshoeken hebt/kent of interesse hebt om dit bij je gemeente uit te voeren.

De komende maanden zal ik jullie meenemen in mijn ontdekkingstocht, waarbij ik hopelijk niet over een half jaar schrijf: ik had mezelf nog zo gewaarschuwd om niet in die valkuil te trappen, maar toch….

Meer weten?

Voor meer informatie kunt u contact opnemen met Tim van der Pol, adviseur bij Telengy, via tel. nr.  06 21 36 68 58 of via e-mail: t.v.d.pol@telengy.nl.

 

[1] VNG Rapport – Opschaling Datagedreven Werken (september 2020)

[2] CRISP-DM (Cross-industry standard process for data mining) – https://www.the-modeling-agency.com/crisp-dm.pdf

[3] https://towardsdatascience.com/why-data-science-projects-fail-revisited-85fe242c3931

[4] https://www.binnenlandsbestuur.nl/financien/nieuws/tekort-gemeenten-minstens-1-miljard-euro.12993839.lynkx 

[5] https://www.binnenlandsbestuur.nl/Uploads/2020/3/visitatiecommissie-financiele-beheersbaarheid-20200316.pdf

[6] https://www.gartner.com/en/newsroom/press-releases/2018-02-13-gartner-says-nearly-half-of-cios-are-planning-to-deploy-artificial-intelligence

Persoonsgebonden Budgetten: bent u klaar voor de wijzigingen in 2020? 

Lees het gehele artikel

In 2020 gaat de manier van informatie-uitwisseling voor PGB op de schop. Doel van het nieuwe systeem is betere ondersteuning voor de PGB-gebruiker (budgethouder en zorgverlener), het verhogen van de rechtmatigheid en het verlagen van de uitvoeringskosten. En daarnaast een efficiëntere afhandeling van dossiers, beter inzicht in de verschillende zorgfuncties en geautomatiseerde controles (om zodoende onrechtmatige handelingen te voorkomen) voor gemeenten. Deze verandering raakt niet alleen uw administratie, maar vraagt ook om beleidskeuzes.  

PGB 2.0

De officiële planning gaat uit van een invoering van PGB 2.0 in 2021. Gemeenten zullen in 2020 gefaseerd overgaan op het nieuwe systeem. Deze overgang vraagt meer van gemeenten dan enkel wat technische aanpassingen via de applicatiebeheerder, namelijk: 

  • maken van beleidskeuzes; 
  • aanpassen van werkprocessen; 
  • actief informeren van budgethouders; 
  • (een aanbeveling is ook het) herbeoordelen van vertegenwoordigers budgethouders.  

Beleidskeuzes

Door invoering van PGB 2.0 kan de gemeente het PGBbudget beschikken op zorgfunctieniveau (type zorg) en hierop controleren. Dit kan een handig middel zijn om te sturen op effectieve zorginzet en verantwoording richting de Raad. Het is aan gemeenten om te kiezen of zij hier de meerwaarde van zien of een algemeen PGB-budget beschikken. Andere beleidskeuzes die gemaakt moeten worden zijn: 

  • Mag de zorgverlener reiskosten declareren op het toegekende budget?
  • Mogen bijkomende zorgkosten zoals cursussen of entreegeld gedeclareerd worden?
  • Is een feestdagenuitkering onderdeel van het pgb-budget?
  • Is een vast maandloon als pgb-uitkering toegestaan?
  • Mag na overlijden nog tijdelijk de hulpverlening worden uitbetaald (overlijdensuitkering)?

Een andere keuze die vóór conversie naar PGB 2.0 gemaakt moet worden, is of vertegenwoordigers van budgethouders opnieuw gecontroleerd dienen te worden. In het bestaande PGB-systeem controleren gemeenten de vertegenwoordigers, maar kunnen budgethouders achteraf zonder controle dit aanpassen bij de SVB. In het nieuwe systeem valt deze achterdeur weg, waardoor naar verwachting een grote oorzaak van PGB-fraude weggenomen wordt. Een goede screening vooraf op vertegenwoordigers (met name bij risicogroepen; vertegenwoordiging bij volmacht en ouders) lijkt daardoor aan te raden.  

Aandachtspunten voor uitvoering en realisatie

Monitoring en toetsing

Als de gemeente beleid kiest om op zorgfunctie-niveau te beschikken, is het belangrijk om dit actief te monitoren. Vanuit de SVB krijgt de gemeente maandelijks een signaal als op een zorgfunctie overbesteding plaatsvindt. Dit kan ook in PGB 2.0 nog plaatsvinden, omdat de SVB enkel controleert of er voldoende budget in totaal is (dus over de zorgfuncties heen). Dit om ruimte te bieden aan de budgethouder om zorg flexibel over de maanden in te zetten. Het is aan de gemeente wat met deze signalen gedaan wordt en wie hierop controleert. Kies dus bewust of enkel op rechtmatigheid of ook op doelmatigheid getoetst wordt.   

Ondersteuning software

Het is zeer belangrijk dat de gemeente voor de invoering controleert of de softwareleverancier al klaar is voor de overgang. Ondersteunt de applicatie berichtenverkeer iPGB 2.0 om zo berichten aan de SVB aan te leveren? En is er een inputveld in de software om de vertegenwoordiging te registreren? 

Voordat de organisatie overgaat naar het PGB 2.0platform, wordt eerst een proefconversie uitgevoerd om te controleren of alle informatie van het oude systeem (PGB 1.0, het huidige SVBportaal) goed overgaat naar het nieuwe platform. Als er geen afwijkingen zijn, kan een definitieve conversie over naar het nieuwe systeem.    

Externe communicatie

  • Budgethouders 

Uiteraard is het bij de overgang van belang dat budgethouders geïnformeerd worden. De VNG heeft hier standaardbrieven voor beschikbaar en raadt aan om deze 6 én 3 weken voor de overgang te verzenden.  

Wanneer beleidskeuzes (negatieve) financiële gevolgen hebben voor budgethouders dan moet de gemeente rekening houden met een redelijke overgangstermijn.  Bespreek dit met de juridisch adviseur. 

Vanaf de invoering is de gemeente het eerste aanspreekpunt voor  inwoners over PGB. Bij technische vragen over het PGB 2.0systeem en vragen over de arbeidsrechtelijke toets en werkgeverstaken kunnen toegangsmedewerkers warm doorverbinden richting de SVB. Alle andere vragen zijn voor de gemeente om te beantwoorden. 

  • Partners 

Het is ook zeer zinvol om diverse samenwerkingspartners te informeren. Denk bijvoorbeeld aan de onafhankelijke cliëntondersteuner, andere verwijzers binnen de Jeugdzorg zoals de huisartsen en de partners waarmee de gemeente samenwerkt. Zij kunnen de inwoner ook voorzien van informatie en advies. 

Interne communicatie en afstemming

Door bovenstaande zaken dienen alle medewerkers die te maken hebben met het PGB geïnformeerd en geïnstrueerd te worden. Denk aan de toegangsmedewerkers en consulenten, de backoffice, communicatiemedewerkers (o.a. voor juiste informatie op de website), applicatiemedewerkers en afstemming tussen Jeugd- en Wmobeleidsmedewerkers en financiële medewerkers.  

Vragen of advies?

Wilt u meer weten, neem dan contact op met Tim van der Pol, 06 21 36 68 58, t.v.d.pol@telengy.nl of Femke de Vos, 06 52 58 57 08 of f.d.vos@telengy.nl.