We weten niet
welke data we eigenlijk hebben
In deze vierde blog van de serie over succes factoren gaan we het hebben over welke data in jouw systemen aanwezig zijn. Of beter gezegd: data waarvan je waarschijnlijk niet weet dat deze er is.
Madelon is al aan de slag gegaan met het DataHub platform en begint met het aansluiten van de eerste applicatie. Maar nu ze naar de lijst van rapportages kijkt die uit de inventarisatieronde kwam, beseft ze dat ze eigenlijk niet weet welke data er überhaupt in hun applicatielandschap zit. Hoe krijgt ze makkelijk en snel voor elkaar hoe hun applicaties in elkaar zitten? En wat wordt er nu allemaal vastgelegd?
Je leest het antwoord in deze blog. Laten we beginnen…
Private AI voor het documenteren van je bron
“Kan je mij documentatie aanleveren hoe deze applicatie in elkaar zit?”, vraagt Madelon aan Martijn van de IT afdeling. “Hoe bedoel je? Wil je weten hoe de processen lopen of hoe de architectuur eruitziet? Of ben je op zoek naar het datamodel?”. “Tja, dat is best een goede reactie”, denkt Madelon. Er is zoveel kennelijk mogelijk, maar wat ik eigenlijk nodig heb is gewoon een inzicht welke data wordt vastgelegd en hoe deze gestructureerd is.
De reden waarom Madelon op zoek is naar deze documentatie kwam naar voren uit een van de gesprekken die ze had met Erik van Logistiek. Hij had daadwerkelijk een laadproces geprogrammeerd dat alle data uit het logistieke systeem gehaald. Ieder dag weer.
“Maar waarom haal je alle data op? Waarom niet gewoon alleen wat je nodig hebt?”, vroeg Madelon.
“Tja, ik wist helemaal niet wat er allemaal was dus heb ik gewoon alles gekopieerd en ben ik daarna maar gaan uitzoeken wat ik wil gebruiken”, zei Erik.
“Maar dat is toch veel te veel? Over hoeveel data hebben we het? En dat doe je iedere dag?”
“Ja, het is eigenlijk ook erg veel. Wel 70 miljoen rijen per dag en het blijft maar groeien. Ik heb weleens meegemaakt dat ons logistiek systeem niet meer werkte omdat ik het overdag probeerde door te laden. Toen hebben we bijna anderhalf uur eruit gelegen”.
“Maar dat is een directe impact op onze kernproces en belofte aan onze klant. Je bent toch met mij eens dat dit niet wenselijk is?”.
Madelon is oprecht verbaasd dat dit de manier van werken is en dat dit kennelijk allemaal mag.
“Ik ben het helemaal met je eens, maar ik moet ook wat”, zegt Erik. “Ik probeer gewoon zo goed mogelijk mij werk te doen”.
“Ja dat begrijp ik, maar dit is niet houdbaar. Sowieso hebben we een security risico want je hebt alles op je eigen laptop geprogrammeerd. Als deze op straat komt te liggen zijn we niet alleen concurrentiegevoelige data kwijt, maar zijn we direct aansprakelijk voor een datalek omdat al onze klantgegevens eraan gekoppeld zijn. Dat levert ons een mogelijke boete voor de AVG op”, concludeert Madelon.
Later die dag spreekt ze Peter en vertelt hem wat ze heeft ontdekt. “Waarom hebben we niet gewoon een beschrijving van de data in de applicaties?”, vraagt Peter.
“Dat heb ik geprobeerd te achterhalen, maar zowel ons IT team als de leveranciers hebben maar beperkt dingen beschikbaar. Vaak veel te technisch en vrijwel altijd out of date. Dus daar hebben we niet zoveel aan. En omdat we regelmatig nieuwe features toevoegen, is het vrijwel onmogelijk om dit voor alle applicaties centraal bij te houden”, zegt Madelon.
“Kan je aan het Fortezza team niet vragen of zij een oplossing hebben hiervoor?”, vraagt Peter.
Diezelfde dag neemt Madelon contact op met een van de Fortezza specialisten en hoort dat ze hier al een framework voor hebben klaar staan. Ze hoort dat het DataHub platform een bron kan uitlezen en in Jip-en Janneke taal automatisch kan documenteren. Als kers op de taart wordt dit allemaal in een soort Wiki pagina beschikbaar gesteld die door iedereen ingezien kan worden.
Met behulp van een private AI model wordt automatisch alle benodigde pagina`s aangemaakt en zelf code die in de bron aanwezig is ontrafeld en vastgelegd.
Dit is wat Madelon nodig had. Samen met de Fortezza specialist bepalen ze hoeveel tabellen er zijn en welke gedocumenteerd moeten worden. Het was al snel vrij duidelijk dat van de ruim 4.000 tabellen er eigenlijk maar 65 echt relevant waren voor de eerste rapportages. Dus dat scheelde al enorm in de doorlooptijd en lezen van deze automatische documentatie.
“En?”, vroeg Peter. “Al verder gekomen met de documentatie?”.
“Jazeker, en het zal je verbazen dat we alles in een paar dagen voor elkaar hadden. Het AI documentatie framework hebben we de eerste versie neer laten zetten en nu kunnen we zelf bepalen hoe vaak we dit willen laten updaten”, zegt Madelon.
“Wow, dat is echt een gamechanger zeg. Zit dit gewoon in dat starterspakket van ze?”.
“Yep, en het is allemaal binnen ons eigen domein dus geen enkele data wordt naar buiten gebracht waar we geen controle over hebben. Dit heeft ons zo niet weken of maanden tijd bespaart”, zegt Madelon.
“En kunnen we dit dan ook voor de andere bronnen inzetten?”.
“Jazeker, die voegen we dan toe aan de configuratie tabellen in het framework en de volgende run gaat die automatisch mee. Kijk hier zie je de uitkomst van de Wiki pagina`s die al gemaakt zijn”.
Samen kijken Peter en Madelon tevreden naar de Wiki pagina`s die zijn gemaakt. Alles staat erin, van algemene beschrijvingen van tabellen, tot aan hoe code in elkaar zit en wat het doet. Zonder dat je een technische graad hoeft te hebben in programmeren, iets wat Peter prachtig vindt omdat hij ondernemer is en geen programmeur.
Ga verder met deel 5
De eerste data wordt aankomende week in de platform ingeladen. Met spanning kijkt Madelon uit naar de eerste resultaten. Hoe makkelijk kan Erik nu zijn rapportages wel niet maken? Alles staat klaar om hem echt veel tijd te besparen.
Maar al snel ontdekt ze dat de data toch niet zo goed in elkaar zit als ze dacht. Het levert een nieuw probleem op dat opgelost moet worden.