Over deze freelancer
Hoi, mijn naam is Francesco 31 jaar.
Ik ben een ervaren cloud-, DevOps- en data engineer met een sterke achtergrond in operationele en justitiële IT-omgevingen. In mijn werk richt ik mij op het bouwen en verbeteren van robuuste, geautomatiseerde oplossingen voor informatiestromen en platformen die betrouwbaar, veilig en toekomstbestendig moeten zijn.
Mijn kracht ligt in het combineren van technische diepgang met een pragmatische aanpak. Ik werk graag vanuit bestaande architecturen en kaders, waarin ik verantwoordelijkheid neem voor het analyseren van vraagstukken, het uitwerken van technische oplossingen en het realiseren daarvan in samenwerking met andere specialisten. Daarbij ben ik gewend om transparant te communiceren over voortgang, keuzes en risico’s.
Ik heb ervaring met cloud- en platformengineering, CI/CD, infrastructuur als code en data-verwerking in productieomgevingen. Ik haal energie uit het automatiseren van processen, het verbeteren van stabiliteit en het stap voor stap professionaliseren van datagedreven werken binnen organisaties met maatschappelijke impact.
Ik werk gestructureerd, integer en teamgericht, en voel mij het meest op mijn plek in omgevingen waar techniek direct bijdraagt aan continuïteit, betrouwbaarheid en besluitvorming.
Opleiding
Werk & Ervaring
Binnen de Justitiële Informatiedienst ben ik verantwoordelijk voor release- en platformbeheer binnen een operationele, justitiële omgeving met hoge eisen aan beschikbaarheid, veiligheid en continuïteit. Mijn werkzaamheden bestaan uit het plannen en coördineren van ontwikkel-, acceptatie- en productie-releases en het gecontroleerd uitrollen van nieuwe versies zonder downtime. Hiervoor heb ik CI/CD-pipelines ingericht en beheerd, waaronder blue/green- en canary-deployments. Daarnaast ben ik verantwoordelijk voor het beheer van berichtenverkeer en integratiecomponenten (Axway), inclusief monitoring en performance-tests. Ik zorg voor versiebeheer en het bijhouden van changelogs, zodat wijzigingen traceerbaar en beheersbaar blijven. Op platformniveau werk ik met Kubernetes (Rancher) en ben ik betrokken bij clusterbeheer, waaronder nodes, namespaces, RBAC en netwerkpolicies. Ik heb autoscaling- en self-healing-mechanismen geïmplementeerd en ben verantwoordelijk voor het plannen en automatiseren van upgrades en security-patches. Verder beheer ik lifecycle-aspecten zoals data-retentie en reclaim-policy’s (retain vs. delete), waarbij ik rekening houd met compliance, stabiliteit en operationele impact. In deze rol werk ik nauw samen met ontwikkelteams en andere specialisten binnen een DevOps-context.
Bij Leppink Automatisering heb ik een on-premise monitoringoplossing opgezet voor klantomgevingen, waarbij ik verantwoordelijk was voor het verzamelen, structureren en beschikbaar maken van relevante infrastructuurdata. Op basis van analyse heb ik bepaald welke data gemonitord moest worden en hoe deze data betrouwbaar kon worden ontsloten. Met Zabbix heb ik automatische triggers ingericht en monitoringdata via API-koppelingen doorgezet naar een centraal systeem. De verzamelde datastromen werden opgeslagen in een database binnen een kleinschalige R&D-omgeving. Deze omgeving maakte het mogelijk om monitoringdata te analyseren en te gebruiken voor het verbeteren van stabiliteit, performance en efficiëntie van de infrastructuur bij klanten. Hiermee heb ik bijgedragen aan datagedreven optimalisatie van operationele IT-omgevingen.
Bij PCI Nederland heb ik brede ervaring opgedaan binnen cloud-, platform- en data-gerelateerde IT-trajecten. Ik heb klanten ondersteund bij het migreren van on-premise infrastructuren naar Microsoft Azure en was actief betrokken bij het analyseren, plannen en uitvoeren van deze migraties. Binnen een project voor een BI-servicesorganisatie heb ik de technische lead gehad bij het consolideren van een recent overgenomen Azure-tenant naar de hoofdorganisatie. Hierbij heb ik zowel de Azure-omgeving als de volledige Azure DevOps-organisatie gemigreerd, inclusief scrum boards, repositories, pipelines, release pipelines, artifacts en agent pools. Daarnaast heb ik een centrale rol gespeeld in het migreren van een Azure Data Lake naar Azure Data Factory, waarbij bestaande datastromen zijn heringericht en gestandaardiseerd. Voor deze trajecten heb ik intensief gebruikgemaakt van Infrastructure as Code met Terraform en ondersteunende tooling zoals Naked Agility. Voor configuraties die niet volledig via IaC te automatiseren waren, heb ik PowerShell ingezet om consistente en reproduceerbare configuraties te realiseren. Tevens heb ik ruime ervaring opgedaan met het inrichten, herstellen en beheren van Identity & Access Management binnen Azure-omgevingen. In deze rol werkte ik nauw samen met verschillende stakeholders en teams en nam ik verantwoordelijkheid voor het technisch correct, veilig en beheersbaar opleveren van cloud- en dataplatformoplossingen.
Als Data Engineer binnen het Data Analytics team van Rabobank heb ik een centrale rol gespeeld in het ontwerpen, bouwen en beheren van het dataplatform waarop tientallen teams dagelijks vertrouwen. Ik heb end-to-end data pipelines ontworpen en geïmplementeerd met Azure Data Factory, Databricks (PySpark) en Delta Lake, waarmee ruwe brondata werd omgezet in hoogwaardige, gevalideerde datasets die direct inzetbaar waren voor analytics, machine learning en rapportages. Daarnaast heb ik het R&D-platform vanaf de grond opgebouwd. Een veilige sandbox omgeving waarin developers en data engineers konden experimenteren met gevoelige productiegegevens, zonder risico voor de operationele omgeving. Ik heb de CI/CD-buildstraat in Azure DevOps volledig geautomatiseerd, inclusief integratie met Terraform, Databricks-jobs en Python-scripts, waardoor de doorlooptijd van deployments met meer dan 70% werd verkort. Met Terraform heb ik complexe infrastructuren als code gedefinieerd (VM’s, Databricks-workspaces, storage accounts, Key Vaults, netwerkcomponenten), en met Python heb ik herbruikbare modules ontwikkeld voor data quality checks, monitoring, lineage en metadata management. Daarnaast heb ik technische documentatie en onboarding guides geschreven, zodat teams binnen de bank zelfstandig hun data pipelines konden uitrollen, monitoren en beheren. Mijn werk droeg direct bij aan het professionaliseren van de data-engineering discipline binnen Rabobank, door DevOps-principes, automatisering en schaalbare cloudarchitectuur structureel in te voeren.
Certificeringen
Portfolio
Reviews
-
Locatie Enschede
-
Categorie Techniek & EngineeringDevelopment & IT
-
Geverifieerd Email
-
Lid Sinds 20-01-2026