Verslag DACE-contactbijeenkomst 13 maart 2025
18 maart 2025 om 09:38 0 reacties
DACE-contactbijeenkomst 13 maart 2025
AI, advanced analytics en software-driven insights
De eerste contactbijeenkomst van 2025 had als thema hoe allerlei nieuwe technologieën succesvol geïmplementeerd kunnen worden zodat beter voorspelbare projectresultaten en verdere kostenoptimalisaties mogelijk zijn. Het gaat dan om ontwikkelingen op het gebied van kunstmatige intelligentie, geavanceerde analyses en software-gedreven inzichten. Bij de juiste toepassing kunnen deze technieken de bedrijfspositie aanzienlijk verbeteren. Dat werd deze middag toegelicht door drie professionals die aan het front werken om deze technologieën te introduceren in het bedrijfsleven en graag hun ervaring in de praktijk wilden delen.
De nieuwe DACE-voorzitter Alex Rood opende de bijeenkomst en introduceerde zichzelf bij het publiek. Hij gaf aan het een enorme eer te vinden om de opvolger van de ervaren Robert de Vries te mogen zijn. Alex woont met vrouw en zoon in Alkmaar en is werkzaam als manager Inkoop en Contracten op het Pallas project.
Voordat hij het woord gaf aan de drie sprekers stond hij nog stil bij de nieuw uitgekomen editie van het prijzenboekje en de aanstaande lancering van de website hiervoor. Ook het cursusaanbod met hun data, het jaarverslag 2024 en de data van de volgende bijeenkomsten kwamen aan bod. De contactbijeenkomst van 19 juni aanstaande zal Contractmanagement als thema hebben.
Tenslotte haalde hij Jacqueline Schlagwein naar voren. Zij neemt afscheid als DACE-bestuurder en voorzitter van SIG GWW en Alex dankte haar hartelijk voor alle inzet in de afgelopen bijna 12 jaar; ze was een echte steunpilaar voor de organisatie. Jacqueline gaf aan haar taak altijd met veel plezier te hebben uitgevoerd en vond het na zoveel jaar weer tijd vers bloed en frisse ideeën, daarom draagt zij het stokje met veel vertrouwen over aan Sander Steenbergen.
Verder werd afscheid genomen van Marcel Volleberg, vice-voorzitter van de SIG GWW; ook hij werd hartelijk bedankt voor zijn inzet.
Succesvol werken met AI
De eerste presentatie werd gegeven door Frank Brussaard, manager technologie consultancy in de gezondheidszorgsector bij Accenture. Frank gaf aan dat AI bijna dagelijks in het nieuws is, met allerlei prachtige beloften en vergezichten en soms met angst bekeken wordt. Hij werkt dagelijks met AI en vertelde uit zijn eigen ervaring over de actuele technische stand van zaken, waar bedrijven en organisaties mee te maken hebben en hoe ze succesvol kunnen zijn met implementatie. Voordat hij dat deed stelde hij het publiek voor aan Bowie, zijn AI presentatie-assistent. Op vragen van Frank om deze kort te introduceren en om het publiek zelf te beschrijven gaf Bowie vlekkeloos antwoord. Een wat ingewikkelde vraag van Bowie vatte Frank kort samen met: Wie in het publiek werkt al met AI? Op die vraag gingen 10 vingers omhoog; niet zo veel gezien de volle zaal. Toen Bowie daarna Frank interrumpeerde met een opmerking als’ geweldig idee’, werd Bowie’s bijdrage beëindigd en ging Frank ouderwets verder in Powerpoint.
Daarbij begon hij met de vraag wat AI nu eigenlijk is: het voorzien van machines met ‘mensachtige’ intelligentie. In het begin ging dat om allerlei zelflerende technieken en tegenwoordig wordt gesproken over GenAI, generatieve AI. Om de ontwikkeling te duiden, onderscheidde Frank drie fasen in de ontwikkeling van AI. In de eerste fase betreft dat technieken als machine learning en neurale netwerken. Bij machine learning wordt een systeem ‘gevoed’ met allerlei data en op den duur kan een systeem dan antwoorden geven op vragen op basis van die aangereikte data. Met neurale netwerken of deep learning redeneert het systeem al meer als een mens en kunnen al wat moeilijker vragen worden gesteld.
In de tweede fase gaat het al een stap verder dan vragen stellen. Hierbij behoren mensachtige taken als observeren, begrijpen en uitvoeren. Zo zijn met computer vision toepassingen lekkages op te sporen, waarvoor goed observeren nodig is maar ook begrijpen/interpreteren wat er gebeurt.
In de derde fase kunnen systemen actief bijdragen aan verbetering van bedrijfsresultaten, met taken zoals inzicht geven, aanbevelingen doen, keuzes maken en suggesties doen. Inzicht kan bijvoorbeeld worden verkregen of een nieuw productkenmerk ook als goed wordt ervaren door de consument. Aanbevelingen kunnen worden gedaan die de personal trainer in de sportschool vervangt of verbetert; bij deze nieuwe gymoefeningen past een aanpassing van de proteïne shake. Een keuze kan worden gemaakt welke van de twee voorliggende marketing campagnes de beste is. En suggesties voor productverbetering kunnen worden gedaan.
De ontwikkeling van AI werd door Frank als volgt kort samengevat. Het begon met Beschrijving en Diagnosticering, bijvoorbeeld met antwoord op vragen als welke materialen worden gebruikt en wat komt vaker voor. Vervolgens komt Voorspelling en Voorschrijving, bijvoorbeeld door aan te geven dat op basis wat hier te zien is, dit advies wordt gegeven. Of door aan te geven: het contract wordt beter als deze clausule zo wordt veranderd. En nu zijn er Generatieve AI en Agents. Generatieve AI houdt in dat nieuwe content wordt gemaakt en met Agents wordt het werk van de mens verder overgenomen: de agent argumenteert, adviseert en maakt voorstellen.
Generatieve AI is een vorm van kunstmatige intelligentie die nieuwe content kan creëren op basis van patronen die het heeft geleerd. Dat betreft dan patronen zoals tekst, beeld/video, geluid, code of gestructureerde data. Dit wordt ondergebracht in het zogenoemde foundation model van de GenAI applicatie. Daaruit volgen dan de resultaten zoals antwoorden op vragen, samenvattingen, filmpjes, coding of andere nieuwe content. Bowie werkt ook met een foundation model, maar extra gevoed via de zogenoemde system prompt met zaken als: je moet je gedragen als een presentatie-assistent en DACE-informatie.
GenAI is kort samengevat het oude machine learning of deep learning, niet met de beperkte dataset waarmee de systemen destijds werden gevoed, maar met het hele internet als input. De resultaten van GenAI applicaties als ChatGPT en Perpetual zijn dan altijd de statistisch gemiddelden die te vinden zijn op het internet. Soms met goede, soms met minder goede antwoorden. Het foundation model levert daarbij de statistiek; via de system prompt is de eigen saus erover te gieten: wat wordt verwacht in het antwoord, welke rol aannemen. Om betere antwoorden te krijgen zal in die system prompt de vraag meermaals getweakt moeten worden. Daarom ook zijn vroege implementaties mogelijk niet perfect maar continu leren en aanpassen zijn de sleutel tot succes.
AI-toepassingen in Procurement
Vervolgens toonde Frank een recent onderzoek van Gartner met toepassingen van AI in verschillende sectoren. Voor procurement lagen de toepassingen volgens Gartner ook op specifieke onderdelen.
Frank diepte deze toepassingen uit en zag allereerst voordelen op het gebied van Advies. Aanbevelingen in sourcing strategieën en beheer van uitgaven. Welke leveranciers passen bijvoorbeeld bij een bepaalde bedrijfsvraag. Ook bij het creëren van nieuwe content is voordeel te halen, bij contractbeheer en bij de communicatie met leveranciers. Ook kan gevraagd worden een nieuw contract te creëren op basis van de contracten van de afgelopen 5 jaar met de vraag om de kosten te verlagen. Verder kan GenAI assisteren bij bijvoorbeeld benchmarking en identificatie van leveranciers. Ook kan GenAI ondersteunen bij het automatiseren van werkzaamheden zoals opschoning van stamgegevens en validatie van betalingen. Of bijvoorbeeld bij het rubriceren van veel binnengekomen mails. Tenslotte kan GenAI ondersteunen bij veiligheidskwesties, zoals risicodetectie- en beperking en naleving door leveranciers, maar ook met de bescherming van de eigen data, zoals de contracten van de afgelopen 5 jaar die als input worden gegeven.
Verdere potentie is er bijvoorbeeld op het gebied van supplier discovery; welke leveranciers in de wereld bestaan voor dit specifieke schroefje. Of wat betreft spot buying: ook hier kunnen de beste leverancier gezocht worden met criteria zoals servicecategorie en geografie.
Vervolgens ging Frank in op de vraag wat nodig is voor een succesvolle implementatie. Allereerst moet er een duidelijke visie zijn, de focus op hoe waarde kan worden toegevoegd. Wordt AI in isolement uitgevoerd of wordt op een breder platform gewerkt? Wordt gewerkt met deep learning of met GenAI? Daarbij is het ontwikkelen van waardevolle use cases van belang. Begin dus niet zomaar met iets en dan maar kijken waar dat uitkomt. Ook moet nagedacht worden over verantwoordelijke AI. De kennis uit AI moet bijvoorbeeld niet overal terechtkomen want niet alles is altijd waar wat in de resultaten te zien is. Daarom is ook upskilling van het team van belang; inclusief het trainen van de dagelijkse gebruikers. Nagedacht moet worden over de digital core van het bedrijf met de introductie van AI: gegevensbeheer, beveiliging, integratie. Waar staat de data en is deze daar veilig en wordt daarmee ook voldoende snelheid bereikt in de applicatie. Wordt gewerkt in de cloud? Tenslotte is aandacht voor change management nodig en dus ook het betrekken van afdelingen als Legal, HR en marketing.
Wat betreft de AI-risico’s stond Frank met name stil bij de bias-risico’s. In de gezondheidszorg bleek dat de applicaties gebaseerd waren op de problemen bij blanke mannen, omdat het systeem uitsluitend was gevoed met data uit die groep. Bij vrouwen zijn bijvoorbeeld andere verschijnselen bij in een infarct te zien. Bedenk ook de ecologische voetafdruk: AI-berekeningen kosten veel energie.
De persoonlijke lessons learned van Frank bij implementatie van AI zijn dat AI niet de silver bullet voor alle problemen is. Verder is alle verandering moeilijk in een bedrijf, ook deze omgang met AI. Manage daarom goed de verwachtingen, denk niet dat op dag 1 al resultaten zijn te zien; er moet getweakt worden. Ook met Bowie heeft Frank dat moeten doen. Bouw vertrouwen bij de mensen in het bedrijf, neem mensen mee in het verhaal en laat ook zien wat ‘achter de schermen’ gebeurt. En bepaal en bespreek ook gevolgen van en voor afdelingen als HR, Legal en marketing.
Advanced analytics
De tweede presentatie werd gegeven door Amit Bhat, manager afdeling Cognitive Analytics bij Fluor Nederland. Hij lichtte toe hoe geavanceerde analyse methodieken gebruikt kunnen worden om efficiëntere en beter voorspelbare resultaten te verkrijgen bij EPC-projecten.
Voorafgaand daaraan wilde Amit eerst in vogelvlucht ingaan op de mogelijkheden van nieuwe technologieën en op de nog zeer beperkte toepassing daarvan in de EPC-sector. Mogelijkheden voor nieuwe technologieën zijn er genoeg zo werd duidelijk. De toepassing van AI in Ontwerp-trajecten geeft goede mogelijkheden bijvoorbeeld voor clashdetectie, het optimaliseren van de design basis of het genereren van engineering deliverables. Robotica bijvoorbeeld in de vorm van Robodog wordt al ingezet bij quantity surveying and bij laser scanning. AR/VR (augmented reality, virtual reality) kan virtuele bouwplaatsen simuleren die bijdragen aan grotere veiligheid. Training van werknemers kan daarmee veel efficiënter dan met traditionele systemen worden uitgevoerd. VR en digital twins geven mogelijkheden voor troubleshooting en beoordeling van de gedetailleerde planning voor start van de constructie. En zo zijn er nog legio nieuwe technologie toepassingen te benoemen.
Toch is de digitalisering in de constructie sector uitzonderlijk laag. In een overzicht van McKinsey staat deze net boven de landbouw/jacht en nog beneden de hospitality sector. In andere cijfers is te zien dat de productiviteitsgroei van de constructie sector jarenlang ver beneden het gemiddelde van een economie ligt, ook al een indicatie dat weinig verbeteringen worden geïntroduceerd. Als reden worden ondermeer aangevoerd een gebrek aan digitale skills en de hoge kosten van digitale technologieën.
Om te begrijpen hoe hier verbetering aan te brengen, moet goed worden begrepen dat digitalisering van een bedrijf een inspanning vergt van vele jaren en vele miljoenen. Vaak is het moeilijk de toegevoegde waarde te benadrukken, inclusief de return-on-investment. Wezenlijk van belang is om de key stakeholders te overtuigen door de voordelen te tonen die digitale transformatie kan bieden. Daarbij moet goed begrepen worden dat, anders dan bij andere productiebedrijven waar R&D een wezenlijk onderdeel is om in een competitieve markt te overleven, de focus en prioriteit in EPC-bedrijven juist ligt op de uitvoering van multi-year, multi-milion euro projecten. Omdat een van de werkelijk tastbare voordelen van digitalisering de waardecreatie via data-analyse is, ligt hier de beste ingang om digitalisering te starten. De gefaseerde opbouw en implementatie van geavanceerde analyse methodieken, geeft de mogelijkheid om incrementeel de toegevoegde waarde te laten zien en zo incrementeel de digitale infrastructuur op te bouwen. Een EPC-bedrijf kan starten met datastandaardisatie en met digitale integratie van een aantal core projectsystemen en daarbij enkele geavanceerde analyse methodieken voor de EPC-lifecyle ontwikkelen. Dat ondersteunt en verbetert de bestaande projectuitvoering en geeft op data gebaseerde beslissingen en kan dienen als ondersteuning van de Proof of Concept voor verdere ontwikkeling.
Vervolgens toonde Amit een overzicht in de analyse methodieken die tot nu zijn ontwikkeld en hoe deze in de loop van de tijd steeds meer waarde toevoegen. Dat begint eenvoudig met de van oudsher bekende verkennende data-analyse, zoals Amit die noemde. Hiertoe behoren analyses zoals verkregen uit raw data of gestructureerde data waaruit voortgangsoverview of -rapportages worden gemaakt. Vervolgens stijgt de volwassenheid van de analytische methoden als deze een meer diagnostisch karakter krijgen. Dit zijn bijvoorbeeld trendanalyses, prognoses en benchmarking met behulp van bijvoorbeeld historische data. Ook integratie van dashboards waarbij dezelfde onderliggende data wordt gebruikt en er dus één ‘source of truth’ bestaat hoort hierbij. Toppunt van waardetoevoeging wordt bereikt met voorspellende en voorschrijvende analyses en tenslotte cognitieve analyses.
Data is de nieuwe olie
Bekend is de uitspraak van wiskundige Clive Humbly dat data de nieuwe olie is. De meeste mensen begrijpen daaruit dat data, net als olie, waarde heeft. Wat vaak vergeten wordt is dat olie als het niet geraffineerd wordt geen waarde heeft en alleen maar een last is. Net zoals olie moet worden veranderd in benzine, gas, plastic en andere chemische stoffen, zo moet data worden opgeschoond, gestructureerd en gerationaliseerd om waarde toe te voegen.
Vandaar dat in de voorlopers van de geavanceerde analyse methoden veel nadruk is gelegd op datastandaardisatie, standaardisatie van werkprocessen en data-integratie. Datastandaardisatie gaat over definities en afbakeningen. Werkprocessen betreft de manier waarop het project wordt uitgevoerd en gefaseerd; een afwijkende aanpak is niet goed voor data-analyses omdat data niet goed vergeleken kan worden. Data-integratie is de grootste uitdaging. Het onderliggende ecosysteem moet uniform worden en dat is een helse opgave met de vele soorten systemen en applicaties die voor projectuitvoering bestaan. Het beste is om data-integratie stap voor stap uit te voeren.
Hierop liet Amit een plaatje zien met allerlei soorten projectsystemen die een EPC-bedrijf kan gebruiken voor bijvoorbeeld planning, estimating en change management. Deze maken alle gebruik van eenzelfde datawarehouse in het ideale geval.
Vervolgens toonde Amit een aantal use cases voor geavanceerde analyse methoden zien voor de verschillende projectfasen. In de FEED is dit bijvoorbeeld een Class 5 estimate gebaseerd op historische data en ondersteuning bij go/nogo besluiten. In de Uitvoeringsfase betreft dit bijvoorbeeld projectuitvoering trends bepalen, forecast validatie met hulp van data uit eerdere projecten en risico-inventarisatie. Bij Close-out betreft dit bijvoorbeeld claimsafhandeling en opstellen van de lessons learned. Hierop werd een inzichtelijk voorbeeld getoond van trendanalyse. Een traditionele benchmarking zou geen probleem hebben getoond; de geavanceerde analyse methodiek met trendanalyse waarbij geleerd wordt van eerdere projecten liet zien dat er wel degelijk zorgen zijn.
Fluor is al sinds 2013 met deze digitalisering bezig en heeft alles ondergebracht in een systeem met de naam EPHD, EPC-Project Health Diagnostics. Dit is een voornamelijk intern gebruikte tool voor ondersteuning en het maken van beslissingen. Het is technologie platform dat tijdige health & risk status indicators geeft inclusief mogelijkheden voor actie. De data van meer dan 300 EPC-projecten is hierin opgeslagen en meer dan 20 projecten worden hiermee actief gemonitord. Hierop werd een video getoond met de mogelijkheden en de look & feel van dit systeem.
Amit sloot af met de wijsheid dat met de kennis van gisteren en de intelligentie van vandaag, we een beter morgen kunnen maken.
Software gedreven inzichten
De laatste spreker was Jakob Etzel, vice-president Customer Success bij Tset, een softwarebedrijf uit Wenen dat zich richt op Software-as-a-Service oplossingen voor productkosten en CO2-uitstootschattingen. Should costing oftewel cost breakdown analysis wordt al veel toegepast, echter de de veranderende uitdagingen in de productie-omgeving vereisen een verschuiving van handmatige (bijvoorbeeld Excel ondersteunde) berekeningen naar intelligente, software-ondersteunde analyses. Deze digitale transformatie van handmatig naar software-ondersteunde berekeningen vergroot de transparantie en stelt mensen in staat om sneller op data gebaseerde beslissingen te nemen.
Jakob startte met de verschillen tussen handmatige en sofware-ondersteunde berekeningen te tonen. Handmatige berekeningen zijn langzaam en het risico op het maken van fouten is groot. Ze kennen een beperkte schaalbaarheid waardoor complexe kostenstructuren moeilijk uitvoerbaar zijn en herinvoeren van data veelvuldig benodigd is. Verder zijn ze reactief en niet voorspellend; prijsfluctuaties zijn moeilijk in te voeren. Eigenlijk zouden handmatige berekeningen alleen voor hele specifieke, eenmalige toepassingen gebruikt moeten worden.
Geautomatiseerde kostenberekeningen zijn daarentegen snel en betrouwbaar, zijn schaalbaar voor iedere soort complexiteit en kent een centrale database waardoor data niet meermaals ingevoerd hoeft te worden. Verder kan het ondersteunen bij proactieve besluitvorming.
Deze middag wilde Jakob laten zien dat geautomatiseerde kostenberekeningen een aantal wiskundige uitdagingen kennen, die voor het overzicht zijn uitgesplitst in 5 onderdelen. Allereerst de classificatie. Hierbij horen vragen zoals: Welke vorm past bij het 3D model, de foto of de ontwerptekening? Hoe worden de uitsnijdingen onderscheiden? Welke procesparameters moeten worden gebruikt? Hier liet Jakob plaatje van een gietvorm zien waar deze zaken getoond werden. Bij classificatie is het ook van belang om ordening te brengen in de vrije teksten die worden gebruikt bij de beschrijving van productiestappen. Na vijf jaar met verschillende gebruikers zijn er misschien wel 500 verschillende benamingen voor eenzelfde stap.
Een tweede type wiskundige uitdaging is de anomalie detectie. Hierbij horen vragen als: Is de gebruiker input redelijk? Is een geschatte prijs redelijk? Deze vragen zijn bedoeld om uiteindelijk een robuust en transparant prijsmodel te krijgen. Hierbij liet Jakob een voorbeeld zien van anomalie detectie in de praktijk waarbij voor verschillende onderdelen werd bepaald of onderdelen goed, te hoog of te laag zijn.
Derde uitdaging is de regressie. Hierbij horen vragen als: Hoeveel scrap materiaal moet gepland worden? Ook de transfer naar machine learning is een uitdaging; kunnen modellen naar verschillende domeinen worden overgebracht?
Tenslotte is het ontwikkelen van het algoritme een belangrijk punt; hierbij is de zogenoemde computational geometrie over vorm en uitsparingen van belang, die ook al bij de classificatie aan de orde kwam.
Om verbeteringen aan het automatische kostenmodel uit te voeren voert Tset een scenario- en gevoeligheidsanalyse uit om de meest kosteneffectieve opties te genereren, uitgesplitst naar bijvoorbeeld geografie, volume en leverancier.
De calculatiemodules van Tset ondersteunen inmiddels al veel verschillende productietechnologieën zoals plaatbewerking, smeden, gieten, bewerken, smeden en ondersteunende electronica. Er bestaat in de Test applicatie een co-pilot/assistent die gebruikers ondersteunt bijvoorbeeld door suggesties te geven voor de volgende in te voeren data en welke andere actie van de gebruiker wordt verwacht. Het Tset platform is te integreren via API’s met het IT landschap van de gebruikers.
Op een vraag uit de zaal wat betreft betrouwbaarheid, antwoordde Jakob met de tegenvraag die altijd gesteld moet worden als het om de vereiste betrouwbaarheid gaat: Wat zijn de kosten van een fout? In een vorige functie in de energiesector was het erg belangrijk om een goede voorspelling te doen bij de inkoop van energie. Mocht later blijken dat te weinig is ingekocht, dan moest soms wel tegen 5 maal de prijs extra worden ingekocht op de spotmarkt.