Computermodellen hebben de werkvloer bereikt
In het jubileumnummer van de VORtech nieuwsbrief in 2016 werd in diverse artikelen geschreven over de ontwikkelingen in de markt. Wat is er van de verwachtingen van destijds terecht gekomen? En welke dingen hadden we toen niet voorzien? Een interview met Mark Roest, algemeen directeur van VORtech.
Terugkijkend naar de nieuwsbrief van toen komen een paar thema’s naar voren: het toenemend gebruik van computermodellen in de dagelijkse praktijk en de opkomst van datagedreven modellen. Als we eerst eens kijken naar het gebruik van computermodellen in de praktijk. Heeft die trend zich doorgezet?
Ik zou zeggen: ja en nee. Er is wel degelijk vooruitgang geboekt. De term ‘digital twin’ kwam nog niet voor in de jubileumnieuwsbrief van 2016 maar is nu een enorme hype. Hoewel er veel verschillende definities van het concept zijn, is in veel daarvan een computermodel een essentieel element.
We zien in onze markt een enorme belangstelling voor dit thema. Iedere keer als ik daar een praatje over houd of een artikel over schrijf dan komen er heel veel reacties. De meerwaarde wordt duidelijk gezien. Anderzijds is het allemaal niet zo snel gegaan als ik verwacht had. Of misschien gehoopt had. Veel bedrijven zijn toch vooral nog bezig met de dagelijkse dingen. Het invoeren van nieuwe technologie staat vaak laag op de prioriteitenlijst.
Zie je al wel daadwerkelijke implementaties van digital twins?
Zeker. Ik zie dat vooral grote bedrijven zoals Siemens, ABB en Bosch enorm inzetten op dit concept en nadrukkelijk bezig zijn om digital twins te leveren bij hun machines en installaties. Het zijn nu vooral de machinebouwers die de ontwikkeling trekken maar door hun leveringen komen de digital twins ook terecht bij productiebedrijven. Ik kan nog niet goed beoordelen of die dingen dan ook echt gebruikt worden; dat zal bepalend worden voor de toekomst. Als er uiteindelijk te weinig bedrijven zijn die het echt willen gebruiken dan zal de vaart er snel uit zijn.
Welke rol spelen jullie in deze ontwikkeling?
We spelen hier op allerlei manieren een rol in. Sowieso hebben al die OEMs steeds meer behoefte aan de specifieke expertise die VORtech biedt. We zijn zeker binnen Nederland het enige bedrijf dat zo gespecialiseerd is in het ontwikkelen van modelprogrammatuur en daarmee een natuurlijke partner voor de grote jongens die met digital twins aan de gang gaan.
Daarnaast zien we dat ook veel kleinere bedrijven bezig gaan met het moderniseren van de computermodellen die ze intern gebruiken. Dat is nodig om ze straks ook operationeel te kunnen gebruiken. Bij die modernisering roepen ze vaak onze hulp in. VORtech is gewend om te werken aan legacy code, dat wil zeggen: programmatuur die soms als decennialang in ontwikkeling is.
Een klant komt dan bijvoorbeeld aan met een stuk Fortran programmatuur dat in de jaren ’80 en ’90 van de vorige eeuw opgezet is. Er was toen nog veel minder besef van hoe je programmatuur netjes duurzaam opzet. En de oude versies van bijvoorbeeld Fortran maakten allerlei nare constructies, zoals COMMON-blocks ook wel erg aantrekkelijk. Als er dan ook nog eens meerdere generaties ontwikkelaars aan gewerkt hebben dan is het eerlijk gezegd vaak een beetje een zootje geworden. Zo’n programma krijgt dan een onaanraakbare status: blijf er maar vanaf want anders gaat het waarschijnlijk stuk. Maar als het strategisch belangrijk voor je wordt, dan moet je er natuurlijk wel iets mee.
Bij VORtech zijn we dit soort situaties wel gewend want we werken vrijwel altijd door op bestaande programmatuur. We hebben afgelopen jaren ook nadrukkelijk ingezet op het verhogen van de professionaliteit om met dit soort legacy programmatuur om te gaan. Daar is best een hoop onderzoek naar gedaan en dat kunnen we goed gebruiken om de programmatuur snel en effectief naar een acceptabele status te krijgen.
Maar ik neem aan dat er ook nieuwe modelprogrammatuur ontwikkeld wordt?
Absoluut. Ook dat is een duidelijke trend. We worden regelmatig benaderd door bedrijven die rondom hun fysieke product een stuk digitale dienstverlening willen opbouwen. Dat zijn leuke projecten omdat we dan samenwerken met hun productexperts. Daarmee leren we dan zelf ook weer allerlei dingen over de toepassing. Het is dan wel van belang dat onze counterparts binnen de klant voldoende weten over de fysica of tenminste over de vergelijkingen waarmee hun product of proces beschreven kan worden. We weten prima hoe je dat omzet in nette programmatuur, maar om zelf het wiskundige model op te zetten is een beetje riskant als we te weinig van het toepassingsgebied afweten.
Soms kunnen we doorbouwen op een open source pakket dat bij de klant al in gebruik is. Dan worden we vooral ingehuurd om het model te combineren met de operationele data en om ervoor te zorgen dat het in een operationele context gedraaid kan worden. Dat houdt bijvoorbeeld in dat we de programmatuur inbedden in een pipeline en er een goede webinterface voor ontwikkelen.
Het andere thema dat vijf jaar geleden nadrukkelijk genoemd werd was de opkomst van datagedreven modellen. Hoe staat het daarmee?
Ik denk dat we nu, vijf jaar later, nog steeds midden in de ontwikkeling zitten. Dan heb ik het niet over de toepassingen in de commerciële hoek want daar is het al heel ver. Iedereen verwacht eigenlijk van elke webwinkel dat ze aanbevelingen doen op basis van jouw aankoophistorie en profiel. En geautomatiseerde fraudedetectie bij banken en verzekeraars is volgens mij ook zeer gangbaar geworden.
Maar in de techniek ligt dat net even anders. Enerzijds heeft een aantal use-cases zich ondertussen duidelijk bewezen in de praktijk. Computer vision met neurale netwerken voor kwaliteitscontrole is bijvoorbeeld zo’n gevestigde techniek. Daar bestaan standaard tools voor. Een andere gangbare toepassing is predictive maintenance, hoewel standaardisatie daar nog wel verder weg is. Dat zal ermee te maken hebben dat er zo’n verscheidenheid aan apparaten en installaties is dat het lastig is om standaardoplossingen te maken.
Maar dan nog zijn het vooral de voorlopers die met dit soort dingen aan de slag gaan. Ik ben zelf actief binnen het platform AI van FME om de mogelijkheden van de techniek te promoten in het MKB. Belangstelling is er genoeg, maar voor mijn gevoel zijn er nog relatief weinig bedrijven die echt doorpakken. Binnen het SMITZH fieldlab zijn we nu samen met het bedrijf Airborne bezig om met data aan de slag te gaan. Dat is dan typisch zo’n bedrijf dat de strategische waarde ervan ziet en de wil heeft om er echt iets mee te doen. Maar dit soort partijen is relatief zeldzaam.
Wat is de reden dat dit niet opgepakt wordt?
Volgens mij zijn er allerlei redenen. Een belangrijke is dat de automatisering van een bedrijf ver gevorderd moet zijn. Je moet eigenlijk al een IT-infrastructuur hebben waarmee data gestructureerd verzameld en ontsloten wordt. En daar moet je dan ook weer de juiste mensen en toeleveranciers voor hebben. Veel bedrijven zijn simpelweg nog niet zover met hun automatisering.
Daarnaast wordt de urgentie ook vaak nog niet gevoeld. De bedrijven die belangstelling tonen worden nog vooral gedreven door nieuwsgierigheid en innovatiedrang. Het is niet zo dat hun business direct bedreigd wordt als ze niet met AI aan de gang gaan. En ja, dan is het vaak lastig om de tijd en het budget te vinden om echt stappen te maken.
Ik vermoed dat het MKB, en zeker het kleinere MKB, het vooral moet hebben van leveranciers die spullen leveren waarin AI verwerkt zit. Een bedrijf als PTC levert bijvoorbeeld een kant en klare oplossing voor datagedreven werken, inclusief hun versie van digital twins. Dat is voor een MKB-bedrijf een redelijk makkelijke instap.
Maar ik denk wel dat je er als bedrijf goed aan doet om zelf te leren wat het allemaal inhoudt. Dus om op de werkvloer mensen te hebben die echt snappen hoe het werkt. Anders ga je er nooit uithalen wat erin zit omdat je dan standaard algoritmen gebruikt die waarschijnlijk niet optimaal zijn voor jouw situatie. En bovendien: er zijn veel goedkopere oplossingen. Als alternatief voor het platform van PTC is er bijvoorbeeld Thingsboard, wat een prima open source oplossing is. VORtech is dan bijvoorbeeld een bedrijf dat algoritmen op maat kan maken binnen zo’n standaardoplossing.
We hebben het nog niet gehad over High Performance Computing, ook een kerncompetentie van VORtech. Wat is de situatie daar?
Ik zie bij onze klanten een toenemende behoefte om met GPU’s aan de gang te gaan. Het is inmiddels voor veel partijen duidelijk hoe krachtig die dingen zijn. Het programmeren ervan blijft een uitdaging. De ontwikkeltools zijn wel wat beter geworden, maar het blijft inherent specialistenwerk om goede en onderhoudbare programmatuur te maken.
Zo zijn er just-in-time compilers die code analyseren en dan een optimale mapping maken van de berekening op de GPU. Dat werkt op zich prima maar alleen als je de compiler voldoende handvatten geeft om zijn werk te doen. Je zult dus toch je programmatuur zodanig moeten opzetten dat de compiler het snapt. En dan moet je het ook nog leesbaar en onderhoudbaar maken. Ga er maar aan staan. Daarvoor zijn onze specialisten toch echt wel nodig.
Verder is cloud computing natuurlijk heel gangbaar geworden. Nieuwe applicaties worden nog nauwelijks voor desktops ontwikkeld, tenminste niet onder onze klanten. De cloud geeft je in principe oneindige schaalbaarheid. Maar het is wel zaak om de kosten goed in de gaten te houden. Vaak is een eigen cluster al snel rendabel als je puur naar de kosten kijkt. Anderzijds heeft de cloud wel het voordeel dat je redelijk nieuwe hardware hebt en dat je geen mensen voor het systeembeheer nodig hebt.
Als we kijken naar High Performance Computing in de cloud dan is dat nog een gemengd beeld. Er zijn zeker mogelijkheden voor, maar dan moet je wel goed kijken wat je doet want de standaard voorzieningen werken niet voor het soort nauw-verbonden parallelle applicaties waar wij vaak aan werken.
Als je nu vijf jaar vooruitkijkt, wat verwacht je dan?
Een van de vele dingen die ik de afgelopen 25 jaar geleerd heb, is dat ontwikkelingen aan de toepassingskant veel minder snel gaan dan ik graag zou willen. Qua onderzoek gaat het snel genoeg: de hoeveelheid wetenschappelijke papers in ons vakgebied kun je gerust een lawine noemen. Maar het landt allemaal maar mondjesmaat op de werkvloer.
Misschien is de werkvloer nog net niet ver genoeg om al die mooie nieuwe technologie te absorberen maar we zijn daar niet ver meer vandaan. Als dat klopt, dan kan het nu hard gaan. Ik zou dat heel mooi vinden want dan kunnen we als VORtech heel veel meer van de dingen gaan doen waar we enthousiast van worden.