ASSET MANAGEMENT  
Maintenance Magazine 160 – mei 2023

Maakt artificiële intelligentie predictief écht predictief?

Het gebruik van artificiële intelligentie in onderhoud kan tot grote efficiëntieverbeteringen leiden, als het tenminste goed ingezet wordt. Daar wringt nogal eens het schoentje: algoritmes zijn ofwel te algemeen en houden zo geen rekening met specifieke omstandigheden, ofwel zijn ze net te specifiek en daarom niet breed inzetbaar. Hoe beide verzoenen?

Ik neem u daarom graag even mee naar een kleine zes jaar geleden. In de mailbox arriveerde een persbericht van een toen onbekend Israëlisch bedrijf. De titel? Artificial Intelligence predicts sawblade failure. In houtbewerkingsmachines zijn zaagbladen alomtegen-woordig, zij vertegenwoordigen bovendien een zekere kost, want de zaagbladoppervlakte bestaat uit dure diamantsegmenten of andere hoogwaardige materialen die op het metaal van de zaag geperst worden. Sommige zaagbladen kunnen ook enkele keren bijgeslepen worden, met een veel langere standtijd tot gevolg. Voor houtbewerkingsbedrijven is het altijd een uitdaging om deze slijpintervallen exact te bepalen. Te vroeg slijpen betekent onnodig kosten maken, te laat slijpen leidt tot een risico op breuk van het zaagblad en eventuele beschadiging van werkstukken en machines.

Ervaring borgen

Er bestaat echter een krachtig middel om het ideale slijpmoment te bepalen: het menselijk gehoor. Operatoren met vele jaren ervaring slaagden er na een tijd in om, puur op basis van het zaaggeluid, de restlevensduur van een zaagblad correct in te schatten. Deze methode komt helaas met enkele nadelen. Operatoren deden er vooreerst jaren over om deze vaardigheid aan te leren. Bovendien verdween de kennis als een operator het bedrijf verliet. Tot slot was de methode niet onfeilbaar, want er zijn nogal wat externe invloeden die de inschatting bemoeilijkten. Omgevingsgeluiden, de diversiteit in de werkstukken en machine/mechanisch gerelateerde factoren zorgen bijvoorbeeld voor auditieve hinder. De start-up in kwestie had daar iets op gevonden: naast de zaagbladen werd een ultrasone sensor geplaatst, die niets anders deed dan het geluid van de zaagbladen voortdurend opnemen. Software scheidde vervolgens het geluid van het zaagblad van dat van de omgeving en een zelflerend algoritme deed de analyse van het zaagbladgeluid. De resultaten waren verbluffend: in een mum van tijd kon de software betere voorspellingen maken dan de meest ervaren operatoren om het tijdstip voor vervanging in te schatten. En dat was dus zes jaar geleden, voor een toepassing met één type sensor.

Wat vandaag?

De vraag rijst uiteraard wat er vandaag mogelijk is, want ondertussen zijn er talrijke bedrijven op de AI-trein gesprongen. Bovendien zijn er nog wel meer factoren te vinden buiten ultrasone signalen om op te volgen. In onze branche gaat het onder meer over stroomverloop, temperaturen, oliekwaliteit en wellicht honderden andere grootheden. Kunnen we deze factoren in een allesomvattend model gieten om onderhoud efficiënter in te plannen?

Operationele context meenemen

We denken dan uiteraard meteen aan de overstap van periodiek onderhoud naar een predictieve benadering. De algoritmen kunnen bijvoorbeeld patronen in de data aanleren en anomalieën detecteren die wijzen op potentiële problemen. Zo kan onderhoud efficiënt ingepland worden op het best mogelijke moment. Dat breng bijkomende voordelen mee, zoals het beter inschatten van de nood aan wisselstukken. Alleen, de moeilijkheidsgraad van deze benadering ligt een pak hoger. Het analyseren van geluid in een min of meer vaste setting is stukken eenvoudiger dan het nagaan van pakweg de lagerprestaties in een machine die voortdurend andere stukken produceert en zo anders belast wordt. Wie een model ontwikkelt dat prima werkt voor asset A, kan bovendien bedrogen uitkomen als hij datzelfde model inzet voor asset B. Er is met andere woorden een reële kans dat je een model creëert dat ofwel te algemeen is, ofwel te specifiek. Daarenboven is er nog een probleem met benchmarking: hoe kan je gedrag als een anomalie typeren die tot een onderhoudsactie moet leiden, als er geen historische gegevens zijn over eerdere anomaliën? Dat is met name bij dure systemen een heikel punt, want niemand wil hier het risico lopen op breuk door een algoritme via trail-and-error te verbeteren.

Variabele factoren gooien roet in het eten

Data binnenhalen is één zaak, maar zelfs de meest geavanceerde methodologie om tijdreeksen te analyseren en modellen op te stellen, kan geen abstractie maken van de reële opera-tionele context waarin assets opereren. De resultaten zijn immers gebaseerd op tijdsafhankelijke informatie. Stel dat we de prestaties van een zonnepanelenpark willen analyseren. Het te verwachten uitgangsvermogen kunnen we dan formuleren in functie van de vermogenscurve die de fabrikant van de zonnepanelen meegeeft: zoveel uren zon geeft zoveel vermogen. Er zijn evenwel nog meer variabelen om mee rekening te houden. Zo is de verwachte instraling afhankelijk van de exacte locatie, maar dergelijke instralingskaarten zijn ondertussen breed beschikbaar. Het probleem situeert zich evenwel in de operationele context, want de effectieve opbrengst zal ook afhangen van subfactoren zoals de omgevingstemperatuur, stofdeeltjes in de lucht, bomengroei in de buurt, sneeuwval, beschadiging, degradatie, uptime van het algemene elektriciteitsnet ... Het is met andere woorden extreem moeilijk om een model op te stellen dat dergelijke varia-belen allemaal kan meenemen. In de praktijk is het daarom moeilijk om voor zonnepanelenparken een onderhoudsprogramma op te stellen, eerder wordt er gebruik gemaakt van periodiek onderhoud op basis van statistische trends of een curatieve benadering.

Oplossingen

Om toch een oplossing te creëren, kunnen er meerdere methodes gevolgd worden. Een eerste methode is om de vele variabelen af te dekken met meer realtime sensoren die de operationele context meten. In het voorbeeld van het zonnepanelenpark zou dat bijvoorbeeld via temperatuurmeting, lichtmeting en stroomdetectie ter plaatse kunnen gebeuren. Op die manier kan een multivariaat algoritme opgesteld worden dat de operationele factoren beter afdekt. Dit vereist een grondige kennis van de asset in kwestie en de situatie ter plaatse. Een tweede oplossing vormt integratieve modellering. Deze aanpak is gebaseerd op het voortdurend ontleden van een complex systeem in (eenvoudiger) subsystemen. Subsystemen die overeenkomsten vertonen, kunnen vervolgens ingebracht worden in het integratieve model. Om dit type model te trainen kan gebruik gemaakt worden van twee methodes: het statistisch relationeel leren en probabilistisch programmeren. De eerste methode houdt expliciet rekening met relaties tussen co-afhankelijke modellen, door probabilistische grafische modellen te combineren met relationele representaties. De tweede methode maakt het mogelijk om complexe en probabilistische situaties te modelleren. Het is op die manier dus wel degelijk mogelijk om een model te creëren dat los van de operationele context werkt, al vergt het wel de nodige inspanningen.

Door Sammy Soetaert