- 25 november 2025
- Door Rick van de Lustgraaf
Generatieve AI in robotica voor de voedingsindustrie
Professor Bram Vanderborght (imec/VUB) – keynotespreker tijdens Food Process Seminar
De eerste spreker op het evenement was Bram Vanderborght, verbonden aan de VUB en geaffilieerd met imec. In de voedingsindustrie zorgen automatisering en robotica al langer voor meer efficiëntie, zeker voor taken die controleerbaar zijn, zoals verpakking en logistiek. Maar zodra er handigheid, creativiteit of een grote variëteit aan taken nodig is, kunnen robots die handelingen vaak niet aan. Dankzij de ontwikkeling van generatieve AI kan de voedingsindustrie een significante transformatie ondergaan. De komst van humanoïde robotica, aangestuurd door generatieve AI, belooft de productiviteit, veiligheid én kwaliteit te verbeteren. Lees het uitgebreide verslag hieronder.
Physical AI: AI in de fysieke, echte wereld
"Dit is Jensen Huang, de grote baas van Nvidia, een bedrijf dat momenteel zeer winstgevend is dankzij de ontwikkeling van chips die nodig zijn om AI te bestuderen en te gebruiken", begint Vanderborght zijn lezing. "Er is nu een nieuwe generatie AI: generatieve AI. Het meest bekende voorbeeld zijn de large language models, die in staat zijn op basis van één vraag tekst te genereren over vrijwel elk onderwerp."
"Deze modellen kunnen niet alleen woorden aan elkaar rijgen, maar ook beelden en nu zelfs video’s genereren. Huang voorspelt dat de volgende fase ‘physical AI’ is: AI in de fysieke, echte wereld. Daarvoor heb je een platform nodig dat allerlei bewegingen kan genereren, en daarom investeert Nvidia sterk in humanoïde, menselijke robots die niet langer voor één specifieke taak ontwikkeld worden, zoals de robot die we vandaag kennen – een stofzuigrobot, een grasmaaierrobot of een industriële robot – maar robots die meerdere soorten taken kunnen uitvoeren."
Wie is Bram Vanderborght?
Prof. dr. ir. Bram Vanderborght behaalde zijn doctoraat aan de Vrije Universiteit Brussel in 2007. Hij verrichtte verder onderzoek aan het JRL lab in AIST Tsukuba (Japan) en werkte als post-doc aan het Italiaans Instituut voor Technologie. Sinds 2009 is hij professor aan de VUB. Na het binnenhalen van een ERC starting grant coördineert hij momenteel drie Europese projecten over slimme en zelfherstellende materialen voor zachte robots. Zijn onderzoeksinteresses omvatten onder andere de samenwerking tussen mens en robot voor gezondheidszorg en maakindustrie, met concrete oplossingen zoals exoskeletten, protheses, sociale robots, drones en cobots. Hij is geaffilieerd met imec, als wetenschappelijk medewerker.
Ter illustratie verwijst professor Vanderborght naar robots van het Amerikaanse bedrijf Figure. Deze robots zijn niet voorgeprogrammeerd, maar krijgen een opdracht, bijvoorbeeld: 'hier zijn enkele objecten, beslis waar ze thuishoren, in een koelkast of in een kast?' De robots genereren op basis van AI de bewegingen om die taak uit te voeren.
In de VS wordt enorm veel geïnvesteerd in dit domein, ziet de VUB-professor. Figure is inmiddels al zo’n 34 miljard dollar waard. Ook grote bedrijven zoals Apple, Meta en Amazon werken aan dergelijke technologie, net als verschillende start-ups zoals Figure, Fourier, Agility en andere.
Niet alleen in de VS, maar ook in China
Niet alleen in de VS maar ook in China zijn al bijna honderd humanoïde robotbedrijven in ontwikkeling. Eén van de bekendste is Unitree, hun robot kost overigens zo’n 16.000 euro, relatief goedkoop, stelt professor Vanderborght.
China beschikt over de materialen en ingenieurs om dergelijke robots te ontwikkelen. Ter illustratie: bij de R&D-afdeling van een Chinese elektrische wagenfabrikant werken 110.000 ingenieurs – meer dan in heel Vlaanderen. "Ik verwacht veel concurrentie uit China. Daarom moeten we in Europa niet alleen de technologie ontwikkelen, maar ze ook gebruiken, zodat we productief blijven."
Uitdagingen
De veiligheid
Er zijn echter nog grote uitdagingen bij het inzetten van robots, zeker in combinatie met AI, gaat professor Vanderborght verder. In de eerste plaats wijst hij op het risico van zogenoemde 'hallucinaties', denk bijvoorbeeld aan fouten in teksten. Dat kan soms grappig of ongepast zijn, maar het tast de fysieke veiligheid niet aan. Als een robot gaat hallucineren en verkeerde bewegingen maakt, wordt dat natuurlijk gevaarlijk. "Onlangs was ik op het hoofdkwartier van Unitree, waar een robotarm van een van mijn collega’s serieus tegen een kast duwde. Veiligheid blijft dus een enorme uitdaging."
Een gebrek aan data
Een tweede grote uitdaging is data. Voor large language models is genoeg tekst beschikbaar op het internet, maar voor robotica is er nauwelijks voldoende data. Daarom zijn er in China zogenaamde ‘robotscholen’ opgericht, waar mensen voortdurend voorbeelden voordoen: hoe je iets inpakt, hoe je iets in een wasmachine steekt, of – voor de voedselindustrie – hoe je allerlei taken uitvoert. "Ik vrees dat we misschien nieuwe vormen van menselijke arbeid creëren om robots te trainen, zoals nu ook al gebeurt bij bijvoorbeeld Amazon Go-winkels, waar veel mensen in lageloonlanden video’s annoteren", stelt de VUB-professor.
"Ik vrees dat we misschien nieuwe vormen van menselijke arbeid creëren om robots te trainen, zoals nu ook al gebeurt bij bijvoorbeeld Amazon Go-winkels"
"We moeten dus nieuwe technologie ontwikkelen om robots sneller nieuwe taken aan te leren. Vandaag zijn er twee uitersten: ofwel zet je robots in kooien zodat ze snel mogen bewegen, maar dan mag niemand dichtbij komen; ofwel gebruik je een cobot, die veilig is maar enorm traag, wat de productiviteit schaadt. Arbeiders werken bovendien niet graag met zo’n trage cobot. Wij willen technologie ontwikkelen die het verschil tussen industriële robots en cobots opheft."
Industriële snelheid met cobotveiligheid.
Met zijn onderzoeksteam ontwikkelt professor Vanderborgt een ‘sensorpod’, die bevestigd kan worden aan verschillende robotarmen (zowel cobots als industriële robots) en waarop eender welke end-effector gemonteerd kan worden. Deze pod maakt een 3D-map van de omgeving door te meten welke ‘voxels’ vrij, bezet of onbekend zijn.
Het idee is om deze techniek te integreren in verschillende robotsystemen, waarbij veiligheid cruciaal is. "We bekijken nu alle standaarden om compliant te zijn. Een nieuwe veiligheidsstandaard die waarschijnlijk in januari 2027 ingaat vereist dat mobiele robots óf volledig afgeschermd zijn, óf mensen, dieren en obstakels volledig in 3D kunnen detecteren. Klassieke 2D-laserscanners zullen dus onvoldoende zijn. Met onze technologie kunnen we robots op volledige snelheid laten werken zolang de omgeving veilig is, maar laten vertragen of stoppen zodra iemand in de buurt komt", zegt professor Vanderborgt.

Wanneer iemand te dicht komt en visuele detectie onzeker wordt, worden thermische camera’s ingeschakeld om mensen deterministisch te detecteren. Zo blijft de robot veilig samenwerken met mensen. Het onderzoeksteam vergelijkt werktijden zonder veiligheid (snel maar onveilig), met cobotveiligheidslimieten (erg traag) en met onze technologie (bijna industriële snelheid, maar met veilige vertraging wanneer nodig). Zo combineert men industriële snelheid met cobotveiligheid.
Foundation models
In de toekomst moet deze technologie ook toegepast kunnen worden op humanoïden. "Veiligheid bij interactie met mensen is een grote uitdaging. Op internet circuleren filmpjes van humanoïden die thuis worden getest, zelfs in de buurt van kinderen. Dat is onverantwoord, want de robots voldoen niet aan de veiligheidsstandaarden", ziet professor Vanderborght.
"Met onze technologie kunnen we robots op volledige snelheid laten werken zolang de omgeving veilig is, maar laten vertragen of stoppen zodra iemand in de buurt komt"
Een humanoïde robot moet bijvoorbeeld door de knieën kunnen buigen om stabiel te blijven. Met deze sensoren kan voortdurend de omgeving worden gemonitord. "Nu gebruiken we traditionele planningsmethodes: de robot kiest een ander pad als een mens nadert. Maar we onderzoeken ook foundation models: modellen die tussenkomen wanneer AI beslissingen neemt die onveilig zouden zijn."
"We willen dat deze veiligheidssystemen ook door integratoren gebruikt kunnen worden. Bovendien kunnen we met onze ‘kippen-synaps’-sensortechnologie een veel beter beeld van de omgeving opbouwen en sneller trainen, zodat we minder menselijke arbeid nodig hebben om robots taken te leren."
Aanraaksensoren en zuignapgrijpers
Naast visie en audio is aanraking ook essentieel. De huid is ons grootste orgaan; aanraaksensoren zijn cruciaal voor manipulatie. De meeste tactiele sensoren meten enkel druk. Melexis – producent van autosensoren – ontwikkelt nu zeer gevoelige sensorsystemen. Door kleine bewegingen in een mechanische structuur te meten kan men 3D-krachten bepalen. Hierdoor kan een robot zeer subtiel objecten manipuleren, herkennen of positioneren, inclusief afschuifkrachten wanneer een object dreigt te glijden.
Professor Vanderborght: "Daarnaast ontwikkelen we nieuwe grijpers. Zuignapgrijpers worden veel gebruikt, maar werken niet goed als niet alle cups goed contact hebben. Daarom hebben we zelfsluitende cups ontwikkeld: wanneer er geen goed contact is, sluit een intern membraan, zodat er minder energieverlies is en je toch grip behoudt. Dit maakt het mogelijk om objecten met onregelmatige vormen op te nemen, zoals beschadigde pallets. We werken ook aan detectiesystemen om te zien welke cups effectief contact hebben."
"Binnen onze onderzoeksgroep leiden deze ontwikkelingen tot meerdere spin-offs, onder andere rond de sensorpod, de zelfsluitende cups, zelfherstellende materialen en exoskeletten. Daarnaast ondersteunen we bedrijven in de waardeketen – van technologieproviders zoals Melexis tot integratoren en eindgebruikers – bij het integreren van robotica en AI."