De AI is snel, krachtig, werkt vrijwel foutloos en pauzeert nooit. Daarom is het al superieur aan de mens op veel gebieden waar werkprocessen continu moeten worden uitgevoerd met een consistente productie van hoge kwaliteit. Dit zijn de redenen waarom we AI willen gebruiken in een machine vision-omgeving in interactie met bots, om operaties efficiënter en kosteneffectiever te maken. De use case van Vision-Guided Robot laat zien hoe typische pick-and-place-taken op intelligente wijze kunnen worden geautomatiseerd met behulp van een robot en een in AI ingebouwde vision-camera die van een computer kan worden overgenomen.
Voor een ‘slimme vuist’ moeten de verschillende disciplines optimaal samenwerken. Als het bijvoorbeeld de taak is om producten van verschillende afmetingen, vormen, materialen of kwaliteit met een robot te sorteren, volstaat het niet om ze vast te leggen, ze moeten ook van tevoren worden geïdentificeerd, geanalyseerd en gelokaliseerd. Met op regels gebaseerde beeldverwerkingssystemen is dit vaak niet alleen erg complex, maar ook economisch moeilijk te realiseren, vooral voor kleine batches. Maar in combinatie met op AI gebaseerde inferentie is het vandaag al mogelijk om industriële robots de nodige vaardigheden en productkennis bij te brengen aan een gespecialiseerde werker.
Op de productielijn worden dingen willekeurig verspreid op een lopende band. Objecten moeten worden herkend, geselecteerd en bijvoorbeeld in hun verpakking worden geplaatst of in de juiste positie worden getransporteerd naar een verwerkings- of analysestation. Softwarebedrijf urobots GmbH heeft een computergebaseerde oplossing ontwikkeld voor het vastleggen van objecten en het besturen van robots. Hun getrainde AI-model was in staat om de positie en oriëntatie van objecten in camerabeelden te herkennen, waaruit de grijpcoördinaten van de robot werden bepaald. Het doel was nu om deze oplossing over te brengen naar het AI-gebaseerde embedded vision-systeem van IDS Imaging Development Systems GmbH. Want voor de oplossing waren de urobots vooral geïnteresseerd in twee dingen:
1. De gebruiker moet het systeem eenvoudig zelf kunnen aanpassen aan verschillende toepassingsgevallen zonder dat speciale expertise op het gebied van kunstmatige intelligentie nodig is. En ook als er bijvoorbeeld iets verandert in de productie, zoals verlichting, de uitstraling van objecten of zelfs als er andere soorten objecten gecombineerd moeten worden.
2. Het hele systeem zou zonder computer moeten werken dankzij de directe verbinding van de hardwarecomponenten, om tegelijkertijd economisch, licht en ruimtebesparend te zijn.
Deze twee vereisten zijn al opgelost in IDS met behulp van het IDS NXT-inferentiecamerasysteem. Het getrainde neurale netwerk identificeert alle objecten in het beeld en detecteert bovendien hun locatie en oriëntatie. Dankzij kunstmatige intelligentie is dit niet alleen mogelijk voor statische en altijd identieke objecten, maar ook wanneer er veel natuurlijke variatie is, zoals voedsel, planten of andere objecten.
flexibel. Dit resulteert in een zeer betrouwbare detectie van de positie en oriëntatie van objecten. Urobots GmbH trainde het netwerk voor de klant met behulp van eigen software en knowhow, zette het om in het juiste formaat en uploadde het vervolgens naar de IDS NXT-camera. Om dit te doen, moest het worden vertaald in een speciaal formaat dat eruitziet als een soort “gelinkte lijst”. Het overzetten van het getrainde neurale netwerk voor gebruik in de inferentiecamera was heel eenvoudig dankzij de IDS NXT gateway-tool van IDS. Vervolgens wordt elke laag van de CNN een knooppuntdescriptor die elke laag nauwkeurig beschrijft. Ten slotte wordt een volledige CNN-gelinkte lijst gegenereerd in de binaire weergave. Een speciaal voor de camera ontworpen CNN-versneller, gebaseerd op de onderliggende FPGA, kan deze wereldwijde CNN-formaten op een geoptimaliseerde manier implementeren.
Een door de urobots ontwikkelde vision-applicatie berekent vervolgens de optimale grijpposities uit de detectiegegevens. Maar de klus is nog niet af. Naast wat, waar en hoe je fotografeert, moet er een directe verbinding tot stand worden gebracht tussen de IDS NXT-camera en de robot. Deze missie mag niet worden onderschat. Dit is vaak waar de tijd, het geld en de mankracht worden bepaald om in een oplossing te investeren. De urobots implementeerden een op XMLRPC gebaseerd netwerkprotocol in hun camera vision-applicatie met behulp van IDS NXT Vision App Creator, om concrete actie-instructies rechtstreeks naar de urobot te sturen. De ultieme AI vision-app detecteert objecten in ongeveer 200 ms en bereikt een positienauwkeurigheid van +/- 2 graden.
Het is niet alleen AI die deze use case zo slim maakt. Dat deze oplossing volledig zonder extra computer werkt, is ook in twee opzichten interessant. Aangezien de camera zelf de resultaten van de beeldverwerking genereert en niet alleen de beelden levert, kan het zonder computers en alle bijbehorende infrastructuur. Uiteindelijk vermindert dit de kosten voor aanschaf en onderhoud van de installatie. Maar vaak is het ook belangrijk dat procesbeslissingen direct ter plaatse worden genomen, dus “just in time”. Zo kunnen de volgende bewerkingen sneller en zonder vertraging worden uitgevoerd, wat het in sommige gevallen mogelijk maakt om het tempo te verhogen.