Clock IA > PINMAP: Den AI, der lærer robotter ikke længere at fare ind i møblerne (gennemsigtig)
PINMAP: Den AI, der lærer robotter ikke længere at fare ind i møblerne (gennemsigtig)

PINMAP: En AI til at se gennem vægge (næsten)

Sydkoreanske forskere har udviklet en AI, der kan hjælpe robotter med at forudse gennemsigtige hindringer. Dette er et stort fremskridt, der kan reducere omkostningerne ved selvkørende køretøjer og gøre vores fremtidige assistenter smartere.

Har du nogensinde været ude for at løbe ind i en splinterny glasvæg? Vær ikke bekymret – selv de mest avancerede robotter falder i den fælde. I hvert fald indtil nu. For i Sydkorea har et hold fra DGIST (Daegu Gyeongbuk Institute of Science and Technology) netop udstyret maskiner med en slags sjette sans til at undgå disse gennemsigtige fælder uden at sprænge budgettet. En lille revolution inden for autonom robotteknologi, som er nærmere beskrevet i en artikel fra AI Times Korea.

27/05/2025 12:34 Jérôme

LiDAR, det laserøje, der ikke altid ser klart

I hjertet af selvkørende robotter navigation finder man ofte LiDAR. Forestil dig en slags radar, der i stedet for radiobølger sender tusindvis af laserstråler ud for at kortlægge omgivelserne i 3D. Det er lidt som om robotten råber "Marco!", og genstande svarer "Polo!" ved at reflektere lyset. Problemet er, at gennemsigtige overflader som glas er snu. De lader lyset passere eller afbøjer det så minimalt, at LiDAR, især de billigere modeller, kun ser tom luft. Resultatet? Robotten, overbevist om, at vejen er fri, kører lige ind i muren. Ikke særlig smart for en maskine, der skulle hjælpe os.

Indtil nu har løsningen været at udstyre robotter med højopløselige LiDAR, som er meget dyrere, eller en række ekstra sensorer (ultralyd, kameraer). En dyr løsning – vi taler om flere hundrede til flere tusinde ekstra euro – der unødigt komplicerer systemet. Det er lidt som at købe en Formel 1-bil for at hente brød.

PINMAP, algoritmen med næse for detaljer

Over for denne (gennemsigtige) mur havde professor Park Kyung-joon og hans team fra DGIST en lys idé: Hvad hvis vi i stedet for at ændre hardwaren ændrede softwaren? Sådan blev PINMAP født (Probabilistic Incremental Navigation-based Mapping, eller "Sandsynlighedsbaseret inkrementel navigationskortlægning" for de indviede).

PINMAPs princip er genialt. I stedet for at ignorere de få lysekkoder, som billige LiDAR til tiden fanger på glas, gemmer algoritmen dem omhyggeligt. Efterhånden som robotten bevæger sig, samler den disse "spor" op. PINMAP fungerer lidt som en detektiv: et enkelt fingeraftryk er ikke nok, men en akkumulering af små detaljer tegner til sidst et klart billede. På sandsynlighedsvis måde "gætter" algoritmen således tilstedeværelsen af en glasoverflade.

For at gøre det endnu bedre, bygger PINMAP på velkendte open source-værktøjer inden for robotteknologi (Cartographer til kortlægning og Nav2 til navigation, begge fra ROS 2-økosystemet – Robot Operating System). Dette betyder, at det nemt kan integreres i eksisterende robotter uden store omvæltninger.

Skarp syn til en slikpris

Resultaterne, offentliggjort den 7. maj 2025 i det videnskabelige tidsskrift IEEE Transactions on Instrumentation and Measurement under titlen "PINMAP: A Cost-Efficient Algorithm for Glass Detection and Mapping Using Low-Cost 2D LiDAR", er i høj grad imponerende. Under tests i DGISTs lokaler, fyldt med glasvægge, opdagede robotter udstyret med PINMAP gennemsigtige hindringer med en nøjagtighed på 96,77 %. Til sammenligning kunne de samme robotter med traditionel software kun opnå en detektionsrate tæt på... nul! Samtidig reduceres omkostningerne ved denne "glas-seende" evne potentielt med op til ti gange, som understreget i artiklen fra AI Times Korea. Forskere vurderer endda, at dette kunne reducere de samlede omkostninger til selvkørende kørsel med op til 90 % i visse sammenhænge.

Indsatsen er betydelig. Robotter, der kan navigere problemfrit i komplekse miljøer som hospitaler, lufthavne, indkøbscentre eller logistiklagre – alle steder, hvor glas er alomtilstedeværende – kunne endelig blive udrullet i stor skala. Farvel til robotter, der tror, de er fugle foran et stort vindue!

Professor Park Kyung-joon, der også er teknisk direktør (CTO) for startup’en S-Innovations, der specialiserer sig i robotsoftware, som nævnt i hans biografi på DGISTs hjemmeside og i artiklen fra AI Times Korea, ser PINMAP som et paradigmeskift: "Denne forskning beviser, at intelligent software kan skubbe grænserne for sensorer uden nødvendigvis at afhænge af højteknologisk hardware."

Hvad med fremtiden?

Hvis PINMAP holder, hvad det lover, kunne vi se en ny generation af service-robotter, der er både mere overkommelige og pålidelige. Færre kollisioner betyder også mindre skade og større sikkerhed. Forskerholdet, hvor studiens førsteforfatter er Chae Ji-young, ph.d.-studerende ved DGIST, har desuden gjort deres open source-implementering tilgængelig, en gestus, der er værdsat af robotfællesskabet.

Så næste gang du møder en robot, kan du tænke på, at den måske er lidt klogere, end den ser ud. Og vigtigst af alt, at den ikke længere vil løbe ind i dig gennem stuevinduet!

Jerome

Ekspert i webudvikling, SEO og kunstig intelligens, min praktiske erfaring med at skabe automatiserede systemer går tilbage til 2009. I dag, udover at skrive artikler for at afkode aktualiteter og udfordringer inden for AI, designer jeg skræddersyede løsninger og fungerer som konsulent og underviser for en etisk, effektiv og ansvarlig AI.

Facebook - X (Twitter) - Linkedin
Clock IA > PINMAP: Den AI, der lærer robotter ikke længere at fare ind i møblerne (gennemsigtig)