
In een recent onderzoek hebben onderzoekers uit China een LiDAR-systeem op chip-schaal ontwikkeld dat de foveatie van het menselijk oog nabootst door de detectie met hoge- resolutie dynamisch te concentreren op interessegebieden (ROI's), terwijl een breed bewustzijn over het volledige gezichtsveld behouden blijft.
Het onderzoek is gepubliceerd in het tijdschriftNatuurcommunicatie.
LiDAR-systemen versterken machinevisie in zelf-rijdende auto's, drones en robots door laserstralen af te vuren om 3D-scènes tot op de millimeter nauwkeurig in kaart te brengen. Het oog bundelt zijn dichtste sensoren in de fovea (scherpe centrale zichtplek) en verschuift de blik naar wat belangrijk is. Daarentegen gebruiken de meeste LiDAR's stijve parallelle bundels of scans die overal een uniforme (vaak grove) resolutie verspreiden. Het vergroten van de details betekent dat er meer kanalen op uniforme wijze moeten worden toegevoegd, wat de kosten, het vermogen en de complexiteit doet exploderen.
Het ontwerp van het team bereikt een hoekresolutie "buiten-het netvlies" van 0,012 graden in ROI's-tweemaal zo scherp als de limiet van ongeveer 0,017 graden voor het oog. Dit betekent dat het systeem punten kan onderscheiden die door de kleinste hoeken zijn gescheiden, zoals het opmerken van fijne details op een verkeersbord op afstand. Het wijst op verzoek parallelle detectiekanalen opnieuw toe, waardoor dure schaalvergroting met brute kracht wordt vermeden.
Phys.org sprak met de co-coauteurs van het onderzoek, Ruixuan Chen en Xingjun Wang, van de School of Electronics van de Universiteit van Peking.
"De motivatie komt voort uit een praktische mismatch tussen biologische en machinale perceptie", legden de onderzoekers uit. "Het menselijk oog bereikt een hoge scherpte en energie-efficiëntie door de aandacht te herverdelen-en een breed bewustzijn te behouden terwijl de middelen worden geconcentreerd op wat belangrijk is. LiDAR-resolutie wordt daarentegen vaak nagestreefd door 'meer kanalen overal', wat al snel duur wordt en energie vraagt-."
Het schaalprobleem
Machine vision-systemen zijn verder uitgebreid dan traditionele camera's en omvatten LiDAR-sensoren, die nauwkeurige afstandsmetingen en 3D-omgevingsperceptie mogelijk maken. In tegenstelling tot passieve camera's vereist LiDAR echter emissie- en ontvangsthardware voor elke pixel, waardoor de haalbare resolutie wordt beperkt.
De huidige benaderingen voor het verbeteren van de LiDAR-resolutie worden geconfronteerd met een kritisch knelpunt. Kanaalduplicatie levert lineaire resolutiewinst op, maar veroorzaakt superlineaire explosies in complexiteit, kracht en kosten.
"Ten eerste is de resolutie nauw gekoppeld aan het aantal hardwarekanalen en de scanmechanismen. Ten tweede is LiDAR een actieve sensor: elke pixel kost effectief zowel zend- als ontvangstbronnen", legden de onderzoekers uit. "Dat maakt adaptieve scherpstelling fundamenteel moeilijker dan bij passieve beeldvorming, omdat je het optische vermogen, de gevoeligheid van de ontvanger en de digitaliseringsbandbreedte moet beheren terwijl je aan de veiligheidsbeperkingen voldoet."
Voor coherente frequentie-gemoduleerde continue golf-LiDAR is deze uitdaging bijzonder acuut. Elk coherent kanaal vereist een stabiele frequentieregeling, geavanceerde ontvangsthardware en nauwkeurige kalibratie. Dit maakt grootschalige kanaalduplicatie veel moeilijker economisch te rechtvaardigen.
Een biomimetische oplossing
De oplossing van de onderzoekers combineert twee sleuteltechnologieën. Deze omvatten een flexibele externe-cavity laser (ECL) met een afstembereik van meer dan 100 nm, en herconfigureerbare elektro-optische frequentiekammen gebouwd op dunne-film lithiumniobaat (TFLN)-platforms.
De ECL levert FMCW-tjirpsignalen van hoge-kwaliteit voor coherent bereik en fungeert als een golflengte-gecontroleerd straal-stuurmechanisme. Door de centrale golflengte af te stemmen, kan het systeem zijn kijkrichting snel omleiden binnen een breed gezichtsveld.
De elektro{0}}optische kam genereert vervolgens meerdere parallelle FMCW-draaggolven uit dezelfde getjilpte laserbron. Cruciaal is dat het aanpassen van de omstandigheden van de radiofrequentie-aandrijving de kamafstand verandert.
"Dit is wat 'zoom' mogelijk maakt- we kunnen de puntdichtheid in een geselecteerd gebied vergroten (fijnere bemonstering) of ontspannen (grovere bemonstering) zonder de optica te veranderen of kanalen toe te voegen", voegden de onderzoekers eraan toe.
Het systeem maakt gebruik van wat de onderzoekers 'micro-parallelisme' noemen. Dit betekent dat een bescheiden aantal fysieke kanalen moet worden gebruikt om het equivalent van veel meer scanlijnen te bereiken door middel van dynamische herpositionering.
Experimentele validatie
Het team demonstreerde de mogelijkheden van het systeem in drie experimentele scenario's, waarbij een hoekresolutie van 0,012 graden werd bereikt in gerichte gebieden-die de nominale limiet van het menselijk netvlies overtrof.
Bij statische scènebeeldvorming heeft het systeem een gesimuleerde wegomgeving vastgelegd met een resolutie van 54 bij 71 pixels voor volledige gezichtsveld-van- scans en 17 bij 71 pixels voor lokaal gerichte scans. Deze gerichte scans verviervoudigden de verticale detaildichtheid, waardoor obstakels zichtbaar werden die voorheen onzichtbaar waren, waarbij 90% van de punten nauwkeurig was tot op minder dan 1,3 cm.
De onderzoekers demonstreerden ook LiDAR-camerafusie, waardoor gekleurde puntenwolken ontstonden die nauwkeurige 3D-geometrie combineren met RGB-weergavegegevens. Bij het vergelijken van standaard versus gerichte scans verbeterde de uitlijning van het kleurhistogram met ongeveer 10%, wat wijst op een betere overeenkomst tussen 3D-punten en beeldpixels.
"Door LiDAR te combineren met een camera, genereren we ingekleurde puntenwolken en verrijken we de scènerepresentatie, wat de interpreteerbaarheid verbetert en stroomafwaartse perceptietaken ondersteunt die afhankelijk zijn van textuur en semantische signalen", legden de onderzoekers uit.
Misschien wel het meest indrukwekkend was dat het team real-4D-plus beeldvorming-een basketbalworp vastlegde waarbij elk punt tegelijkertijd positie, draaisnelheid, oppervlaktereflectiviteit en kleur liet zien. Bij 8 Hz over een breed gezichtsveld onthulde dit bewegingspatronen die onzichtbaar waren voor standaard 3D LiDAR.
Het experimentele werk bracht belangrijke afwegingen op systeem-niveau aan het licht die toekomstige ontwikkelingspaden bepalen.
"Het duidelijkste is de spanning tussen hoekresolutie en meetruimte per- kanaal", merkten de onderzoekers op. "In onze parallelle coherente uitlezing moet elk kanaal zijn eigen niet-overlappende elektrische band innemen. Als we de herhalingssnelheid verlagen, kunnen we de hoekbemonstering inderdaad fijner maken, maar het experiment laat zien dat dit ook de uitleesbandbreedte per- kanaal comprimeert."
Het team identificeerde verschillende prioritaire richtingen voor het bevorderen van de technologie in de richting van praktische implementatie. Deze omvatten een diepere monolithische integratie op TFLN-platforms, de ontwikkeling van ultra-breedbandbronnen voor een betere bereikresolutie en de implementatie van een gesloten-loop-aandachtsbeleid voor gebeurtenis-gestuurde perceptie.
Huidige experimenten met glasvezelverbindingen introduceren polarisatie-instabiliteit die de mogelijkheden voor materiaalclassificatie beperkt.
"Wij voorzien echter dat monolithische integratie dit knelpunt fundamenteel zal oplossen", aldus de onderzoekers. "Door over te stappen van onstabiele vezelpaden naar beperkte op-chipgolfgeleiders, kunnen we een stabiel polarisatieherstel bereiken."
Het bionische LiDAR-systeem biedt potentiële toepassingen, waaronder autonome voertuigen, drones in de lucht en op zee, robotica en neuromorfe zichtsystemen. Naast LiDAR maken herconfigureerbare kammen snelle spectrale analyse mogelijk voor optische communicatie, coherentietomografie, compressieve detectie en precisiemetrologie, aldus de onderzoekers.









