Hvordan vet selvkjørende biler hvor de er?  Det kalles "samtidig lokalisering og kartlegging" (SLAM).  Slik fungerer det.

Hva er SLAM? Hvordan selvkjørende biler vet hvor de er

Annonse Samtidig lokalisering og kartlegging (SLAM) er sannsynligvis ikke en setning du bruker hver dag. Imidlertid bruker flere av de nyeste kule teknologiske forundrene denne prosessen hvert millisekund av levetiden. Hva er SLAM? Hvorfor trenger vi det? Og hva er disse kule teknologiene du snakker om

Annonse

Samtidig lokalisering og kartlegging (SLAM) er sannsynligvis ikke en setning du bruker hver dag. Imidlertid bruker flere av de nyeste kule teknologiske forundrene denne prosessen hvert millisekund av levetiden.

Hva er SLAM? Hvorfor trenger vi det? Og hva er disse kule teknologiene du snakker om?

Fra akronym til abstrakt idé

Her er et raskt spill for deg. Hvilken av disse hører ikke hjemme?

  • Selvkjørende biler
  • Augmented reality-apper
  • Autonome luft- og undervannsbiler
  • Mixed reality wearables
  • Roomba

Du tror kanskje at svaret lett er det siste elementet på listen. På en måte har du rett. På en annen måte var dette et triksespill ettersom alle disse elementene er relatert.

Augmented Reality Mixed Reality Wearable
Bildekreditt: Nathan Kroll / Flickr

Det virkelige spørsmålet om det (veldig kule) spillet er dette: Hva gjør alle disse teknologiene gjennomførbare? Svaret: samtidig lokalisering og kartlegging, eller SLAM! som de kule barna sier det.

Generelt sett er formålet med SLAM-algoritmer lett nok til å iterere. En robot vil bruke samtidig lokalisering og kartlegging for å estimere sin posisjon og orientering (eller posering) i rommet mens han lager et kart over omgivelsene. Dette gjør at roboten kan identifisere hvor den er og hvordan de kan bevege seg gjennom et ukjent rom.

Derfor, ja, det vil si at alt dette fancy-smancy algoritmen gjør er å estimere posisjon. En annen populær teknologi, Global Positioning System (eller GPS) Hvordan fungerer GPS-sporing, og hva kan du spore med det? Hvordan fungerer GPS-sporing, og hva kan du spore med den? GPS. Vi kjenner det som teknologien som leder oss fra A til B. Men GPS er mer enn det. Det er en verden av muligheter, og vi vil ikke at du går glipp av det. Read More har estimert posisjonen siden den første gulfkrigen på 1990-tallet.

Å skille mellom SLAM og GPS

Så hvorfor behovet for en ny algoritme? GPS har to iboende problemer. For det første, mens GPS er nøyaktig i forhold til en global skala, reduserer både presisjon og nøyaktighet skalaen i forhold til et rom, et bord, eller et lite veikryss. GPS har nøyaktighet ned til en meter, men hva er centimeteren? Millimeter?

For det andre fungerer ikke GPS godt under vann. Med ikke bra mener jeg slett ikke det. Tilsvarende er ytelsen flekkete i bygninger med tykke betongvegger. Eller i kjellere. Du får ideen. GPS er et satellittbasert system som lider av fysiske begrensninger.

Så SLAM-algoritmer har som mål å gi en bedre følelse av posisjon for våre mest avanserte dingser og maskiner.

Disse enhetene har allerede en litany av sensorer og periferiutstyr. SLAM-algoritmer bruker dataene fra så mange av disse som mulig ved å bruke matematikk og statistikk.

Kylling eller egg? Posisjon eller kart?

Matematikk og statistikk er nødvendig for å svare på en kompleks kvartal: brukes posisjon til å lage kart over omgivelsene, eller brukes kartet for omgivelsene til å beregne posisjon?

Tenkte eksperimentstid! Du er interdimensjonalt forvrengt til et ukjent sted. Hva er det første du gjør? Panikk? OK, vel deg, ta en pust. Ta en annen. Hva er den andre tingen du gjør? Se deg rundt og prøv å finne noe kjent. En stol er til venstre for deg. En plante er til høyre for deg. Et salongbord er foran deg.

Deretter, når den lammende frykten for "Hvor i helvete er jeg?" Forsvinner, begynner du å bevege deg. Vent, hvordan fungerer bevegelse i denne dimensjonen? Ta et skritt fremover. Stolen og anlegget blir mindre og bordet blir større. Nå kan du bekrefte at du faktisk går fremover.

Observasjoner er nøkkelen til å forbedre nøyaktigheten til SLAM-estimatet. I videoen nedenfor, når roboten går fra markør til markør, bygger den et bedre kart over miljøet.

Tilbake til den andre dimensjonen, jo mer du går rundt, jo mer orienterer du deg. Å gå i alle retninger bekrefter at bevegelse i denne dimensjonen ligner på hjemmedimensjonen din. Når du går til høyre, blir planten større. Hjelpsomt ser du andre ting du identifiserer som landemerker i denne nye verdenen som lar deg vandre mer trygg.

Dette er egentlig prosessen med SLAM.

Innganger til prosessen

For å gjøre disse estimatene bruker algoritmene flere dataoppgaver som kan kategoriseres som interne eller eksterne. For ditt interdimensjonale transporteksempel (innrøm det, du hadde en morsom tur), de interne målingene er størrelsen på trinn og retning.

De ytre målingene som er gjort er i form av bilder. Å identifisere landemerker som anlegget, stolen og bordet er en enkel oppgave for øynene og hjernen. Den mest kraftige prosessoren som er kjent - den menneskelige hjernen - er i stand til å ta disse bildene og ikke bare identifisere objekter, men også estimere avstanden til det objektet.

Dessverre (eller heldigvis, avhengig av frykten for SkyNet), har ikke roboter en menneskelig hjerne som prosessor. Maskiner er avhengige av silisiumchips med menneskelig skriftlig kode som hjerne.

Andre maskiner gjør eksterne målinger. Perifere utstyr som gyroskop eller annen treghetsmåleenhet (IMU) er nyttige for å gjøre dette. Roboter som selvkjørende biler bruker også odometri av hjulposisjon som en intern måling.

Selvkjørende bil LIDAR
Bildekreditt: Jennifer Morrow / Flickr

Eksternt bruker en selvkjørende bil og andre roboter LIDAR. I likhet med hvordan radar bruker radiobølger, måler LIDAR reflekterte lyspulser for å identifisere avstand. Lyset som brukes er vanligvis ultrafiolett eller nær infrarødt, ligner en infrarød dybdesensor.

LIDAR sender ut titusenvis av pulser i sekundet for å lage et ekstremt høydefinert tredimensjonalt poengskytskart. Så, ja, neste gang Tesla ruller rundt på autopilot, vil den skyte deg med en laser. Mange ganger.

I tillegg bruker SLAM-algoritmer statiske bilder og datasynsteknikker som en ekstern måling. Dette gjøres med et enkelt kamera, men kan gjøres enda mer nøyaktig med et stereopar.

Inni den svarte boksen

Interne målinger vil oppdatere den estimerte posisjonen, som kan brukes til å oppdatere det eksterne kartet. Eksterne målinger vil oppdatere det estimerte kartet, som kan brukes til å oppdatere posisjonen. Du kan tenke på det som et inferensproblem, og ideen er å finne den optimale løsningen.

En vanlig måte å gjøre dette på er gjennom sannsynlighet. Teknikker som et partikkelfilter omtrentlig posisjon og kartlegging ved bruk av Bayesianske statistiske inferanser.

Et partikkelfilter bruker et fast antall partikler spredt ut ved en Gauss-fordeling. Hver partikkel “spår” robotens nåværende posisjon. Hver partikkel tilordnes en sannsynlighet. Alle partikler starter med samme sannsynlighet.

Når det gjøres målinger som bekrefter hverandre (for eksempel skritt frem = tabell blir større), får partiklene som er "riktige" i sin stilling trinnvis bedre sannsynligheter. Partikler som er langt bort tildeles lavere sannsynligheter.

Jo flere landemerker en robot kan identifisere, jo bedre. Landemerker gir tilbakemelding til algoritmen og gir mulighet for mer presise beregninger.

Gjeldende applikasjoner ved bruk av SLAM-algoritmer

La oss bryte ned dette, kule teknologien etter kult teknologien.

Autonome undervannsbiler (AUV)

Ubemannede ubåter kan operere autonomt ved bruk av SLAM-teknikker. En intern IMU gir data om akselerasjon og bevegelse i tre retninger. I tillegg bruker AUVs bunnvendt ekkolodd for dybdes estimering. Side scan sonar lager bilder av havbunnen, med en rekkevidde på et par hundre meter.

Autonomt undervannskjøretøy Side Scan Sonar Image
Bildekreditt: Florida Sea Grant / Flickr

Blandet virkelighetsblandinger

Microsoft og Magic Leap har produsert bærbare briller som introduserer Mixed Reality-applikasjoner Windows Mixed Reality: Hva det er og hvordan du prøver det nå Windows Mixed Reality: Hva det er og hvordan du prøver det nå Windows Mixed Reality er en ny funksjon som lar deg bruke Windows 10 i virtuell og augmented reality. Her er hvorfor det er spennende, og hvordan du finner ut om PCen din støtter den. Les mer . Å estimere posisjon og lage et kart er avgjørende for disse bærbare. Enhetene bruker kartet for å plassere virtuelle objekter oppå ekte objekter og få dem til å samhandle med hverandre.

Siden disse wearables er små, kan de ikke bruke store perifere utstyr som LIDAR eller ekkolodd. I stedet brukes mindre infrarøde dybdesensorer og utovervendte kameraer for å kartlegge et miljø.

Selvkjørende biler

Autonome biler har litt av en fordel fremfor bærbare. Med en mye større fysisk størrelse, kan biler ha større datamaskiner og ha flere perifere utstyr for å gjøre interne og eksterne målinger. På mange måter representerer selvkjørende biler fremtiden for teknologi, både når det gjelder programvare og maskinvare.

SLAM-teknologien forbedrer seg

Når SLAM-teknologi brukes på en rekke forskjellige måter, er det bare et spørsmål om tid før den blir perfeksjonert. Når selvkjørende biler (og andre biler) blir sett på daglig, vil du vite at samtidig lokalisering og kartlegging er klar for alle å bruke.

Selvkjørende teknologi forbedrer seg hver dag. Vil du vite mer? Sjekk ut MakeUseOfs detaljerte oversikt over hvordan selvkjørende biler fungerer. Hvordan selvkjørende biler fungerer: nøttene og boltene bak Googles autonome bilprogram. Hvordan selvkjørende biler fungerer: nøttene og boltene bak Googles autonome bilprogram Å kunne pendle tilbake og å jobbe mens du sover, spiser eller fanger opp favorittbloggene er et konsept som er like tiltalende og tilsynelatende langt borte og for futuristisk til å faktisk skje. Les mer . Du kan også være interessert i hvordan hackere er rettet mot tilkoblede biler.

Bildekreditt: chesky_w / Depositphotos

Utforsk mer om: Kunstig intelligens, Automotive Technology, Selvkjørende bil, SLAM.