På nuværende tidspunkt er logistiske intelligente håndteringsrobotter, fejerobotter og så videre blevet anvendt i nogle byer og familier, ubemandede luftfartøjer, ubemandede køretøjer og så videre fremmes også hurtigt, grunden til, at disse robotter hurtigt kan komme ind i ansøgningsfasen, og udvikling af autonom positionerings- og navigationsteknologi er uadskillelig.
For nylig udgav iResearch, et datterselskab af iresearch Consulting, deres resumé af "TOP10 globale AI-gennembrudsteknologier i 2018", og robottens autonome navigationsteknologi baseret på multi-sensor grænseoverskridende fusion var blandt dem. Hvad er robot autonom positionerings- og navigationsteknologi? På nuværende tidspunkt er der flere tekniske midler til at realisere robotters autonome positionering og navigation. Hvad er vanskelighederne og udfordringerne ved at implementere disse teknologier og applikationer?
Grundlæggende: Syn og radar er de primære sensorer
Det kan siges, at autonom positionerings- og navigationsteknologi er blevet en af kernen og fokus for robotprodukter. Dr. Du Mingfang, et ekspertmedlem af Chinese Society of Automation og Internet Industry Research Institute ved Tsinghua University, fortalte Sci-Tech Daily, at autonom navigation omfatter to dele: lokal navigation og global navigation fra et stort perspektiv. Lokal navigation refererer til realtidsopsamling af aktuelle miljøoplysninger gennem vision, radar, ultralydssensorer og andre sensorer, udtræk af datafusionsfunktioner og intelligent algoritmebehandling for at opnå bedømmelsen af det aktuelle passable område og multi-target tracking. Global navigation refererer hovedsageligt til brugen af globale navigationsdata leveret af GPS til at udføre global stiplanlægning og realisere stinavigation inden for rammerne af et komplet elektronisk kort.
"I øjeblikket er syn og radar de to vigtigste sensorer, der bruges til lokal autonom navigation." Du Mingfang forklarede, at som en passiv sensor er fordelene ved visuel sensor betydelige, såsom rig adgang til information, god skjul, lille størrelse, vil ikke bringe "miljøforurening" på grund af interferens, lave omkostninger sammenlignet med radar. For at realisere autonom navigation er det almindeligt, at en række sensorer samarbejder med hinanden for at identificere en række miljøoplysninger, såsom vejgrænser, terræntræk, forhindringer, guider osv. På denne måde kan robotten bestemme det tilgængelige område eller uopnåelige område i fremadgående retning gennem miljøopfattelse, bekræfte dets relative position i miljøet, forudsige bevægelsen af dynamiske forhindringer og give et grundlag for lokal stiplanlægning.
Du Mingfang fortalte journalister, at fra den nuværende udviklingssituation er multi-sensor informationsfusionsteknologi blevet anvendt på det autonome navigationssystem, og dets rolle er også relateret til robottens intelligente niveau. "Kernen i navigationsteknologien er, at den effektivt kan behandle og sammensmelte den information, der indsamles af flere sensorer, forbedre robottens 'modstandsevne' til usikker information, sikre, at mere pålidelig information bruges og hjælpe med at bedømme det omgivende miljø mere intuitivt. ." "Han sagde.
Visuel navigation er med succes blevet anvendt på flynavigation i lav højde, ubemandet luftfartøjsnavigation og Mars rover-landingsnavigation. Du Mingfang sagde dog også, at informationen fra visuelle sensorer ikke er direkte, efterspørgslen efter databehandling og lagring er stor, og byrden ved netværkstransmission er stor. Multi-sensor information fusion kan eliminere usikkerheden i robot positionering og navigation og forbedre nøjagtigheden, men overdreven fusion vil også medføre dobbelt stigning i mængden af beregning.
Hvordan kan disse problemer løses? Du Mingfang mener, at det er nøglen at vælge den rigtige fusionsalgoritme. På nuværende tidspunkt "er der flere og flere grundlæggende teorier såsom intelligent computing-teori og sandsynlighedsteori, der anvendes på området robot-multisensorfusion." "Han sagde.
Metode: En række teknologikombinationer for at opnå komplementære fordele
Hvad er måderne til at realisere robottens autonome positionering og navigation? Faktisk er den autonome kørsel af biler og den delvise autonome positionerings- og navigationsteknologi, der bruges af robotter, konsekvente. Chen Jinpei, administrerende direktør for Chihiro Position, fortalte journalister, at virksomheden bruger en kombination af lidar-positionering og navigations- og sensorteknologi til at opnå positioneringsnøjagtighed på omkring en meter og fuldføre indledende positionering på tre sekunder.
Den såkaldte lidar-navigation er at installere en laserreflektor med præcis position rundt om kørebanen. Robotten sender en laserstråle gennem laserscanneren og opsamler laserstrålen, der reflekteres af reflektoren, for at bestemme dens aktuelle position og kurs, og realiserer vejledning gennem kontinuerlig trekantet geometrisk drift. Ud over afstands- og positioneringsfunktioner har lidar også funktionerne identifikation og undgåelse af forhindringer.
Du Mingfang sagde, at lidar er en aktiv sensor, og de perceptionsdata, den giver, er meget enklere og mere direkte end visuel information, med mindre beregning ved behandling. Men ulempen er høje omkostninger, dårlig fortielse, "forurening" til miljøet, information er ikke rig nok.
Det er underforstået, at Sunings robot- og ubemandede køretøjs autonome navigation anvender en anden "multi-line lidar plus GPS plus inertial navigation og anden multi-sensor fusion positioning mode". Specifikt bruges lidar for det første til miljøkortlægning for at opnå et tidligere punktskykort, og maskinens globale position bestemmes indledningsvis gennem GPS og inerti-navigation. Derefter matches lidar-scanningsdata med det tidligere punktskykort for at opnå en mere nøjagtig global position og opnå nøjagtig positionering og autonom navigation. På perceptionsniveauet integrerer lidar vision for at identificere fodgængere, køretøjer og forhindringer omkring dem i realtid, hvilket giver et grundlag for planlægning af den optimale omvej.
Derudover er der inertinavigation, som refererer til installation af gyroskop på robotten eller det ubemandede køretøj, installation af positioneringsblok på jorden i køreområdet, gennem beregning af gyroskopafvigelsessignal (vinkelhastighed) og indsamling af jordpositioneringsbloksignal til at bestemme deres egen position og kurs for at opnå vejledning. Den ansvarlige for Suning sagde i et interview med Science and Technology Daily, at inertial navigationsteknologi har nøjagtig positionering, lille arbejdsbyrde af jordbehandling og stærk stifleksibilitet. Imidlertid er fremstillingsomkostningerne høje, og præcisionen og pålideligheden af vejledningen er tæt forbundet med fremstillingsnøjagtigheden af gyroskop og dets efterfølgende signalbehandling. Kort sagt kan ét teknisk middel ikke løse alle problemer.
Udfordringer: Strømforbrug, omkostninger og industrialiseringsproblemer, der skal løses
På nuværende tidspunkt er anvendelsen af autonom positionerings- og navigationsrobot hovedsageligt opdelt i to kategorier, den ene er familiens brug af fejende robot og familiepleje, ledsagerrobot. Chen Shikai, administrerende direktør for Silan Technology, sagde, at sådanne applikationsscenarier kan opsummeres som "nulkonfiguration", med hensyn til forbrugerbrug, det skal være så enkelt som muligt, og det kan bruges, når det købes tilbage. Den anden er i det kommercielle scenario, som kræver en præ-konfigurationsproces med høj pålidelighed og skalerbarhed.
Chen Shikai sagde, at det personlige hjemmescenenavigations- og positioneringssystem skulle løse udfordringerne med strømforbrug, volumen og omkostninger. På nuværende tidspunkt har både realtidslokalisering og kortkonstruktion (SLAM) algoritme og stiplanlægningssystemer høj kompleksitet. "For en robot, der fejer gulvet, har selve batteriet muligvis kun en kapacitet på mere end 20 watt-timer. Hvis du sætter en bærbar computer på den for at køre SLAM-algoritmen, løber den måske tør for strøm på mindre end en time, hvilket er fuldstændig uacceptabelt."
Når den nye robot tændes for første gang, kender den desuden ikke strukturen i hjemmemiljøet og skal kortlægges på forhånd. "Dette er en selvmodsigelse," sagde Chen. Robotter forventes at arbejde med det samme, når de er i miljøet, men almindelige algoritmer skal også have et forudbygget eller udforsket miljø, og på dette område "er der noget arbejde for industrien at udføre." For eksempel kan en indledende sti planlægges, og stien kan gradvist raffineres og forbedres, efterhånden som robotten bruges og udforskes, sagde Chen.
I kommercielle eller professionelle scenarier er vanskeligheden ved autonome navigationssystemer, at kortområdet i kommercielle scenarier er stort, endda mere end titusindvis af kvadratmeter. "I øjeblikket er SLAM-systemer hukommelses- og computerintensive. Hvordan man får det til at fungere i så stor en scene er en stor udfordring for navigations- og positioneringssystemer." Løsningen, sagde hr. Chen, er at have kraftfuld hardware sammen med bedre optimering af software og algoritmer. "På nuværende tidspunkt bør et kvalificeret navigations- og positioneringssystem ikke kun have lidar, men også visuelle sensorer og ultralydsbølger, og den tilsvarende fusion bør udføres i navigations- og positioneringsalgoritme. Denne integration er måske ikke vanskelig akademisk eller algoritmisk, men i betragtning af problemerne med industrialisering, for eksempel, er mange ultralydssensorer ikke-standardprodukter, og dybdesynssensorer har forskellige specifikationer og forskellige installationssteder, der er udfordringer med, hvordan man kan levere en ensartet standardiseret grænseflade, som kunderne kan bruge."


