W jaki sposób samochody autonomiczne wykorzystują widzenie komputerowe?

Opublikowany: 2021-02-08

W dzisiejszym świecie zapotrzebowanie na autonomiczne roboty lub pojazdy rośnie w tempie wykładniczym, a zastosowanie Symultanicznej Lokalizacji i Mapowania (SLAM) zyskuje coraz większe zainteresowanie. Po pierwsze, pojazdy autonomiczne mają wiązkę czujników, takich jak kamery, Lidar, Radar itp.

Czujniki te analizują otoczenie wokół pojazdu, zanim pojazd podejmie jakąkolwiek kluczową decyzję dotyczącą kolejnego stanu ruchu. Z Lidaru i danych z kamer tworzona jest mapa lokalizacji. Może to być mapa 2D lub 3D. Celem mapy jest identyfikacja obiektów statycznych wokół autonomicznego pojazdu, takich jak budynki, drzewa itp. Wszystkie obiekty dynamiczne są usuwane przez usunięcie wszystkich punktów Lidar, które znajdują się w obramowaniu wykrytych obiektów dynamicznych. Dowiedz się więcej o zastosowaniach AI

usuwane są również obiekty statyczne, które nie kolidują z pojazdem, takie jak nawierzchnia jezdna czy gałęzie drzew. Po utworzeniu siatki możemy przewidzieć bezkolizyjną ścieżkę pojazdu. Jednym z istotnych elementów SLAM jest 3DMapping otoczenia, który ułatwia autonomicznym robotom rozumienie otoczenia jak człowiek, dla którego wiele kamer Depth czy kamer RGB-D jest cennych.

Aby pojazdy autonomiczne mogły sprawnie nawigować, wymagają odniesienia i obserwowania otaczającego środowiska za pomocą algorytmów komputerowego widzenia, aby nakreślić mapę otoczenia i przemierzyć tor. Rekonstrukcja 3D obejmuje wykorzystanie wizji komputerowej do obserwacji otoczenia zewnętrznego za pomocą chmury punktów 3D opartej na głębi.

Dlatego podstawową zasadą jest połączenie rekonstrukcji 3D z autonomiczną nawigacją. Wzrost zainteresowania rozwiązaniami 3D wymaga kompletnego rozwiązania, które potrafi postrzegać otoczenie i budować projekcję 3D odpowiedniego otoczenia.

Praktyka algorytmów komputerowych do wprowadzania automatyzacji w robotyce lub tworzenia projektów 3D jest dość powszechna. Zagadka jednoczesnej lokalizacji i mapowania trwała od dłuższego czasu i przeprowadza się wiele badań w celu znalezienia skutecznych metodologii, które pozwolą rozwiązać problem mapowania.

Obecne badania w tej dziedzinie wykorzystują drogie kamery do tworzenia map dysproporcji i głębi, które choć są dokładniejsze, ale nadal są drogie. Różne metody polegają na wykorzystaniu kamer stereowizyjnych do określania głębokości otaczających obiektów, które są następnie wykorzystywane do tworzenia chmur punktów 3D.

Spis treści

Rodzaje map reprezentacji środowiska

  • Mapy lokalizacji: są tworzone przy użyciu zestawu punktów LIDAR lub funkcji obrazu z kamery podczas ruchu samochodu. Ta mapa wraz z GPU, IMU i odometrią jest wykorzystywana przez moduł lokalizacyjny do oszacowania dokładnej pozycji autonomicznego pojazdu. w miarę odebrania nowych danych LIDAR i kamer są one porównywane z mapą lokalizacyjną i tworzony jest pomiar pozycji pojazdu autonomicznego poprzez dopasowanie nowych danych do istniejącej mapy.
  • Mapa siatki zajętości : ta mapa wykorzystuje ciągły zestaw punktów LIDAR do zbudowania środowiska mapy, które wskazuje położenie wszystkich obiektów statycznych, które jest używane do zaplanowania bezpiecznej, bezkolizyjnej ścieżki dla pojazdu autonomicznego.

Należy zauważyć, że obecność obiektów dynamicznych w chmurze punktów utrudnia dokładną rekonstrukcję chmury punktów. Te dynamiczne obiekty uniemożliwiają faktyczną przebudowę otoczenia. W tym samym celu ważne jest sformułowanie rozwiązania, które rozwiąże ten problem.

Główną intencją jest identyfikacja tych dynamicznych obiektów za pomocą uczenia głębokiego. Po zidentyfikowaniu tych obiektów punkty otaczające tę ramkę ograniczającą można odrzucić. W ten sposób zrekonstruowany model będzie w całości składał się z obiektów statycznych.

Kamera RGB-D może mierzyć głębokość za pomocą czujnika podczerwieni. Uzyskane w ten sposób dane wyjściowe to dane obrazu (wartości RGB) oraz dane dotyczące głębi (zasięg obiektu z kamery). Ponieważ głębokość musi być dokładna, każda niezgodność może spowodować śmiertelny wypadek. Z tego powodu kamery są kalibrowane w taki sposób, aby zapewniały dokładny pomiar otoczenia. Mapy głębokości są zwykle używane do sprawdzania dokładności obliczonych wartości głębokości.

Mapa głębi to wynik otoczenia w skali szarości, w którym obiekty znajdujące się bliżej kamery mają jaśniejsze piksele, a te dalej mają ciemniejsze piksele. Dane obrazu uzyskane z kamery są przekazywane do modułu wykrywania obiektów, który identyfikuje dynamiczne obiekty obecne w ramce.

Jak więc zidentyfikować te dynamiczne obiekty, o które możesz zapytać?

W tym przypadku sieć neuronowa głębokiego uczenia jest szkolona w celu identyfikacji obiektów dynamicznych. Tak wyszkolony model przechodzi przez każdą klatkę otrzymaną z kamery. Jeśli istnieje zidentyfikowany obiekt dynamiczny, te klatki są pomijane. Ale z tym rozwiązaniem jest problem. Pomijanie całej klatki nie ma sensu. Problem w tym – retencja informacji.

Aby temu zaradzić, tylko piksele obwiedni są eliminowane, podczas gdy otaczające piksele są zachowywane. Jednak w zastosowaniach związanych z autonomicznymi pojazdami i autonomicznymi dronami dostawczymi rozwiązanie przenosi się na inny poziom. Pamiętaj, wspomniałem, że otrzymujemy trójwymiarową mapę otoczenia za pomocą czujników LIDAR.

Następnie model głębokiego uczenia (3D CNN) służy do eliminacji obiektów w ramce 3D (osie x,y,z). Te modele sieci neuronowych mają wyjścia w 2 postaciach. Jednym z nich jest wynik predykcji, który jest prawdopodobieństwem lub prawdopodobieństwem zidentyfikowanego obiektu. A drugi to współrzędne obwiedni. Pamiętaj, wszystko to dzieje się w czasie rzeczywistym. Niezwykle ważne jest więc, aby istniała dobra infrastruktura do obsługi tego rodzaju przetwarzania.

Poza tym wizja komputerowa odgrywa również ważną rolę w identyfikacji znaków drogowych. Istnieją modele, które działają w połączeniu, aby wykrywać te znaki drogowe różnego rodzaju – ograniczenie prędkości, ostrożność, ograniczenie prędkości itp. Ponownie, wyszkolony model głębokiego uczenia jest używany do identyfikacji tych oznak życiowych, aby pojazd mógł odpowiednio działać.

W przypadku wykrywania linii pasa widzenie komputerowe jest stosowane w podobny sposób

Zadanie polega na wytworzeniu współczynników równania linii pasa ruchu. Równanie linii pasa można przedstawić za pomocą współczynników pierwszego, drugiego lub trzeciego rzędu. Proste równanie pierwszego rzędu to po prostu równanie liniowe typu mx+n (linia prosta). Równania wysokowymiarowe mają większą moc lub porządek reprezentujący krzywe.

Zestawy danych nie zawsze są spójne i sugerują współczynniki linii pasa. Ponadto możemy dodatkowo chcieć zidentyfikować charakter linii (ciągła, przerywana itp.). Istnieje wiele cech, które możemy chcieć wykryć, a uogólnienie wyników przez pojedynczą sieć neuronową jest prawie niemożliwe. Powszechną metodą rozwiązania tego dylematu jest zastosowanie podejścia segmentacyjnego.

W segmentacji celem jest przypisanie klasy do każdego piksela obrazu. W tej metodzie każdy pas przypomina klasę, a model sieci neuronowej ma na celu wytworzenie obrazu z pasami składającymi się z różnych kolorów (każdy pas będzie miał swój własny kolor).

Przeczytaj także: Pomysły i tematy projektów AI

Wniosek

Tutaj omówiliśmy ogólne zastosowania wizji komputerowej w dziedzinie pojazdów autonomicznych. Mam nadzieję, że podobał Ci się ten artykuł.

Jeśli chcesz dowiedzieć się więcej o uczeniu maszynowym i sztucznej inteligencji, sprawdź dyplom PG IIIT-B i upGrad w uczeniu maszynowym i sztucznej inteligencji, który jest przeznaczony dla pracujących profesjonalistów i oferuje ponad 450 godzin rygorystycznych szkoleń, ponad 30 studiów przypadków i zadań, Status absolwentów IIIT-B, ponad 5 praktycznych praktycznych projektów zwieńczenia i pomoc w pracy z najlepszymi firmami.

Ucz się kursu ML z najlepszych światowych uniwersytetów. Zdobywaj programy Masters, Executive PGP lub Advanced Certificate Programy, aby przyspieszyć swoją karierę.

Do czego służy wizja komputerowa?

Widzenie komputerowe to wyspecjalizowana gałąź sztucznej inteligencji, która pomaga komputerom wyodrębniać znaczące dane z wizualnych danych wejściowych i podejmować decyzje na podstawie uzyskanych informacji. Widzenie komputerowe to w rzeczywistości multidyscyplinarny podzbiór sztucznej inteligencji i uczenia maszynowego, który wykorzystuje zaawansowane techniki i ogólne algorytmy uczenia się. Za pomocą wizji komputerowej komputery mogą widzieć i rozumieć dane wejściowe, takie jak filmy i obrazy cyfrowe, oraz podejmować niezbędne działania zgodnie z programem. Podobnie jak sztuczna inteligencja pomaga komputerom myśleć, wizja komputerowa umożliwia im obserwację i zrozumienie. Za pomocą wizji komputerowej komputery mogą wydajnie wydobywać jak najwięcej z danych wizualnych, aby zobaczyć obraz i zrozumieć treść.

Czy samochody autonomiczne są bezpieczne?

Jeśli chodzi o bezpieczeństwo tych automatycznych samochodów, nie można wprost zaprzeczyć niektórym pozornie ryzykownym aspektom. Przede wszystkim przychodzą na myśl kwestie bezpieczeństwa cybernetycznego. Pojazdy autonomiczne mogą być podatne na cyberataki, podczas których złoczyńcy włamują się do oprogramowania samochodu, aby ukraść samochód lub dane osobowe jego właściciela. Prawdopodobnym ryzykiem są również bezprecedensowe usterki oprogramowania lub niebezpieczeństwo, że kierowca jest całkowicie uzależniony od reakcji samochodu w nieoczekiwanych sytuacjach, skutkujących wypadkami. Istnieje jednak wiele zalet autonomicznych samochodów, które mogą zrównoważyć pozorne zagrożenia. Autonomiczne samochody są przyjazne dla środowiska i wyjątkowo bezpieczne w przypadku jazdy pod wpływem alkoholu, gdzie kierowcy mogą polegać na pojeździe, aby bezpiecznie dojeżdżać do pracy.

Jakie firmy wprowadziły na rynek autonomiczne samochody na dzień dzisiejszy?

Samochody autonomiczne lub autonomiczne są już dziś częścią rzeczywistości i jednym z najgorętszych tematów dyskusji. Wraz z postępem technologicznym samochody autonomiczne również ewoluują i wprowadzają na rynek modele z najwyższej półki, które z każdym upływającym czasem stają się coraz lepsze. Giganci motoryzacyjni na całym świecie wypuszczają już w pełni autonomiczne samochody z wcześniejszych wersji pojazdów półautonomicznych. Niektóre z najbardziej godnych uwagi firm, które wprowadziły samochody autonomiczne, to Tesla, Waymo, Pony.ai i inne.