AI na poziomie sprzętu to dla HoloLens konieczność

AI na poziomie sprzętu to dla HoloLens konieczność

Autor: Krzysztof Sulikowski

Opublikowano: 7/26/2017, 1:06 PM

Liczba odsłon: 2162

Sztuczna inteligencja odpowiedzialna choćby za rozpoznawanie zawartości obrazów czy tłumaczenie całych książek w ułamek sekundy kojarzy nam się przede wszystkim z chmurą. Trudno bowiem oczekiwać tak karkołomnych i zasobożernych procesów od naszych blaszaków, nie wspominając nawet o urządzeniach mobilnych. Wygląda jednak na to, że powoli następuje zwrot w kierunku zasobów lokalnych, których rola w procesach związanych z AI stanie się znacząca. Czy podejście cloud-first zostanie zastąpione przez AI-first?

Na pierwszy plan wysuwa się nowy HoloLens, jednak by lepiej zrozumieć nowy trend w budowaniu urządzeń, trzeba spojrzeć na to szerzej. Innymi słowy, konkurencja robi to samo, a Microsoft nie może (i wcale nie zamierza) odpuścić. Kilka dni temu pisaliśmy o planowanej nowej wersji HoloLens, wyposażonej w HPU 2.0, czyli koprocesor odpowiedzialny za SI. W praktyce przyspieszy to działanie HoloLens pod kątem rozpoznawania zawartości i innych czynności, które wymagały dotąd udziału chmury, a więc wysłania i odebrania często sporych pakietów danych. Wiele takich procesów będzie się odtąd odbywać z całkowitym pominięciem chmury, jedynie przy udziale zasobów lokalnych. Takie podejście wiąże się jednak z zasadniczym problemem - jak przetwarzać ogromne pakiety danych w relatywnie krótkim czasie, by nie spowalniać pracy urządzenia i nie wyczerpać baterii w ciągu kilku minut? Odpowiedź stanowi sprzęt nowej generacji.

Za taki sprzęt uważać można właśnie nowy koprocesor AI w HoloLens. Analizuje on obraz widziany przez użytkownika, dochodzące do niego dźwięki i inne dane, dzięki czemu oszczędzamy cenne milisekundy (o ile mamy oczywiście dostęp do szybkiego łącza!), które dawniej zostałyby przeznaczone na wymianę danych z chmurą. Spójrzmy na to jeszcze inaczej. Nowa wersja koprocesora stworzonego przez Microsoft - Holographic Processing Unit 2.0 - jest jednym z niewielu przykładów zaangażowania giganta w tworzenie procesora. Microsoft potwierdził też, że HPU 2.0 jest pierwszym tego rodzaju chipem zaprojektowanym dla urządzenia mobilnego. Okazuje się jednak, że nad zaprzęgnięciem AI do urządzeń lokalnych pracuje też konkurencja. Apple ma rzekomo testować prototypowe iPhone'y z chipem przetwarzającym AI, z kolei Google pracuje nad drugą wersją podobnych układów. Do gry dołączył też Qualcomm, zapowiadając wspomagający AI silnik Neural Processing Engine, który zostanie zawarty w Snapdragonie 835. By więc zachęcić klientów do zakupów najnowszych gadżetów - telefonów, zestawów VR czy nawet samochodów - doświadczenie użytkowania musi być szybkie jak błyskawica i bezproblemowe... a tego nie są w stanie zapewnić tradycyjne procesory używane w komputerach i telefonach.

Lokalne zasoby mają w nie tak odległej przyszłości odgrywać ważną rolę nie tylko w urządzeniach mobilnych, ale i w świecie motoryzacji, gdzie szybkość działania przekłada się na bezpieczeństwo. "Konsument będzie się spodziewał niemalże braku jakichkolwiek opóźnień i przetwarzania w czasie rzeczywistym. W przypadku samochodów autonomicznych nie można sobie pozwolić na wysyłanie i odbieranie danych z chmury, które kierowałyby decyzją o uniknięciu stłuczki lub potrącenia przechodnia. Rozmiary danych wychodzących z samochodów autonomicznych są olbrzymie i nie można ich wszystkich wysyłać do chmury" - przekonuje analityk Tirias Research, Jim McGregor i dodaje, że w 2025 roku każde urządzenie, z którym będziemy wchodzić w interakcję, będzie wyposażone we wbudowaną AI. Jeśli więc nie nastąpi jakiś drastyczny skok szybkości łącz bezprzewodowych, by te dostosowały się do swoistego big data, technologia w pewien sposób zatoczy koło i powróci do zasobów lokalnych.