DolphinAttack, czyli wirtualni asystenci podatni na ataki

DolphinAttack, czyli wirtualni asystenci podatni na ataki

Autor: Amadeusz Labuda

Opublikowano: 9/7/2017, 9:50 AM

Liczba odsłon: 1531

Coraz częściej w nowych domach i mieszkaniach sprzęgamy urządzenia elektroniczne z wirtualnymi asystentami, takimi jak Coratana. Upraszcza to wiele codziennych, drobnych czynności – niezależnie czy chodzi o uruchomienie radia, regulację termostatu ogrzewania czy też odsłonięcie rolet. Jak się jednak okazuje, wykorzystanie do zarządzania tego typu funkcjami urządzeń reagujących na nasz głos może stać się potencjalnie niebezpieczne, czego dowodzą ostatnie testy.

Badania nad metodą ataku skierowanego na urządzenia aktywowane głosem przeprowadzili niedawno badacze z chińskiego uniwersytetu Zheijiang. Zabrali się oni do problemu dosyć nietypowo, bowiem zamiast specjalnego szkodliwego oprogramowania, wykorzystali oni sprzęt – dokładniej rzecz ujmując, generator dźwięków niesłyszalnych dla ludzkiego ucha. Technika którą zastosowali jest relatywnie prosta: naukowcy przekonwertowali polecenia wydawane ludzkim głosem tak, by możliwe było ich odtworzenie w wysokiej częstotliwości (ponad 20 000 hz), za pomocą prostego układu podłączonego do smartfona. Atak tego typu nosi nazwę DolphinAttack, zaś tym co czyni go stosunkowo groźnym, jest fakt wyjątkowo niskiej ceny potrzebnych do jego przeprowadzenia komponentów – wystarczy przeciętny smartfon oraz układy elektroniczne których koszt wynosi mniej niż 3 dolary. Na pierwszy rzut oka problem może wydawać się niezbyt znaczący, jednak w żadnym wypadku tak nie jest! Przestępcy posługujący się tą metodą ataku mogą nie tylko wymusić na urządzeniach swoich ofiar połączenie ze stronami zawierającymi złośliwe oprogramowanie, lecz doprowadzić do dużo większych szkód – jak chociażby poprzez otwarcie inteligentnych zamków w drzwiach celem kradzieży. Mimo że urządzenie przedstawione na wideo posiada zasięg skuteczny zaledwie 2 metrów, należy stale mieć się na baczności. Dokonując pewnych ulepszeń i stosując lepsze komponenty prawdopodobnie uda się znacząco zwiększyć zasięg narzędzia ataku. Warto również wspomnieć o tym, że podatne na niego są nie tylko inteligentne głośniki, lecz również telefony. Oznacza to, że będąc na przykład w centrum handlowym możemy paść ofiarą DolphinAttack – wystarczy przejść obok przestępcy wykonującego właśnie atak.

Całkiem prawdopodobnym jest, że niedługo producenci urządzeń i wirtualnych asystentów wydadzą specjalne łatki, blokujące wykonywanie czynności zleconych za pomocą niebezpiecznego pasma. Do tego jednak momentu najlepiej upewnić się, że nie ryzykujemy niepotrzebnie. Według specjalistów, ataki tego typu są już od jakiegoś czasu przeprowadzane, jednak pełna ich skala nie jest znana.

Źródło: https://www.neowin.net/news/alexa-google-assistant-siri-and-others-vulnerable-to-silent-commands?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+neow

Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży
Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży

Wydarzenia