Czujniki światła otoczenia w telefonie iPhone i systemie Android umożliwiają ukryte szpiegostwo

Czujniki światła otoczenia w telefonie iPhone i systemie Android umożliwiają ukryte szpiegostwo

Węzeł źródłowy: 3074242

Według badaczy z programu robotyki MIT czujniki światła otoczenia zwykle stosowane w inteligentnych urządzeniach do regulacji jasności ekranu mogą rejestrować obrazy interakcji użytkownika i stanowić wyjątkowe zagrożenie dla prywatności.

Akademicki zespół badawczy rozwinięty algorytm obrazowania obliczeniowego ilustrujący potencjalne ryzyko, podkreślając wcześniej przeoczoną zdolność tych czujników do ukrytego rejestrowania gestów użytkownika.

W przeciwieństwie do kamer, czujniki nie wymagają, aby aplikacje natywne lub innych firm uzyskiwały pozwolenie na ich użycie, co czyni je podatnymi na wykorzystanie.

Naukowcy wykazali, że czujniki światła otoczenia mogą w ukryciu rejestrować interakcje dotykowe użytkownika, takie jak przewijanie i przesuwanie, nawet podczas odtwarzania wideo.

Proces ten wykorzystuje technikę inwersji, polegającą na zbieraniu zmian światła o niskiej przepływności blokowanych przez dłoń użytkownika na ekranie.

Yang Liu, doktorant na Wydziale Inżynierii Elektrycznej i Informatyki (EECS) MIT oraz CSAIL, wyjaśnia, że ​​czujniki te mogą stanowić zagrożenie dla prywatności podczas przetwarzania obrazów, dostarczając te informacje do hakerzy monitorujący inteligentne urządzenia.

„Czujnik światła otoczenia potrzebuje odpowiedniego poziomu natężenia światła, aby pomyślnie odtworzyć obraz interakcji dłoni” – wyjaśnia. „Niewymagające pozwolenia i zawsze włączone czujniki światła otoczenia zapewniające takie możliwości obrazowania wpływają na prywatność, ponieważ ludzie nie są świadomi, że urządzenia inne niż obrazujące mogą wiązać się z tak potencjalnym ryzykiem”.

Czujniki otoczenia smartfona: dodatkowe obawy dotyczące bezpieczeństwa

Dodaje, że oprócz podsłuchiwania gestów dotykowych potencjalnym zagrożeniem dla bezpieczeństwa jest ujawnienie częściowych informacji o twarzy.

„Dodatkową informacją jest kolor” – wyjaśnia. „Większość dzisiejszych inteligentnych urządzeń jest wyposażona w wielokanałowe czujniki światła otoczenia umożliwiające automatyczną regulację temperatury barwowej — to bezpośrednio przyczynia się do odzyskiwania kolorowego obrazu w przypadku zagrożeń prywatności podczas fotografowania”.

Trend w zakresie stosowania w elektronice użytkowej większych i jaśniejszych ekranów może również wpłynąć na tę powierzchnię zagrożenia, zwiększając zagrożenie prywatności związane z obrazowaniem.

„Dodatkowa sztuczna inteligencja i [model z dużym językiem] Obsługiwany przez LLM Rozwój obrazowania obliczeniowego może również umożliwić obrazowanie zawierające zaledwie jeden bit informacji na pomiar i całkowicie zmienić nasze obecne „optymistyczne” wnioski dotyczące prywatności” – ostrzega Liu.

Rozwiązanie: ograniczenie stawek za przesyłanie informacji

Liu wyjaśnia, że ​​środki łagodzące po stronie oprogramowania pomogłyby ograniczyć uprawnienia i przepływ informacji przez czujniki światła otoczenia.

„W szczególności dostawcy systemów operacyjnych powinni dodać kontrolę uprawnień do tych „niewinnych” czujników na poziomie podobnym lub nieco niższym niż w przypadku kamer” – mówi.

Liu twierdzi, że aby zrównoważyć funkcjonalność czujników z potencjalnym ryzykiem dla prywatności, należy jeszcze bardziej zmniejszyć prędkość czujników światła otoczenia do 1–5 Hz, a częstotliwość poziom kwantyzacji do 10-50 luksów.

„To zmniejszyłoby liczbę informacji o dwa do trzech rzędów wielkości, a jakiekolwiek zagrożenia prywatności związane z obrazowaniem byłyby mało prawdopodobne” – mówi.

Cybernetyczne zagrożenia IoT powodują kulę śnieżną

Z punktu widzenia Buda Broomheada, dyrektora generalnego Viakoo, odkrycie nie jest powodem do wielkiego niepokoju i zauważył on, że przechwytywanie jednej klatki gestów dłoni co 3.3 minuty – wynik testów MIT – praktycznie nie stanowi zachęty dla cyberprzestępcy do podjęcia działań przeprowadzić bardzo wyrafinowany i czasochłonny exploit.

„Jest to jednak przypomnienie, że wszystkie urządzenia podłączone cyfrowo mogą mieć luki w zabezpieczeniach, które można wykorzystać i należy zwrócić uwagę na ich bezpieczeństwo” – mówi. „Przypomina to sytuację, gdy badacze bezpieczeństwa znajdują nowe sposoby atakowania systemów izolowanych za pomocą mechanizmów takich jak migające lampki na karcie sieciowej [PDF] — interesujące w teorii, ale nie stanowiące zagrożenia dla większości ludzi.”

John Bambenek, prezes Bambenek Consulting, twierdzi, że powinno to być przypomnieniem dla konsumentów i firm, aby sprawdzali swoje urządzenia i aplikacje pod kątem gromadzenia i sposobu wykorzystania informacji.

„Dopiero niedawno otrzymaliśmy narzędzia zapewniające przejrzystość, aby to sprawdzić” – mówi. „Miejmy nadzieję, że badacze i pracownicy naukowi będą kontynuować tego rodzaju prace, aby dowiedzieć się, gdzie znajdują się luki między narzędziami zapewniającymi przejrzystość a możliwościami”.

Zwraca uwagę, że napastnicy i inne złośliwe osoby nieustannie szukają sposobów na zaatakowanie użytkowników i to właśnie te mniej oczywiste ścieżki cyberataków dla niektórych może być atrakcyjny.

„Niestety dotyczy to również firm technologicznych, które mają nienasycony apetyt na dane, które zasilają ich nowe algorytmy sztucznej inteligencji” – mówi Bambenek.

Zagrożenie wykracza poza kamery i obejmuje wzorce tworzone przez gesty fizyczne – opublikował niedawno zespół badaczy z Cornell University Badania naukowe szczegółowo opisując model sztucznej inteligencji wytrenowany na zapisach pisania na smartfonach, który wykazał 95% dokładność w kradzieży haseł.

W miarę jak badacze odkrywają dodatkowe wady urządzeń IoT i systemów operacyjnych – z których wszystkie są połączone za pomocą coraz bardziej złożonych sieci, nastąpił ponowne podkreślenie na zasadach bezpiecznego projektowania, aby zapewnić głębszą integrację obrony z oprogramowaniem.

Znak czasu:

Więcej z Mroczne czytanie