Niebezpieczne technologie: jak rozpoznawanie twarzy na smartfonie może doprowadzić do globalnej katastrofy

0
329


Zdjęcia Peter Nicholls / Reuters

Na tle obaw o przekazaniu Facebook danych osobowych do państwa i osobom trzecim nie możemy myśleć, że dobrowolnie oddajemy znacznie bardziej cenne informacje — biometrycznych

Istnieje ogromna ilość narzędzi biometrycznej identyfikacji: głos, bicie serca, chód, rysunek żył, siatkówki i wiele innych. Nie zastanawialiście się, dlaczego firma z kapitalizacją na 1 bilion dolarów, który może pozwolić sobie każdy technologiczny kaprys, ze wszystkich możliwych wariantów i kombinacji wybiera… rozpoznawanie twarzy?

Dlaczego właśnie w ten sposób? Czołowi producenci smartfonów z Samsung i Huawei natychmiast podchwytują mody w nowych modelach. Mam dość straszna wersja tego, co się stanie, jeśli system ten będzie masowej dla wszystkich urządzeń mobilnych.

Kwestie techniczne

Jeśli nie wdawać się w szczegóły techniczne, do rozpoznawania twarzy na jego powierzchni przewidywane około 30 000 podczerwieni punktów. Otrzymany “portret” kosztem chytry matematyki identyfikuje unikalną od natury twarz użytkownika (teraz, przy okazji, rozumiem, o czym śpiewa Zemfira — “znam wszystkie twoje pęknięcia!” — o iPhone X).

W opisie technologii Apple twierdzi, że dane osoby są przechowywane na urządzeniu i w żaden służb specjalnych i nie są przekazywane osobom trzecim, dokładnie tak samo, jak odcisk palca jest zawsze przechowywane na urządzeniu i de facto jest tylko sposobem weryfikacji. Na przykład, dla aplikacji bankowych, które przy próbie dokonania transakcji finansowych właścicielem mobilnego portfela otrzymują gwarantowane odpowiedź od smartfona “Tak, to użytkownik Ivanov”, ale nie widzą samego odcisku.

Teraz informacje o bezpiecznym przechowywaniu biometrii można wierzyć (choćby dlatego, że nikt nie mógł udowodnić zwrotnego, przynosząc akcje spółki). Ale haczyk w tym, że jeśli Apple lub Google jednak pewnego dnia zdecydują się te dane komuś wysyłać w jednej z przyszłych wersji swoich produktów, nikt im nie przeszkodzi, ponieważ klikając “zgadzam się” w polityce użytkownika, ze swoimi danymi pan pożegnał się raz na zawsze. Wyjątkiem od reguły jest na razie Europa, gdzie w maju tego roku weszła w życie ustawa GDPR (General Data Protection Regulation), który ma na celu ostro karać firmy za nadużycia intymnymi danych bez wiedzy właściciela. Kary są mierzone w procentach od rocznego dochodu firmy, dlatego odnoszą się do prawa poważnie.

Dokładniej wykrywacza kłamstw

Załóżmy, że moja przyszła żona i firmy aktywnie udzielają osobom firmom биометрию (oczywiście, za zgodą użytkownika, który ponownie naciśnie przycisk “zgadzam się”, nie czytając treści umowy). Tu zaczyna się zabawa. Na twarzy 57 mięśni, z których niektóre są parzyste. Aparat Apple ma ogromną gęstość czujników i monitoruje nawet najmniejsze zmiany mimiki tych mięśni w czasie rzeczywistym. Na pewno to, co można i należy zrobić, jeśli twoim celem jest zidentyfikowanie osoby. Wszystko jest w porządku.

Ale rzecz w tym, że naukę psychologii wymyślili nie wczoraj. Ci, którzy oglądali serial Lie to me, wie, że nawet drobne niekontrolowane микродвижения oczu, zmniejszenie źrenic, drżenie warg i tysiące kombinacji mikroskopijnych мимик można z dużą dozą prawdopodobieństwa wykorzystać do tego, aby zidentyfikować stan psychiczny człowieka — określenie, czy nie kłamie, jest w stanie podniecenia lub depresji. To nie jest fikcja: serial stworzony na podstawie prac Paula Ekmana, który umożliwi służbom specjalnym w prawdziwym życiu. Ekspert jego poziomu, tak jak każdy doświadczony pracownik FSB lub agent specjalny FBI, analizując mimikę, może powiedzieć o człowieku, jeśli nie wszystko, to bardzo wiele.

Dokładność modeli, jeśli wierzyć Podłodze Экману, wynalazca metodologii, może osiągnąć 80%. Co prawda wymaga to długotrwałe monitorowanie badanym. Ale przemysł reklamy kontekstowej załatwia i gdzie mniejsza dokładność: konsumentów miliardy, i niekoniecznie dokładnie odgadnąć stan każdego z nich. Świat wysokich technologii, gdzie mikrofony i kamery telefony w każdym urządzeniu mobilnym, może zebrać niezbędne dane, wymusza tym w odpowiednim momencie mikrofonu i kamery. To wyłącznie kwestia chęci. I prawnie prawidłowego sformułowania w umowie użytkownika.

Z pewnością, do tworzenia modeli pracy sztucznej inteligencji, które mogą ustalać микроэмоции konieczne szkolenia algorytmów i dość duża próbka “doświadczalne” ludzi. Ale to raczej nie będzie problemem. Obecnie maszyny są już dość dokładnie określają na zdjęciach osoby i przedmioty dla wyszukiwarek potrzeb (zadanie, jeszcze 10 lat wyglądająca stanął prawdziwie zbyt drogim), dlatego taka wąska zadanie, jak definicja микроэмоций, też może być rozwiązany. Przy czym w najbliższym czasie.

Myślisz, że twórcy o tym będą mówić, wysyłając zapytanie na физиономические dane państwa несведущим w technologiach mamie lub siostrze? Mamy już do czynienia z wykorzystaniem analizy użytkowników portali społecznościowych do wpływu na wybory — uważa się, że był to jeden z czynników zwycięstwa Donalda Trumpa. Jeżeli technologii profilowania będą rozwijać w obecnym tempie, to już w niedalekiej przyszłości obserwacja ludzkiej mimiki w dynamice podpowie, w jakim jest stanie: gotowy czy coś kupić czy trzeba lekko nacisnąć, czy kocha myśleć lub działać samolotu, czy jest gotowy do podejmowania ryzyka lub konserwatysta, głosuje na Putina lub Włóczęgów. Ale co najważniejsze, w każdej chwili smartfon będzie w stanie z dużym prawdopodobieństwem dowiedzieć się, kłamie, czy nie, odpowiadając na zadane na ekranie pytanie lub uzyskać odpowiedź na wyświetlany obraz. To przewodnik kłamstw i obroża jednocześnie. A to znaczy, że oczekujemy marchewkę i bata.

Marchewki, marchewki i wolność dla użytkownika

Marchew, właściwie już tu — profilowanie w психотипу pozwoli znacznie podnieść skuteczność reklamy kontekstowej. Na przykład, twoje psychologiczne profilowanie, korelującego z historii wyszukiwania, zakupów i innych danych, pozwoli wybrać wyjątkowe sformułowania reklam, które działają wyłącznie na ciebie. W intymnym dyskusji koledzy z Apple i Facebook nie stały się развеивать moje obawy.

Dziś rozpoznawanie twarzy — to identyfikacja bez hasła, wygodna i praktyczna funkcja. Wszystko, co opisałem powyżej, dopóki się nie stało. Ale już za parę lat możesz znaleźć się w sytuacji, gdy patrzysz na swoje urządzenie, a z niego, jak przez okno, ktoś będzie się wtrącać w wasze mózgi. Od rozpoznawania twarzy do kontroli psychologii tylko jeden technologiczny krok. Dalej następuje Orwell, “rok 1984”.

Twórcy smartfonów i portali społecznościowych nie są jedynymi, którzy pracują w tym kierunku. Mi wiadomo przynajmniej o trzech kapitałowego, edukacyjnych technologii profilowania psychologicznego dla potrzeb handlu detalicznego: za pomocą zewnętrznych kamer aplikacji i programów lojalnościowych ludzka twarz прогоняется przez modelki физиономического analizy, aby na podstawie wyroku maszyny o психотипе/stanie człowieka sprzedawcy mogli działać w заточенному pod ten typ scenariusza.

My z kolegami pracujemy nad podejściem, całkowicie odwrotny do tego, którego należy większość współczesnych big-data-graczy. Nasza firma chroni dane użytkownika tak, jak powinien bronić własności prywatnej: nawet nie mamy dostępu do ich danych. Wszyscy żyjemy w Sieci, więc demokratyczne, takie jak prawo do prywatności, muszą być dostarczone w cyfrowym świecie, tak jak w prawdziwym, bo różnica między nimi jest już oczywista.

Aleksander Sołżenicyn powiedział, że wolność człowieka zależy od tego, ile o nim nie wiedzą. On jadł totalitaryzmu i wiedział, o czym mówi. Chcę tę frazę przypomnieć wszystkim — i nam, i wszystkich twórców planety Ziemia.

redakcja poleca
Cena uśmiechu: dlaczego systemy sztucznej inteligencji uczą się rozpoznawać emocje