TA STRONA UŻYWA COOKIE. Dowiedz się więcej o celu ich używania i zmianie ustawień cookie w przeglądarce. Korzystając ze strony wyrażasz zgodę na używanie cookie, zgodnie z aktualnymi ustawieniami przeglądarki.
Od dnia 25.05.2018 r. na terenie Unii Europejskiej wchodzi w życie Rozporządzenie Parlamentu Europejskiego w sprawie ochrony danych osobowych. Prosimy o zapoznanie się z regulaminem oraz polityką prywatności serwisu  [X]
Czwartek, 09 Sierpień 2018 10:49, Wpisany przez MP
SI
Postęp technologiczny wyprzedza zdroworozsądkową ostrożność.

Chińska policja testuje okulary z wbudowaną kamerą, połączone z systemem AI (Artificial Intelligence) do rozpoznawania twarzy. Celem jest natychmiastowa identyfikacja osób poszukiwanych przez organy ścigania. Facebook niedawno wysłał do użytkowników zapytanie o zgodę na uruchomienie funkcji rozpoznawania twarzy.

Rozwijanie tego typu technologii budzi sprzeciw nawet wśród tych, którzy je opracowują. Przykładowo, pracownicy firmy Amazon wyrazili protest wobec dostarczania algorytmów detekcji twarzy dla organów ścigania. Kilka tygodniu temu ponad stu pracowników Microsoftu wysłało list, w którym sprzeciwiali się, aby firma dostarczała usługi z zakresu przetwarzania w chmurze oraz sztucznej inteligencji dla amerykańskiej służby celnej i imigracyjnej.

Monitoring

Rozwój sztucznej inteligencji i prywatność nie idą w parze

Wydaje się, że znowu mamy do czynienia z sytuacją, kiedy postęp technologiczny i jego nagła adaptacja wyprzedza zdroworozsądkową ostrożność. Rozwój sztucznej inteligencji i prywatność nie idą w parze. Algorytmy będą w stanie bez najmniejszego problemu rozpoznać nasz wizerunek, a nawet głos, dopasować i połączyć dane zgromadzone na rozmaitych portalach społecznościowych (oraz randkowych), rozbijając ostatecznie iluzję anonimowości w sieci. Należy też pamiętać o ryzyku związanym z coraz bardziej powszechnymi asystentami głosowymi – najczęściej ceną wygody jest prywatność i postępujące cyfrowe obnażanie się.

Prawdopodobnie w najbliższych latach będziemy świadkami rozwoju metod manipulacji opartych na sztucznej inteligencji. Możliwe jest opracowanie algorytmów potrafiących perfekcyjnie udawać głos danej osoby (na podstawie kilkusekundowej próbki), a nawet generujących wideo osoby mówiącej swoim głosem i robiącej rzeczy, których nigdy nie zrobiła, ani nie powiedziała. To bardzo potężne narzędzia, które mogłyby trafić w ręce zarówno pospolitych oszustów, jak i agencji państwowych manipulujących opinią publiczną. Odróżnienie prawdy od fałszywej informacji (fake news) będzie coraz trudniejsze, może nawet niemożliwe.

Spy

Dobre strony?

Należy pamiętać, że twórcy rozwiązań wykorzystujących sztuczną inteligencję kierują się dobrymi intencjami, a ich motywacją jest zapewnienie wsparcia dla człowieka na różnych płaszczyznach życia. Możliwość podyktowania treści maila lub listy zakupów nawet w trakcie jazdy samochodem, zidentyfikowanie twarzy poszukiwanych przestępców dzięki inteligentnym systemom monitoringu czy odnalezienie starego przyjaciela – to tylko część funkcjonalności, które mają szansę poprawić naszą wydajność, bezpieczeństwo publiczne oraz kontakty międzyludzkie.

Zanim jednak inteligentne systemy staną się nieodzowną częścią naszego życia, warto rozważyć zarówno korzyści, jak i zagrożenia oraz upewnić się, że poświęcamy należytą uwagę środkom bezpieczeństwa.

Obecnie większość technologii AI ma jedynie włącznik – używamy ich na sto procent albo wcale. Z czasem możemy się spodziewać rosnącej liczby ustawień pozwalających określić, jak dużo informacji o sobie chcemy udostępniać. Jako użytkownicy powinniśmy wymagać takiej możliwości od dostawców rozwiązań. Wtedy po dwóch stronach na szali stanie użyteczność oraz prywatność - istotne jest to, abyśmy sami mogli decydować o przechyleniu tej szali.

Źródło: F-Secure