TA STRONA UŻYWA COOKIE. Usługodawca oraz jego zaufani partnerzy korzystają z plików cookies i innych technologii automatycznego przechowywania danych do celów statystycznych, reklamowych oraz realizacji usług, w tym również aby wyświetlać użytkownikom najbardziej dopasowane oferty i reklamy.
Usługodawca i jego zaufani partnerzy wymagają zgody użytkownika na gromadzenie danych w celu obsługi spersonalizowanych treści i ogłoszeń. Jeśli korzystasz ze strony instalki.pl bez zmiany ustawień przeglądarki, to oznacza to, że nie wyrażasz sprzeciwu co do otrzymywania wszystkich plików cookies na swoje urządzenie ze strony instalki.pl.
Dowiedz się więcej o celu ich używania i zmianie ustawień cookie w przeglądarce.
Od dnia 25.05.2018 r. na terenie Unii Europejskiej wchodzi w życie Rozporządzenie Parlamentu Europejskiego w sprawie ochrony danych osobowych. Prosimy o zapoznanie się z regulaminem oraz polityką prywatności serwisu  [X]
Instalki.pl » Aktualności » Bezpieczeństwo » Siri podsłuchuje seks i przemoc domową - słyszą to potem kontraktorzy Apple
Niedziela, 28 Lipiec 2019 12:59, Wpisany przez Maksym Słomski
siri podsluchuje
Google, Amazon, Apple...

W pierwszej połowie lipca opublikowano raport zwracający uwagę na niepokojące zjawisko. Kontraktorzy Google odsłuchują zapisy próbek głosowych, które nigdy nie powinny być rejestrowane przez Asystenta. Kwestią czasu było zwrócenie uwagi światowej opinii publicznej na konkurencyjnego asystenta głosowego - Siri.

Jeden z pracowników kontraktowych Apple ujawnił w rozmowie z Guardianem, że Siri równie często rejestruje dźwięk "przez pomyłkę". Asystent powinien być aktywowany wyłącznie komendą "Hey Siri", ale według mężczyzny da się go aktywować nawet głośniejszym odgłosem otwieranego lub zasuwanego zamka w spodniach. Jeszcze częściej głos nagrywają zegarki, w których Siri włącza się przez same tylko uniesienie nadgarstka, po którym bezpośrednio następuje dźwięk.

Źródło Guardiana podaje: "mieliśmy do czynienia z niezliczonymi przypadkami nagrań prywatnych rozmów pomiędzy lekarzami, a pacjentami, dowodów przestępstw, kontaktów seksualnych i szemranych biznesów". Na domiar złego: "każdemu nagraniu towarzyszy precyzyjna lokalizacja nagrania i inne dane aplikacji".

Apple informuje, że podejmuje kroki, aby chronić użytkowników przed ich zidentyfikowaniem na podstawie próbek wysyłanych kontraktorom. Pliki audio nie są powiązane z Apple ID i "tylko" 1% próbek rejestrowanych przez Siri poddawanych jest do ich wglądu.

Firmy rozwijające technologie asystentów głosowych pobierają próbki głosu, by doskonalić możliwości swoich narzędzi. W obliczu powyższych kontrowersji działania takie wydają się wysoce nieetyczne.

Źródło: The Guardian