Apple permite que empresas terceirizadas escutem conversas gravadas pela Siri

A Apple está pagando aos empreiteiros para ouvir as conversas gravadas da Siri, de acordo com a nova matéria do The Guardian , com um ex-terceirizado revelando que os empregados ouviram gravações acidentais da vida pessoal dos usuários, incluindo consultas médicas, endereços e até possíveis acordos com drogas.

De acordo com esse contratante, as interações da Siri são enviadas aos empregados, que ouvem a gravação e são solicitados a classificá-la em uma variedade de fatores, como se a solicitação foi intencional ou um falso positivo que acidentalmente acionou a Siri, ou se a resposta foi útil.

Mas a Apple não diz explicitamente que tem outros humanos ouvindo as gravações, e quaisquer que sejam as afirmativas feitas para esse fim provavelmente estão escondidas em uma política de privacidade que poucos (ou nenhum) usuários da Siri já leram. A Apple em nota na sua página de privacidade diz que “Para ajudá-los a reconhecer sua pronúncia e fornecer melhores respostas, certas informações como seu nome, contatos, músicas que você ouve, e buscas são enviadas para servidores da Apple usando protocolos criptografados”, mas em nenhum lugar menciona que os empregados humanos estarão ouvindo e analisando esses dados.

Em uma declaração ao The Guardian , a empresa reconheceu que “uma pequena porção dos pedidos da Siri é analisada para melhorar o Siri e o ditado. As solicitações do usuário não estão associadas à ID da Apple do usuário. As respostas da Siri são analisadas em instalações seguras e todos os revisores estão sob a obrigação de aderir aos rígidos requisitos de confidencialidade da Apple. ”A Apple também observou que menos de 1% das ativações diárias são analisadas sob este sistema.

O fato de que humanos estão ouvindo gravações de assistentes de voz em geral não é exatamente novidade  tanto a Amazon (para Alexa) quanto o Google (para Assistente) revelaram sistemas similares onde trabalhadores humanos ouvem conversas gravadas para melhorar melhor esses sistemas . Faz sentido: assistentes inteligentes, obviamente, não podem dizer a diferença entre falsos positivos e consultas reais (se pudessem, não seria um falso positivo), e qualquer um que tenha usado um assistente inteligente pode dizer que os falsos positivos ainda são muito , muito comum neste estágio de sua evolução.

Mas para as três empresas, até recentemente, não se sabia até que ponto essas empresas estavam ouvindo os clientes.

O sistema da Apple também pode ser mais preocupante por algumas razões, como a difusão dos produtos da Apple. Onde o Alexa é limitado em grande parte a alto-falantes inteligentes e o Assistente do Google para alto-falantes e telefones, o Siri também está no popular Apple Watch, da Apple, que está em pulsos de milhões de pessoas todos os momentos. Além disso, o Siri em um Apple Watch é ativado sempre que um usuário levanta o pulso, não apenas quando ele acha que ouviu a frase “Ei, Siri”.

De acordo com a fonte do The Guardian , essa proliferação levou a algumas conversas muito pessoais fazendo o caminho para completar estranhos trabalhando para a Apple: “Tem havido incontáveis ​​casos de gravações com discussões privadas entre médicos e pacientes, negócios, negócios aparentemente criminosos, encontros sexuais e assim por diante. Essas gravações são acompanhadas de dados do usuário mostrando a localização, detalhes de contato e dados do aplicativo.

Além disso, como o The Guardian observa, enquanto a Amazon e o Google permitem que os clientes optem por não usar alguns de seus registros, a Apple não oferece uma opção de proteção de privacidade semelhante, além de desabilitar totalmente o Siri. Esse é um aspecto particularmente ruim, dado que a Apple construiu grande parte de sua reputação ao se vender como a empresa de privacidade que defende seus dados de maneiras que o Google e a Amazon não fazem. Implicitamente dizendo aos clientes que, efetivamente, “a única maneira de ter paz de espírito que um estranho aleatório não escuta suas gravações Siri acidentalmente acionadas é parar de usar Siri por completo” é uma mensagem confusa da empresa que supostamente coloca a privacidade em um prêmio .

Além de interromper completamente o uso de assistentes inteligentes, provavelmente os clientes da Siri não farão muito para evitar o problema, além de serem cuidadosos com o que dizem ao redor de seus iPhones e HomePods (a menos que a pressão pública aqui faça com que a Apple adicione uma opção de opt-out). Ainda assim, é um bom lembrete de que quando você concorda em usar esses produtos, muitas vezes você está dando muito mais privacidade do que pensa.

Sobre o autor