Profissionais de saúde processam a Amazon por possíveis violações da Lei de Responsabilidade e Portabilidade de Seguro Saúde com o dispositivo Alexa

Profissionais de saúde processam a Amazon por possíveis violações da Lei de Responsabilidade e Portabilidade de Seguro Saúde com o dispositivo Alexa

[ad_1]

Profissionais de saúde processam a Amazon por possíveis violações da Lei de Responsabilidade e Portabilidade de Seguro Saúde com o dispositivo Alexa

Conteúdo Newsweek

Healthcare IT News relatou que quatro profissionais de saúde acreditam que seus dispositivos Amazon Alexa podem ter apreendido informações, como conversas privadas com pacientes, que são protegidas pela Lei de Responsabilidade e Portabilidade de Seguro Saúde (HIPAA, na sigla em inglês).

“A conduta da Amazon em registrar clandestinamente os consumidores violou as leis federais e estaduais de escuta telefônica, privacidade e proteção ao consumidor”, dizia o processo.

Ele acrescentou: “Apesar das funcionalidades de escuta e gravação integradas de Alexa, a Amazon não divulgou que faz, armazena, analisa e usa gravações dessas interações no momento em que os reclamantes e supostos membros da classe compraram seus dispositivos Alexa.”

Os demandantes, dos quais um é um conselheiro de abuso de substâncias e outro um representante de atendimento ao cliente de saúde, disseram que a gravação de suas conversas com os pacientes era uma violação direta da HIPAA sob a qual trabalham, que protege privacidade de seus pacientes.

O processo citou um estudo da Northeastern University, que demonstrou como um dispositivo Alexa pode ser despertado por “wake words” ou frases que os acionam para começar a gravar e transmitir o que ouve.

Perguntar ao dispositivo coisas como: “Alexa, vai chover?” vai acordá-lo enquanto responde à pergunta.

O estudo analisou quantas vezes uma Alexa pode “acordar” acidentalmente. Eles descobriram que afirmações como “Eu me importo com”, “Eu estraguei tudo” e “Eu tenho algo” acionariam a Alexa, e mesmo coisas como “treinador principal”, “pickle” e “Sinto muito” o despertaram também.

Um artigo da Northeastern University citou David Choffnes, professor associado de ciências da computação da universidade, dizendo: “Muitos de nós, quando pensamos em estar em casa, pensamos que é um espaço privado onde podemos ter conversas intencionais não deve ser compartilhado. E agora temos todos esses dispositivos com microfones que podem pegar essas conversas e compartilhá-las. ”

Também há vários estudos que mostram que a Amazon usa inteligência humana para ouvir conversas, que é o segundo aspecto do processo mencionado pelos autores.

O processo mencionou que, em 2019, a Amazon anunciou um esforço para garantir que as transcrições de conversas, sejam transcritas por IA ou humanos, seriam excluídas dos servidores de Alexa, mas o processo argumentou que “Até então, os analistas da Amazon podem já ter ouvido as gravações antes que essa habilidade fosse habilitada. ”

Um porta-voz da Amazon compartilhou uma declaração com a Newsweek que dizia: “Os dispositivos Alexa e Echo são projetados para detectar apenas a palavra de ativação escolhida (Alexa, Amazon, Computer ou Echo). Nenhum áudio é armazenado ou enviado para a nuvem a menos que o dispositivo detecte a palavra de ativação (ou Alexa é ativada pressionando um botão). ”

A Amazon confirmou que se o dispositivo Alexa estiver gravando, o indicador de luz azul sempre aparecerá, o que significa que sempre indicará quando estiver gravando algo.

“Nosso processo de anotação não associa gravações de voz a nenhuma informação identificável do cliente”, afirmou a Amazon. “Os clientes podem optar por não ter suas gravações de voz incluídas na fração de um por cento das gravações de voz que são revisadas.”

Eles acrescentaram: “Os clientes têm várias opções para gerenciar suas gravações, incluindo a opção de não ter suas gravações salvas e a capacidade de excluir automaticamente as gravações em uma base contínua de três ou 18 meses.”

[ad_2]

Link da fonte

DEIXE UM COMENTÁRIO