banner
Lar / blog / Descobrindo uma privacidade
blog

Descobrindo uma privacidade

Jun 18, 2023Jun 18, 2023

Na era da tomada de decisões baseada em dados, as empresas estão aproveitando o poder do aprendizado de máquina (ML) para desbloquear insights valiosos, obter eficiência operacional e solidificar a vantagem competitiva.

Embora os desenvolvimentos recentes na inteligência artificial generativa (IA) tenham aumentado uma consciência sem precedentes sobre o poder da IA/ML, também iluminaram a necessidade fundamental de privacidade e segurança. Grupos como IAPP, Brookings e a recente estrutura AI TRiSM do Gartner delinearam considerações importantes para organizações que buscam alcançar os resultados de negócios disponíveis exclusivamente por meio da IA, sem aumentar seu perfil de risco.

Na vanguarda desses imperativos está a segurança do modelo de ML. Abordando diretamente esta área-chave, a aprendizagem automática que preserva a privacidade surgiu como um caminho para garantir que os utilizadores possam capitalizar todo o potencial das aplicações de ML neste campo cada vez mais importante.

Os modelos de aprendizado de máquina são algoritmos que processam dados para gerar insights significativos e informar decisões críticas de negócios. O que torna o ML notável é sua capacidade de aprender e melhorar continuamente. Quando um modelo é treinado em conjuntos de dados novos e díspares, ele se torna mais inteligente com o tempo, resultando em insights cada vez mais precisos e valiosos que antes eram inacessíveis. Esses modelos podem então ser usados ​​para gerar insights a partir de dados, o que é conhecido como avaliação ou inferência de modelo.

Para fornecer os melhores resultados, os modelos precisam aprender e/ou ser aproveitados em uma variedade de fontes de dados ricas. Quando essas fontes de dados contêm informações confidenciais ou proprietárias, usá-las para treinamento ou avaliação/inferência de modelos de aprendizado de máquina levanta preocupações significativas de privacidade e segurança. Qualquer vulnerabilidade do próprio modelo torna-se um passivo para a entidade que o utiliza, o que significa que esta capacidade que prometia fornecer insights acionáveis ​​e que melhoram os negócios está agora aumentando o perfil de risco da organização.

Esta questão é uma das principais barreiras que impedem hoje uma utilização mais ampla do BC. As empresas enfrentam o desafio de equilibrar os benefícios do BC com a necessidade de proteger os seus interesses e cumprir os requisitos regulamentares e de privacidade em constante evolução.

Vulnerabilidades em modelos de ML normalmente levam a duas macrocategorias de vetores de ataque: inversão de modelo e falsificação de modelo.

Os ataques de inversão de modelo envolvem direcionar o próprio modelo para fazer engenharia reversa dos dados sobre os quais ele foi treinado – dados que provavelmente são confidenciais e, portanto, valiosos para o invasor. Isso pode incluir informações de identificação pessoal (PII), propriedade intelectual (IP) e outras informações confidenciais ou regulamentadas que, se expostas, podem causar estragos na organização.

A falsificação de modelo, por outro lado, representa uma forma de aprendizado de máquina adversário em que um invasor tenta enganar o modelo manipulando os dados de entrada de tal maneira que o modelo tome decisões incorretas alinhadas com as intenções do invasor. Este processo envolve observar cuidadosamente ou “aprender” o comportamento do modelo e subsequentemente alterar os dados de entrada (de uma forma que muitas vezes é imperceptível) para enganar o modelo para que tome decisões que sejam vantajosas para os seus objectivos. Ambos os ataques têm como alvo vulnerabilidades relacionadas aos pesos do modelo, uma parte essencial de um modelo de ML. Como tal, a necessidade crítica de dar prioridade à proteção do peso do modelo foi destacada durante a recente discussão convocada pela Casa Branca sobre o risco da IA.

O aprendizado de máquina que preserva a privacidade usa avanços nas tecnologias de aprimoramento da privacidade (PETs) para enfrentar essas vulnerabilidades de frente. PETs são uma família de tecnologias que preservam e melhoram a privacidade e a segurança dos dados durante todo o seu ciclo de vida de processamento, permitindo de forma única o uso seguro e privado de dados. Essas tecnologias poderosas permitem que as empresas criptografem modelos de ML confidenciais, executem-nos e/ou treinem-nos e extraiam insights valiosos, ao mesmo tempo que eliminam o risco de exposição. As empresas podem aproveitar com segurança fontes de dados diferentes, inclusive através de fronteiras organizacionais e domínios de segurança, mesmo quando há interesses competitivos envolvidos.