No dia 28 de janeiro é celebrado o Dia da Privacidade dos Dados. Para não deixar esta importante data passar batida, é fundamental pensar em como estamos zelando por essa privacidade ao usar a ferramenta do momento: a Inteligência Artificial (IA).
Está claro que 2023 foi um ano de grande avanço para a inovação em Inteligência Artificial, com progressos que já estão remodelando as mais diversas áreas e redefinindo a forma como as empresas pensam e operam.
Impulsionada pela economia baseada em dados (data economy), a integração da IA em inúmeras tarefas operacionais trouxe agilidade na tomada de decisões, ainda mais automação aos processos e maior capacidade de prever o comportamento com uma eficiência notável. Os sistemas de IA generativa já estão sendo usados, direta e indiretamente, por empresas em todo o mundo para dar suporte às equipes em tarefas em sistemas de notação, chatbot e geração de conteúdo rotineiro.
Leia mais:
- Os riscos da IA generativa estão realmente afetando a segurança?
- 8 dicas práticas e simples para melhorar a sua segurança online
- IA pode impulsionar cibercrimes, dizem autoridades
- Hackers do bem: projeto busca dar segurança cibernética para empresas
No entanto, conforme as empresas de IA entram em uma corrida para permitir que seus serviços coletem o máximo de dados possível para serem usados no treinamento de modelos de IA, surgem também as preocupações sobre o possível uso indevido de informações confidenciais e a perda da privacidade. Para as empresas, a ascensão da IA levantou questões inevitáveis sobre a privacidade dos dados e deixou clara a necessidade de proteger informações confidenciais, forçando-as a reavaliarem e fortalecerem suas estratégias de proteção de dados.
Também cientes dos riscos, os órgãos reguladores enfrentam desafios para encontrar um equilíbrio entre promover a inovação e garantir a privacidade dos dados. Em um movimento crucial em direção à segurança e à melhor proteção, a União Europeia chegou a um acordo provisório sobre sua regulamentação, o AI Act, em dezembro de 2023.
Incluído na lei está o requisito de que todos os provedores de IA usados por governos e operações de execução legal devem tornar seus modelos transparentes e publicar um resumo detalhado dos dados de treinamento utilizados.
Alinhado a isto, ainda no mês passado, o Escritório do Comissário de Informações do Reino Unido alertou as empresas para que considerassem as informações pessoais dos clientes em todas as circunstâncias ao usar a IA, ou correriam o risco de rejeição do cliente — e, consequentemente, redução da inovação.
Está claro que, à medida que os órgãos reguladores se apressam para acompanhar o ritmo da inovação, a privacidade de dados está na agenda de 2024. As empresas devem começar o ano com o pé direito para garantir que não estejam expondo dados confidenciais ou proprietários a riscos desnecessários por meio de aplicativos e integrações de IA de terceiros. As empresas que não tomarem essas medidas correm o risco de violações graves e não conformidade.
Infelizmente, aplicativos como o ChatGPT costumam ser mal utilizados por funcionários que, consciente ou inconscientemente, enviam dados pessoais, códigos-fonte proprietários altamente confidenciais ou até mesmo informações confidenciais para a plataforma.
Inclusive, os pesquisadores do Threat Labs da Netskope descobriram que o código-fonte é postado no ChatGPT mais do que qualquer outro tipo de dados confidenciais no local de trabalho, a uma taxa de 158 incidentes a cada 10 mil usuários por mês. Então, como podemos gerenciar esse comportamento e minimizar os riscos?
Felizmente, muitos problemas de proteção de dados causados pelo uso da IA também podem ser resolvidos com a ajuda da própria IA. Aqui estão quatro maneiras de garantir que os dados sejam protegidos mobilizando a IA dentro da postura de segurança de uma empresa.
1. Categorizar dados confidenciais
A primeira etapa para priorizar a privacidade dos dados é conseguir decifrar quais informações requerem proteção. A categorização dos dados é uma etapa fundamental desse processo e, se realizada manualmente, é uma tarefa extremamente demorada. Felizmente, a IA e o machine learning (ML) podem ser aproveitados para automatizar essa categorização nos sistemas.
Por exemplo, a IA e o ML podem ser usados para digitalizar imagens, identificar dados pessoais, dados financeiros, chaves de segurança ou até mesmo contratos que incluam termos confidenciais e, em seguida, categorizá-los adequadamente para o tratamento da política de proteção de dados. Depois que os dados são categorizados, eles podem ser gerenciados e protegidos por controles de segurança com maior eficiência.
2. Treinamento de funcionários
Ao aplicar um reforço de treinamento de conscientização sobre IA no local de trabalho, os líderes de segurança podem ajudar a defender suas empresas contra a perda de dados e proteger informações críticas. No entanto, se os funcionários forem submetidos a sessões de treinamento anuais sobre o assunto, como infelizmente acontece com frequência, é improvável que o conhecimento seja retido para uso no momento crucial.
A melhor opção para os líderes é instalar uma tecnologia de treinamento em tempo real (mais uma vez, alimentada por IA) para lembrar os funcionários da política da empresa, como os riscos associados ao upload de dados confidenciais para apps de IA. Se necessário, as equipes de segurança podem fazer outras intervenções, como direcionar os funcionários para aplicativos alternativos aprovados ou bloquear totalmente o acesso.
3. Prevenção de perda de dados
As ferramentas de prevenção de perda de dados podem utilizar a IA para detectar arquivos, publicações ou e-mails que contenham informações potencialmente confidenciais, como código-fonte, senhas ou propriedade intelectual, e alertar e bloquear quando esses ativos estiverem deixando a organização em tempo real.
Na atual onda da IA generativa, essa é uma maneira muito útil de garantir que as postagens contendo informações confidenciais não sejam carregadas em plataformas de terceiros sem uma aprovação prévia. Essa estratégia pode ser aplicada em conjunto com o treinamento em tempo real, garantindo que as equipes sejam alertadas imediatamente sobre o possível uso indevido de dados, por exemplo, no momento em que informações confidenciais são detectadas.
4. Detecção de ameaças
Outra maneira essencial de proteger os dados é garantir que a IA seja solicitada para monitorar e detectar ameaças, como malware e ransomware, e, ao mesmo tempo, reduzir a superfície de ataque. Para grandes empresas, a inteligência de dispositivos com IA, juntamente com tecnologias avançadas de redes de longa distância definidas por software, pode monitorar proativamente as redes e fornecer insights preditivos para as equipes, evitando problemas de redes antes que eles aconteçam.
A IA também pode ser aproveitada para detectar e sinalizar comportamentos incomuns como parte de uma abordagem de zero trust (confiança zero), em que o acesso de um dispositivo ou local incomum fica automaticamente visível para as equipes de redes e de segurança.
Concluindo…
Para concluir, as empresas estão evoluindo rapidamente graças à popularidade da IA em suas organizações e tornando as operações mais simplificadas e eficientes. No entanto, a privacidade e a proteção de dados continuam sendo extremamente importantes para garantir que as empresas possam continuar a utilizar com segurança esses avanços tecnológicos, mantendo a conformidade com as regulamentações de cada localidade. A privacidade dos dados precisa ser lembrada todos os dias, independentemente de ser um elemento humano ou alimentado por IA.
O post Dia da Privacidade de Dados: como se proteger em tempos de IA? apareceu primeiro em Olhar Digital.