A Necessidade do Desaprendizado em Sistemas de IA

A Necessidade do Desaprendizado em Sistemas de IA

Com a coleta massiva de dados, muitos modelosacabam utilizando informações que podem ser sensíveis, incorretas ou legalmente proibidas. Machine unlearning é necessário para garantir que sistemas de IA respeitem leis como o “direito ao esquecimento”, removam vieses prejudiciais ou excluam dados de usuários que retiram consentimento. Sem esse recurso, as empresas enfrentam riscos legais, éticos e reputacionais.

Definição e Conceitos-Chave

Machine unlearning pode ser definido como o processo pelo qual um modelo de IA “desaprende” informações específicas previamente incluídas em seu treinamento. Isso vai além da simples exclusão de dados do banco original, ou seja, envolve garantir que o conhecimento derivado desses dados também seja apagado do modelo. Por isso, o desafio é grande, como veremos adiante.

Outros conceitos também presentes nessa técnica são “forget sets” (conjuntos de dados a serem esquecidos), “retain sets” (dados que devem permanecer) e métodos que tornam o modelo incapable de reproduzir ou ser influenciado pelas informações esquecidas.

Arquitetura de Machine Unlearning

A arquitetura de sistemas de machine unlearning geralmente combina técnicas de particionamento de dados, modelos modulares e ajustes finos no modelo treinado. Particionamento de dados é algo que me interessa muito, pelas abordagens gráficas e hipergráficas envolvidas. Heurísticas diversas de particionamento hipergráfico podem ser aplicadas, garantindo a segmentação de dados relacionados ou agrupados em hiperarestas do hipergrafo, por exemplo, de um domínio de conhecimento específico.