A LGPD e a governança da IA não só são compatíveis, são interdependentes. Essa relação exige uma abordagem que vá além do cumprimento procedimental, focando na precaução substantiva voltada para os impactos sociais e individuais do uso da tecnologia. “A Proteção de Dados à Luz da IA Responsável” analisa criticamente a interseção entre a LGPD e o desenvolvimento de sistemas de IA sob a perspectiva da IA responsável.
De um lado, uma abordagem procedimental, com foco nas exigências formais para cada etapa de tratamento. Do outro, uma visão finalística, com foco nos efeitos concretos das aplicações de IA sobre direitos, inclusive de autodeterminação informacional. O estudo propõe um caminho do meio: a precaução substantiva, que combina o valor social da privacidade com a promoção de inovação e benefícios coletivos.
A pesquisa revisita a evolução do direito à proteção de dados na Europa: da afirmação da personalidade e participação democrática à accountability procedimental do GDPR. Em seguida, recupera movimentos mais recentes de retorno ao valor social da privacidade, com destaque para a jurisprudência constitucional alemã e documentos do European Data Protection Board, que reconhecem a importância da confiança coletiva em sistemas tecnológicos.
No campo da regulação da IA, o estudo analisa o AI Act da União Europeia e o PL 2338/2023 no Brasil, ressaltando como ambos empregam uma abordagem baseada em riscos. Todavia, propõe-se que tais riscos sejam interpretados à luz da ética da IA, e não apenas por meio de categorias formais de compliance. Essa ética inclui valores como transparência, não-discriminação, explicabilidade, confiabilidade e respeito à privacidade, devendo orientar a atuação de desenvolvedores, reguladores e intérpretes da lei.
O estudo mostra, com casos reais, como o princípio da precaução substantiva evita armadilhas de interpretações excessivamente restritivas ou formalistas da LGPD. São analisados o uso de IA em modelos de credit scoring e o tratamento de dados sensíveis em contextos de saúde pública (como na pandemia de COVID-19), demonstrando que a proteção de dados não deve ser um entrave à inovação, mas uma alavanca para a promoção de valores fundamentais no mundo digital.

