Inteligência artificial e proteção de dados: uma conexão necessária

FONTE: Jornal Jurid 

 

Tendo em vista que a base para operacionalização de tecnologias de inteligência artificial envolve o tratamento massivo de dados, é fundamental que os princípios da IA estejam alinhados com os da LGPD. E mais: que os valores da proteção de dados sejam considerados tanto na aquisição como no desenvolvimento e uso dessas tecnologias.

O Brasil agora conta com uma estratégia de inteligência artificial (IA). A Portaria n. 4.617, do Ministério de Ciência, Tecnologia e Inovações, norteia ações do governo federal para estimular a pesquisa, inovação e desenvolvimento, remover barreiras à inovação e capacitar profissionais. Também faz parte dessa iniciativa a promoção de um ambiente de cooperação entre os entes públicos e privados, a indústria e os centros de pesquisas para o desenvolvimento da IA.

O estabelecimento dos eixos transversais e temáticos dessa estratégia se deu com base em princípios da OCDE. Levam em conta a gestão responsável dos sistemas de inteligência artificial, que englobam o crescimento inclusivo, desenvolvimento sustentável e bem-estar; valores centrados no ser humano e equidade; transparência e explicabilidade; robustez, segurança e proteção; e accountability.

Porém, essa portaria vem sofrendo algumas críticas. O primeiro motivo é por não ter enfatizado as possibilidades de aplicações da IA no país. O segundo diz respeito à falta de detalhamento sobre a forma de execução das ações e dos prazos para viabilizar seus objetivos. Por fim, o fato de não ter incluído a sustentabilidade ambiental em seus eixos.

Por outro lado, a estratégia trouxe acertadamente — no eixo da legislação, regulação e uso ético — a necessidade de serem instituídos parâmetros jurídicos, regulatórios e éticos que possam orientar desenvolvimento e aplicação da tecnologia. E, ao mesmo tempo, garantam a proteção e a salvaguarda dos direitos fundamentais dos cidadãos, inclusive aqueles associados à proteção de dados pessoais e à prevenção de discriminação algorítmica.

 

Nesse sentido, uma importante discussão será a avaliação de quais tipos de decisão poderão ser delegados a máquinas e quais exigirão a intervenção humana. Um exemplo disso é o emprego de robôs na seara jurisdicional, o que já é realidade no Supremo Tribunal Federal — que utiliza o Victor para identificação dos temas de repercussão geral de maior incidência. Outro é o Superior Tribunal de Justiça — que, através do Sócrates, realiza exame automatizado de recursos.

Tendo em vista que a base para operacionalização de tecnologias de inteligência artificial envolve o tratamento massivo de dados, é fundamental que os princípios da IA estejam alinhados com os da LGPD. E mais: que os valores da proteção de dados sejam considerados tanto na aquisição como no desenvolvimento e uso dessas tecnologias. Assim, a preocupação com direitos fundamentais dos cidadãos não poderá mais ser uma tarefa apenas de profissionais do Direito, mas também de programadores.

Área Digital da SCA