O documento-base do governo federal propõe seis eixos verticais (Educação e capacitação; Força de trabalho; Pesquisa, desenvolvimento, inovação e empreendedorismo; Aplicação pelo governo; Aplicação nos setores produtivos; e Segurança pública) e três eixos transversais (Legislação, regulação e uso ético; Aspectos internacionais; Governança de IA).
Em entrevista à Sputnik Brasil, Bruno Bioni, fundador e professor do Data Privacy Brasil, organização que atua nas áreas de privacidade e proteção de dados, disse que a consulta feita pelo MCTIC foi positiva, mas que agora é necessário que o conteúdo que foi produzido seja colocado em prática.
“Mais importante do que saber se essa consulta foi bem feita, foi bem desenhada, e eu acredito que sido, é olhar lá para frente e saber se todo esse debate frutífero foi levado em consideração e foi internalizado no desenho final que a gente vai ter da Estratégia Brasileira de Inteligência Artificial”, afirmou.
Para Bioni, um dos papéis principais do Estado ao se debruçar sobre o tema da Inteligência Artificial é o de promover a capacitação da população para os novos desafios do uso de ferramentas de IA no mercado de trabalho.
“O tema demanda um olhar em termos de política pública, não só de como o Estado vai digitalizar o seus serviços públicos, regular agentes econômicos e estabelecer regras de regulação, mas também de como ele vai capacitar a sua própria população para exercer futuros empregos e habilidades que vão ser demandadas nesse movimento de transformação econômica”, disse.
A iniciativa do Ministério de Ciência, Tecnologia, Informações e Comunicações ocorre após o Brasil ter aderido em maio do ano passado aos princípios da OCDE (Organização para a Cooperação e Desenvolvimento Econômico) para a administração responsável de inteligência artificial.
O documento inclui as diretrizes para que governos adotem sistemas de IA que respeitem direitos humanos e valores democráticos.
Bruno Bioni explicou que o documento elaborado pela OCDE é necessário já que inteligência artificial mal aplicada pode fazer com que desigualdades e práticas discriminatórias sejam potencializadas através dos algoritmos.
“O grande debate que a gente vive é como que algoritmos podem reproduzir ou mesmo reforçar práticas discriminatórias e essas práticas discriminatórias se tornam ainda mais potentes quando você lida com cenários onde processos de automatizações vão ser alimentados por dados que são representativos da própria sociedade. Se você tem uma sociedade que é mais desigual, ela vai alimentar um algoritmo ou uma inteligência artificial que vai reproduzir esses status”, explicou.
Além da iniciativa do MCTIC, projetos de lei foram apresentados no Congresso Nacional para tratar sobre o tema da regulamentação da Inteligência Artificial no Brasil.