O Projeto de Lei 2630/2020, conhecido como PL das Fake News, tem como objetivo combater a disseminação de conteúdos falsos ou prejudiciais nas plataformas digitais. Mas como definir o que é falso ou prejudicial? E quem deve fazer essa definição?
Essas são algumas das questões que foram debatidas em uma audiência pública na Câmara dos Deputados, na última quarta-feira (10), com a participação de especialistas em direito digital, comunicação e tecnologia.
Um dos pontos mais polêmicos do projeto de lei é o que trata da responsabilização das plataformas pelo conteúdo publicado por seus usuários. O texto prevê que as plataformas devem adotar medidas para identificar e remover conteúdos que violem a lei ou os direitos humanos, bem como informar os usuários sobre os critérios e procedimentos adotados.
No entanto, os especialistas alertam que essa responsabilização não pode ser feita de forma automatizada, por meio de algoritmos ou inteligência artificial, pois isso pode gerar censura, discriminação e violação da privacidade. Eles defendem que a moderação de conteúdo deve ser feita por humanos, com transparência, participação e controle social.
Segundo Marcelo Bechara, advogado e ex-conselheiro do Conselho Nacional de Comunicação Social, a moderação humana é fundamental para garantir a liberdade de expressão na internet. Ele afirma que os algoritmos não são capazes de compreender o contexto, a intenção e o humor dos usuários, e podem acabar excluindo conteúdos legítimos ou mantendo conteúdos ilícitos.
“Não podemos deixar que as máquinas decidam o que podemos ou não falar na internet. Precisamos de pessoas qualificadas e independentes para fazer essa análise, com base em critérios claros e públicos. E precisamos também de mecanismos de recurso e revisão das decisões, para garantir o contraditório e a ampla defesa”, disse Bechara.
Já Carlos Affonso Souza, professor de direito da UERJ e diretor do Instituto de Tecnologia e Sociedade do Rio (ITS Rio), ressaltou que a moderação humana deve ser feita com respeito à diversidade e à pluralidade de opiniões. Ele afirmou que as plataformas devem ter equipes multidisciplinares e representativas da sociedade brasileira, para evitar vieses ou preconceitos na hora de avaliar os conteúdos.
“Não podemos ter uma moderação monolítica ou uniforme, que desconsidere as especificidades culturais, regionais e sociais do nosso país. Precisamos de uma moderação que reconheça a riqueza e a complexidade da nossa comunicação online, e que proteja os direitos fundamentais dos usuários”, afirmou Souza.
Os especialistas também destacaram a importância da educação digital e da promoção do jornalismo profissional como formas de combater as fake news. Eles defenderam que as plataformas devem investir em iniciativas de alfabetização midiática e informacional, para capacitar os usuários a identificar e verificar as fontes e os dados das informações que recebem. Além disso, eles sugeriram que as plataformas devem remunerar adequadamente os produtores de conteúdo jornalístico e artístico, para valorizar o trabalho qualificado e independente.
O PL das Fake News ainda está em discussão na Câmara dos Deputados, e deve ser votado em breve no plenário. O projeto já foi aprovado no Senado em 2020, mas pode sofrer alterações na Câmara. Caso isso ocorra, ele terá que voltar ao Senado para uma nova análise.
Gosta do nosso conteúdo?
Este texto foi gerado com o auxílio de ferramentas de IA. Viu algum erro? Avise!