Rádios ao vivo

Leia a Gazeta Digital

Publicidade

CONTRA A VIOLÊNCIA

Regras do mundo real devem prevalecer também nas redes sociais, argumenta Alexandre de Moraes

Crédito: Agência Brasil

O ministro do Supremo Tribunal Federal (STF), Alexandre de Moraes, defendeu, nesta terça-feira, 18, a inclusão de um artigo na legislação brasileira para deixar claro que as regras do mundo real devem prevalecer também no ambiente virtual. A afirmação foi feita durante a reunião convocada pelo presidente Luiz Inácio Lula da Silva para discutir políticas de prevenção e enfrentamento à violência nas escolas.

“Precisamos de uma vez por todas determinar que o que não pode ser feito na vida real, no mundo real, não pode ser feito no mundo virtual”, disse. Portanto, para isso, segundo o ministro, bastaria a inclusão de “um artigo na lei, a ser regulamentado pelo Congresso”. “É simples”, acrescentou.

LEIA MAIS: Norma obriga redes sociais a retirar conteúdo de apologia à violência

Publicidade

Conforme a avaliação de Moraes, os problemas de violência e preconceito nas escolas têm uma mesma origem: a desinformação que, em geral, é promovida via redes sociais. “O modus operandi dessas agressões instrumentalizadas, divulgadas e incentivadas pelas redes sociais em relação às escolas é exatamente idêntico ao modus operandi que foi utilizado contra as urnas eletrônicas e contra a democracia. É o modus operandi instrumentalizado para o 8 de janeiro. Não há nenhuma diferença. As redes sociais ainda se sentem terra de ninguém, uma terra sem lei. Precisamos regulamentar isso”, discursou o ministro da Suprema Corte ao informar que o tema tem sido largamente conversado com os presidentes das casas legislativas.

Big techs

Moraes afirmou que, se não houver “uma regulação e uma regulamentação” que tenham por base modelos – que já são, inclusive, do conhecimento das big techs responsáveis pelas redes sociais –, a instrumentalização feita por meio dessas plataformas para incentivar ataques continuarão. “Há alguns anos, a deep web divulgava esses tipos de mensagens. A investigação era muito mais difícil porque era necessário infiltrar pessoas naquele ambiente para chegarmos aos responsáveis. Hoje é na rede social normal que isso acontece. É no Twitter. Você entra no Google e ensina uma criança a fazer uma bomba, e a incentiva a repetir os atentados que ocorreram nos Estados Unidos”, criticou o ministro.

LEIA MAIS: Dino exige de redes sociais a retirada de mensagens de ameaça a escolas

Publicidade

Essas plataformas, segundo Moraes, se dizem “meros depósitos de informação” e alegam que, por isso, não poderiam ser responsabilizadas. “Faço aqui uma analogia simples entre os mundos real e virtual. No mundo real, se alguém tem um depósito e aluga esse depósito para alguém que o use para cometer crimes, obviamente não poderá ser responsabilizado. Mas a partir do momento que a pessoa sabe e renova o contrato, ela poderá ser responsabilizada. E se monetiza ou lucra em cima disso, é obrigatório que ela seja responsabilizada”, argumentou, ao afirmar que as redes sociais lucram em cima de incentivo à violência e de discursos de ódio. “Isso precisa cessar imediatamente”, defendeu.

Propostas

Segundo Moraes, ainda que com poucas propostas seria possível dar “um grande salto de qualidade” na legislação brasileira. Desse modo, uma das medidas sugeridas pelo ministro é a de dar maior transparência sobre os algoritmos das redes sociais. “Por que, ao colocarmos ‘criança’ e ‘atentado’ [em uma pesquisa], em vez de aparecer a notícia do atentado aparece [instruções sobre] como fazer uma bomba para o atentado? Porque uma notícia vai na frente da outra?”, questionou.

LEIA TAMBÉM: Ministério da Justiça pede exclusão de 270 contas do Twitter; entenda

Publicidade

Ademais, a segunda sugestão apresentada pelo ministro é a extensão dos métodos de autorregulação que já existem para pornografia infantil, pedofilia e direitos autorais. “Eu perguntei às big techs se elas recebem muitos vídeos de pornografia infantil e pedofilia. Responderam que recebem ‘milhares por dia’, e que 93% desses vídeos são retirados antes mesmo de receberem o primeiro like, comentário ou visualização. Tudo com base na inteligência artificial”, disse.

Enquanto isso, para os outros 7%, em que ficam dúvidas, há uma equipe que imediatamente analisa e retira o que for necessário. “Tudo em pouquíssimas horas para pornografia infantil; para pedofilia. E para direitos autorais, porque as maiores indenizações das big techs são por direitos autorais. Então, aí, elas se preocupam”, acrescentou ao defender a obrigatoriedade de uso de inteligência artificial e de equipe humana para retirar das redes “discursos nazistas, fascistas, homofóbicos, racistas e contra a democracia”.

LEIA TAMBÉM: Ataque provoca debates sobre segurança nas escolas; veja o que é feito em Santa Cruz

Publicidade

Atos golpistas de 8 de janeiro

Enfim, o ministro acrescentou que, no caso dos atos contra a democracia, bastava às redes sociais colocar as “elementares do tipo que é crime”. “Se aquilo estiver sendo divulgado – por exemplo, incentivar animosidade entre as Forças Armadas e os poderes constituídos – passasse por esse procedimento, nós não teríamos tido o 8 de Janeiro. Tudo foi organizado e incentivado nas redes. E as redes sabem que são instrumentalizadas.”

“Por fim, uma questão complexa, mas que já existe em outros ramos de direito, é a inversão do ônus. Se a plataforma, com todos esses métodos, identifica a existência de notícias que incentivam ataques, incentivando o racismo, o nazismo na escola, ela deve retirar, mesmo que uma ou outra notícia deixe alguma dúvida, e notificar imediatamente quem a colocou”, completou ao defender que todo esse processo seja feito rapidamente.

LEIA TAMBÉM: Aumento no número de casos de bullying e automutilação em Santa Cruz preocupa o Conselho Tutelar

Publicidade

Moraes lembrou que dar celeridade a esse processo não é apenas possível como já foi colocado em prática. “Antes se determinava a retirada das redes em 48 horas, o que é uma vida na rede social. Mudamos para duas horas, e, na véspera das eleições, para uma hora. No dia da eleição, estavam retirando em 15 minutos. Ou seja, é possível”, destacou. “A mesma coisa [pode ser feita] em relação a atentados ou programação de atentados contra escolas; ou bullying contra estudantes; proliferação de discurso racista, nazista ou homofóbico”, completou.

LEIA AS ÚLTIMAS NOTÍCIAS DO PORTAL GAZ

Quer receber as principais notícias de Santa Cruz do Sul e região direto no seu celular? Entre na nossa comunidade no WhatsApp! O serviço é gratuito e fácil de usar. Basta CLICAR AQUI. Você também pode participar dos grupos de polícia, política, Santa Cruz e Vale do Rio Pardo 📲 Também temos um canal no Telegram! Para acessar, clique em: t.me/portal_gaz. Ainda não é assinante Gazeta? Clique aqui e faça sua assinatura agora!

Aviso de cookies

Nós utilizamos cookies e outras tecnologias semelhantes para melhorar sua experiência em nossos serviços, personalizar publicidade e recomendar conteúdos de seu interesse. Para saber mais, consulte a nossa Política de Privacidade.