Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/29803
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2021_OtavioHenriqueMayrinkResende_tcc.pdf870,83 kBAdobe PDFver/abrir
Título: Construindo novos consensos para proteger a liberdade de expressão na internet : uma análise do PL 2.630/2020 a partir de uma perspectiva procedimental para regular as grandes plataformas digitais
Autor(es): Resende, Otávio Henrique Mayrink
Orientador(es): Aguiar, Alexandre Kehrig Veronese
Assunto: Liberdade de expressão
Plataformas digitais
Regulação jurídica
Internet
Internet - liberdade de expressão
Internet - legislação
Data de apresentação: 5-Nov-2021
Data de publicação: 8-Fev-2022
Referência: RESENDE, Otávio Henrique Mayrink. Construindo novos consensos para proteger a liberdade de expressão na internet: uma análise do PL 2.630/2020 a partir de uma perspectiva procedimental para regular as grandes plataformas digitais. 2021. 108 f., il. Trabalho de Conclusão de Curso (Bacharelado em Direito)—Universidade de Brasília, Brasília, 2021.
Resumo: As grandes plataformas digitais moldam, estruturam e mediam a forma como as pessoas interagem, emitem opiniões e se relacionam umas com as outras na internet. Estas empresas também controlam o modo como os conteúdos são produzidos, distribuídos e consumidos no espaço virtual, estabelecendo para isso normas privadas (os “termos de serviço” ou “padrões da comunidade”) que são aplicadas aos usuários por meio da moderação de conteúdo. Face a essa dinâmica de “autorregulação corporativa” da governança de conteúdo online, diversos governos e parlamentos ao redor do mundo têm procurado formas de regular esses serviços, em especial as redes sociais. Há, contudo, um impasse aparentemente insuperável nesse debate. De um lado, argumenta-se que as plataformas digitais têm moderado conteúdo de forma excessiva, comprometendo direitos e liberdades individuais. Do outro, defende-se que as empresas não têm moderado conteúdo suficientemente, sendo necessário combater práticas prejudiciais como a desinformação e os discursos de ódio, impondo restrições à liberdade de expressão quando necessário. Iniciativas legais assentadas nessas visões trazem frequentemente respostas regulatórias desproporcionais, ou capazes de ampliar o risco de violações à liberdade de expressão. Para superar esse impasse, propõe-se uma abordagem regulatória focada nos procedimentos decisórios da governança de conteúdo online e não propriamente em juízos substanciais sobre o que deve ou não ser permitido na internet. Essa perspectiva procedimental propugna, em suma, o reconhecimento de novos direitos e deveres na relação dos usuários com as plataformas digitais (ex.: dever de cuidado, obrigação de defender a integridade dos usuários, dever de transparência etc.), bem como a adoção de mecanismos de devido processo na moderação de conteúdo (ex.: direito ao recurso, direito à notificação e a decisões fundamentadas etc.) e a criação de uma autoridade com independência técnica e decisória para avaliar casos concretos, e garantir o cumprimento de suas decisões. Partindo dessa premissa, este trabalho analisou as soluções contidas no texto do Projeto de Lei nº 2.630/2020 aprovado pelo Senado Federal em junho de 2020. Concluiu-se que, conquanto a proposta legislativa preveja novos direitos e garantias processuais aos usuários nos procedimentos de moderação, foi possível identificar problemas na redação legislativa que podem dar azo a arbitrariedades, bem como discrepâncias no desenho regulatório que propõe um modelo ineficaz de “autorregulação regulada”, e não apresenta garantias reais de proteção aos direitos fundamentais e a bens jurídicos caros ao interesse público.
Abstract: Large digital platforms shape, structure and mediate the way people interact, emit opinions, and relate to each other on the internet. These companies also control how content is produced, distributed, and consumed in the virtual space, establishing private standards for this (the “terms of service” or “community standards”) that are applied to users through content moderation. Faced with this dynamic of “corporate self-regulation” of online content governance, several governments and parliaments around the world have been looking for ways to regulate these services, especially social networks. There is, however, a seemingly insurmountable impasse in this debate. On the one hand, it is argued that digital platforms have excessively moderated content, compromising individual rights and freedoms. On the other hand, it is argued that companies do not have enough moderate content, making it necessary to combat harmful practices such as disinformation and hate speech, imposing restrictions on freedom of expression when necessary. Legal initiatives based on these views often bring regulatory responses that are disproportionate, or capable of increasing the risk of violations of freedom of expression. To overcome this impasse, we propose a regulatory approach focused on decision-making procedures for online content governance rather than on substantive judgments about what should or should not be allowed on the internet. This procedural perspective advocates, in short, the recognition of new rights and duties in the relationship of users with digital platforms (eg, the duty of care, obligation to defend the integrity of users, the duty of transparency, etc.), as well as adoption due process mechanisms in content moderation (e.g., right to appeal, right to notification and reasoned decisions, etc.) and the creation of an authority with technical and decision-making independence to assess concrete cases, and ensure compliance with its decisions. Based on this premise, this work analyzed the solutions contained in Bill No. 2,630/2020, also known as "PL das Fake News", approved by the Brazilian Federal Senate in June 2020. It was concluded that, although the legislative proposal provides for new rights and procedural guarantees for users in moderation procedures, it was possible to identify problems in the legislative wording that can give rise to arbitrariness, as well as discrepancies in the regulatory design that proposes an ineffective model of "regulated self-regulation” and does not present real guarantees of protection of rights fundamental and public interest.
Informações adicionais: Trabalho de Conclusão de Curso (graduação)—Universidade de Brasília, Faculdade de Direito, 2021.
Licença: A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.
Aparece na Coleção:Direito



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.