Ministros votam em sentidos diversos sobre marco civil e responsabilidade civil.
O debate em torno da responsabilidade das plataformas digitais em relação ao conteúdo gerado por terceiros é um tema complexo e multifacetado. A responsabilidade civil dessas plataformas é um ponto crucial, pois envolve a questão de até que ponto elas devem ser responsabilizadas por conteúdos que não foram gerados por elas mesmas, mas que são hospedados em seus servidores. Nesta quarta-feira, 11, o plenário do STF retomará o julgamento que discute a constitucionalidade do art. 19 do marco civil da internet (lei 12.965/14), dispositivo que condiciona a responsabilidade civil de plataformas digitais à existência de ordem judicial prévia para remoção de conteúdo gerado por terceiros.
A discussão em torno da responsabilidade civil das plataformas digitais também envolve conceitos como accountability e responsabilização, que são fundamentais para entender como essas plataformas devem ser regulamentadas. Além disso, o dever de cuidado também é um termo relevante, pois as plataformas digitais têm a obrigação de tomar medidas para evitar a disseminação de conteúdos prejudiciais ou ilegais. É fundamental que as plataformas digitais sejam transparentes em suas práticas e políticas de moderação de conteúdo, e que sejam responsáveis por suas ações. A proteção dos direitos dos usuários também é um aspecto importante, pois as plataformas digitais devem garantir que os usuários sejam protegidos contra conteúdos prejudiciais ou ilegais. A regulamentação eficaz das plataformas digitais é essencial para garantir que elas cumpram com suas obrigações e responsabilidades.
Introdução à Responsabilidade
A análise da responsabilidade ocorre no âmbito de dois recursos extraordinários com repercussão geral reconhecida, especificamente o RE 1.037.396 (Tema 987) e o RE 1.057.258 (Tema 533), onde a responsabilidade das plataformas digitais é colocada em xeque. Nesse contexto, o ministro Flávio Dino apresentou um voto propondo uma responsabilização segmentada, conforme a natureza do conteúdo, destacando a importância da responsabilidade em diferentes cenários. Para ele, nos casos de danos causados por terceiros, deve-se aplicar o art. 21 do marco civil, que permite a remoção de conteúdo com base em notificação extrajudicial, reforçando a ideia de responsabilidade. Já nos crimes contra a honra, deve prevalecer a exigência de ordem judicial prevista no art. 19, onde a responsabilidade é fundamental para a proteção dos direitos individuais.
A responsabilidade também é defendida por Dino em relação às plataformas por atos próprios, como impulsionamento pago, veiculação de anúncios e criação ou tolerância de perfis inautênticos, mostrando que a responsabilidade é um dever que não pode ser ignorado. Além disso, em situações especialmente graves, como crimes contra crianças e adolescentes, terrorismo, incentivo ao suicídio e ataques ao Estado Democrático de Direito, as empresas devem adotar um dever de cuidado mais rigoroso, com monitoramento ativo do conteúdo, reforçando a responsabilidade como um pilar fundamental.
Accountability e Responsabilização
Por fim, o ministro admitiu a adoção de um modelo de ‘autorregulação regulada’, com previsão de deveres procedimentais, relatórios de transparência e garantias como contraditório e notificação prévia, tudo isso sem a criação de uma entidade estatal de controle, onde a accountability e a responsabilização são essenciais. Quem mais votou? Até o momento, além de Dino, quatro ministros já apresentaram votos, cada um com sua perspectiva sobre a responsabilidade e a accountability. O relator, ministro Dias Toffoli, e o ministro Luiz Fux manifestaram-se pela inconstitucionalidade do art. 19 do marco civil, defendendo que as plataformas podem ser responsabilizadas independentemente de ordem judicial, sobretudo em casos graves, como perfis falsos e discursos de ódio, onde a responsabilidade é crucial.
O presidente da Corte, ministro Luís Roberto Barroso, propôs uma via intermediária: manutenção da exigência de ordem judicial para crimes contra a honra, mas permissão para remoção de conteúdos com base em notificação extrajudicial em outras hipóteses, destacando a importância da responsabilidade e da accountability. Ministro André Mendonça, por sua vez, votou pela constitucionalidade do dispositivo, destacando a importância do devido processo legal e da autorregulação das plataformas, onde a responsabilidade é um componente chave.
Dever de Cuidado e Ordem Judicial
A controvérsia está na constitucionalidade da exigência de ordem judicial para a remoção de conteúdos ilícitos, especialmente diante de casos de ilicitude manifesta, como discursos de ódio, deepfakes ou ameaças à integridade física ou moral, onde o dever de cuidado e a responsabilidade são fundamentais. O STF analisa se esse dispositivo viola a CF por restringir indevidamente o direito à reparação de danos e favorecer a impunidade em ambientes digitais, questionando a responsabilidade das plataformas. Também se avalia se determinadas situações justificam a responsabilização direta das plataformas, mesmo sem ordem judicial, como em casos de contas falsas ou impulsionamento pago de conteúdo ofensivo, onde a responsabilidade e a accountability são essenciais.
Os dois processos em análise envolvem ofensas praticadas em redes sociais, onde a responsabilidade civil e a ordem judicial são colocadas em xeque. No RE 1.037.396, o Facebook foi acionado por permitir a existência de perfil falso, onde a responsabilidade da plataforma é questionada. A responsabilidade, nesse caso, é um tema central, pois envolve a proteção dos direitos individuais e a prevenção de danos, reforçando a importância da responsabilidade e da accountability em ambientes digitais.
Fonte: © Migalhas
Comentários sobre este artigo