Os debates foram encerrados, somente será permitido a visualização dos comentários.
Comentários
- Maína Lago 17/07/2023 às 00:02A regulação deve considerar a diferença entre a natureza de trocas comunitárias e plataformas digitais.
Igualmente, deve diferenciar as plataformas digitais entre si pelo recurso que cada uma dá acesso ao usuário/consumidor, como a informação de conteúdo, informação pessoal - como as redes sociais, produtos e serviços, força de trabalho ou expertise/ capacidade intelectual de pessoas, ou mesmo acesso a capital, como sites de crowdfunding. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:14A contribuição do DiraCom - Direito à Comunicação e Democracia tem como base o reconhecimento da importância e a necessidade de regulação para promoção de direitos, democracia e justiça socioambiental, bem como estimular a diversidade e a equidade de classe, raça, gênero, orientação sexual e outras; atacar os problemas e as assimetrias de poder; limitar o poder das plataformas sobre o debate público online; estimular a participação de variados agentes e restringir práticas anticoncorrenciais; combater práticas ilegais e abusos nos conteúdos e serviços e buscar relações econômicas mais justas e que protejam trabalhadoras/es, agentes econômicos e cidadãos em geral. Parte ainda da compreensão da necessidade de um programa próprio para o setor, com vistas à garantia de soberania nacional. Como parte desse conjunto amplo de políticas a serem desenvolvidas, defendemos uma regulação pública democrática multissetorial.
As plataformas digitais são agentes que controlam uma base tecnológica digital conectada, a partir da qual oferecem produtos e serviços em diversas áreas, envolvendo diferentes agentes (produtores, usuários e intermediários). As interações entre estes agentes são geridas pelas próprias plataformas, que assim promovem uma mediação ativa das transações e as exploram para produzir dados, utilizados posteriormente pelas plataformas na produção de informações sobre os setores em que atuam e na otimização do que oferecem, possibilitando a criação de barreiras à entrada a competidores e a expansão para outros segmentos.
São, portanto, agentes que atuam em várias áreas que demandam regulação específica, ao passo que possuem características gerais que podem ser abordadas de forma principiológica, tendo em vista, por exemplo, a legislação nacional; a busca pela proteção, promoção e garantia de direitos humanos, incluindo reparações em função de sua violação; a observância de boas práticas na mercantilização de produtos e serviços; o tratamento de dados e a presença em mais de um segmento econômico; a adoção de mecanismos de transparência e devido processo na moderação de conteúdos; a aplicação do princípio da soberania nacional. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:20O Information Technology Industry Council (ITI) acredita que, se o Congresso brasileiro decidir desenvolver uma regulação de plataformas digitais, qualquer definição de “plataforma digital” deve ser direcionada adequadamente e deve considerar os diferentes serviços, modelos de negócios e interações de usuários entre plataformas. As plataformas digitais são diversas em suas operações, incorporando diferentes modelos de negócios, e os legisladores devem considerar o papel específico que cada plataforma desempenha em seu respectivo mercado, o valor que ela cria para os usuários, seu relacionamento com clientes e concorrentes, e possíveis abordagens alternativas. Qualquer regulação em potencial deve ser baseada em risco e direcionada para lidar com danos específicos identificados ou outras preocupações, com foco na conduta de uma empresa, seus modelos de negócios e sua interação, ou falta dela, com os usuários finais. Definições excessivamente amplas podem sufocar a inovação e prejudicar a economia brasileira. Embora certas regras possam ser aplicadas apenas a um conjunto restrito de empresas, é essencial que as regras sejam baseadas em critérios objetivos, com obrigações proporcionais e bem justificadas, acompanhadas de garantias de devido processo legal. O ITI recomenda que o CGI tenha um diálogo robusto com os líderes do setor para desenvolver propostas regulatórias bem informadas.
Na medida em que outras jurisdições adotaram regulações de “plataforma digital”, é prudente avaliar o impacto de tal legislação/regulação antes de adotá-la no Brasil.
Por exemplo, a Europa adotou recentemente o Digital Market Act (DMA). Dado que o DMA foi implementado apenas recentemente, não está claro até que ponto as empresas podem enfrentar dificuldades para cumprir o regulamento ou qual será o impacto do regulamento DMA no crescimento ou declínio econômico, inovação e investimento na jurisdição. Dada essa incerteza, também não está claro se o DMA afetará a participação de entrada das empresas ou o investimento nos mercados europeus. - Filipe Saraiva 16/07/2023 às 21:23Penso que uma definição é que são sistemas computacionais que realizam a intermediação entre fluxos econômicos, sociais, e outros entre diferentes atores. Por exemplo, plataformas de mídias sociais intermediam relações entre pessoas através de publicações de texto, vídeo ou foto; plataformas de delivery intermediam relações comerciais entre consumidores, produtores de alimentos e entregadores. Essa definição ampla abarcaria diferentes serviços para além das mídias sociais.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 21:01Para delimitar o escopo de regulação de plataformas, é essencial adotar uma definição clara e comum de dois conceitos recorrentes: “plataforma”e “ecossistema” (para uma análise mais detalhada, vide ZINGALES N., FARANI, P., A aplicação do direito antitruste em ecossistemas digitais: desafios e propostas (Editora FGV, 2022), disponível em formato aberto em https://bibliotecadigital.fgv.br/dspace/handle/10438/32889.
Partindo de uma perspectiva histórica, o conceito de “plataforma” tem sido utilizado para fazer referência a uma estrutura sobre a qual alguma coisa — um produto, um serviço, ou mesmo uma atividade não econômica — pode ser construída e operacionalizada. Várias têm sido as tentativas de reutilizar ou redefinir esse conceito no âmbito digital, com variações significativas no rol de características que são atribuídas às plataformas (às vezes, até de forma incompatível). Uma das tentativas mais completas foi feita pela Comissão Europeia como parte do seu processo de consulta para um ambiente regulatório de plataformas, intermediários online, computação de dados e em nuvem e economia colaborativa, que definiu a plataforma como “uma empresa que opera em mercados de dois ou múlti- plos lados, que utiliza a internet para permitir interações entre dois ou mais grupos de usuários distintos, porém interdependentes, de modo a gerar valor para pelo menos um dos grupos” (Comissão Europeia, 2015). Embora essa seja uma definição reconhecidamente ampla, o seu alcance exato de- pende de uma compreensão clara dos mercados de dois ou múltiplos lados.
O conceito de mercado de dois lados foi introduzido por Rochet e Tirole (Rochet eTirole, 2003). Os autores descrevem mercados em que a plataforma pode afetar o volume das transações cobrando mais de um dos lados do mercado e reduzindo proporcionalmente o preço pago pelo outro lado. Em outras palavras, os mercados para plataformas são desenhados de for- ma que ambos os lados sejam trazidos a bordo. Isso porque o volume de transações e de lucro da plataforma depende não apenas do valor total cobrado das partes, mas também da estrutura de precificação. Importante ressaltar que Rochet e Tirole reconhecem como característica essencial a existência de efeitos indiretos da rede, mais especificamente, em sua adesão e utilização pelos usuários (e.g. de um lado para o outro da plataforma), e a falta de internalização desses efeitos pelos usuários. Nesse sentido, merca- dos de dois lados diferem consideravelmente de mercados multiprodutos, nos quais consumidores internalizam efeitos indiretos de rede comprando produtos relacionados (como no caso de giletes e lâminas); também diferem do mercado em que compradores e vendedores podem negociar entre si, pois isto prejudicaria o papel da plataforma na fixação dos melhores preços. Por fim, cabe salientar que Rochet e Tirole admitem que o conceito de dois lados pode envolver firmas que simplesmente conectam fornecedores de insumos por um lado e consumidores do produto final no outro, desde que elas definem de forma otimizada as taxas de acesso de cada um. Contudo, esclarecem, esta possibilidade continua a ser em grande parte teórica, uma vez que tais empresas teriam pouca margem de manobra para manipular a estrutura de preços (Rochet e Tirole, 2006). Por isso, a natureza two-sided desses mercados é uma questão de grau, dependendo da capacidade da plataforma de afetar o volume alterando a estrutura de preços: as empresas se tornam plataformas não por sua natureza, mas por uma escolha consciente, na medida em que estabelecem uma estrutura de preços não neutra. Isto significa também que uma empresa pode ter o potencial de ser uma plataforma, mas decidir não utilizar tal potencial em relação a qualquer atividade específica que empreenda. O que, em última análise, importa é se um determinado intermediário do mercado de dois lados pode efetivamente otimizar a produção alterando a estrutura de preços sem alterar seu nível de preço (Nachbar, 2021). Também significa que a utilização do termo “plataforma” no direito da concorrência e da regulação econômica pode divergir da utilização desse termo na linguagem comum, que tipicamente inclui empresas que operam em apenas um lado (isto é, o WhatsApp) e/ou sem efeitos de rede (isto é, a Netflix)(Nooren et al., 2018).
Um trabalho recente (OCDE, 2018) alargou as perspectivas dos mercados de dois lados para mercados de múltiplos lados: esse é um conceito mais amplo que reconhece que a interdependência entre grupos de usuários pode ir além de uma relação bilateral, abrangendo um terceiro ou até um quarto grupo de usuários (e, potencialmente, mais). O mesmo trabalho sublinhou a importância de distinguir os casos em que as externalidades da rede fluem em apenas uma direção (caso em que a empresa coordenadora é chamada de “plataforma provedora de audiência”, ou audience-providing platform) e aqueles em que ambos os grupos se beneficiam de tais externa- lidades (caso em que a empresa coordenadora é chamada de “plataforma de correspondência”, ou matching platform). Seguindo essa definição, no contexto de múltiplos lados (ao contrário do que acontece com os mercados de apenas dois lados), a mesma empresa pode ser simultaneamente uma plataforma de correspondência e uma plataforma provedora de audiência. Uma distinção igualmente importante ocorre entre mercados transacionais (transactional), em que uma transação observável ocorre entre os usuários finais em ambos os lados da plataforma (como ocorre, por exemplo, com cartões de pagamento e casas de leilão), e mercados de dois (ou mais) lados não transacionais (non-transactional), em que tal transação não ocorre (como no caso de jornais e televisão) (Filistrucchi et al., 2013; OCDE, 2018).
O conceito de ecossistema busca capturar o fenômeno da coexistência e interdependência de múltiplos atores e produtos (ou serviços), tipicamente (mas não exclusivamente) no contexto das plataformas digitais. Do ponto de vista da organização industrial, esse conceito pode ser visto como uma evolução da chamada “teoria do sistema”: uma abordagem que reconhece a importância de fortes complementaridades entre determinados produtos e serviços ligados por meio de uma interface que permite aos consumidores desses produtos internalizarem benefícios dessa complementaridade (por exemplo, parafusos e porcas, videojogos e consoles, automóveis e serviços de reparação); e, por isso, sugere analisar esses sistemas como um todo e não como uma soma de seus componentes (Katz e Shapiro, 1994). A palavra “ecossistema” se alinha com essa abordagem, mas com a complexidade adicional gerada pela riqueza de relações de sinergia e interdependência que podem ocorrer dentro de redes, bem como nos ecossistemas que são estudados em biologia, e não sob a governança hierárquica de uma cadeia de abastecimento.
Os estudos de administração reconheceram o valor dessas interações sistêmicas e forneceram uma estrutura para visualizá-las no contexto de ecos- sistemas de negócios, ecossistemas de inovação e ecossistemas de plataforma, dando, assim, à palavra “ecossistema” conotações ligeiramente diferentes: no primeiro caso, uma visão mais ampla que inclui “comunidade de organizações, instituições e indivíduos que impactam a empresa e os clientes e suprimentos da empresa”; no segundo, uma visão mais orientada para o propósito focada nos “arranjos colaborativos por meio dos quais as empresas combinam suas ofertas individuais em uma solução coerente voltada para o cliente”; e, no terceiro, uma visão mais orientada para a tecnologia que foca a infraestrutura crítica fornecida por uma plataforma e inclui o patrocinador da plataforma junto com todos os provedores de complementos que tornam a plataforma mais valiosa para os consumidores. Uma revisão abrangente dessa literatura tentou fornecer uma estrutura unificadora, visualizando os ecossistemas como “grupo de empresas que devem lidar com complementaridades únicas ou supermodulares que não são genéricas, exigindo, portanto, a criação de uma estrutura específica de relacionamentos e alinhamento para criar valor”. Embora essa definição possa ser criticada por ser, talvez, muito restrita ao ní- vel da empresa e, portanto, não levar em conta suficientemente o papel que clientes e instituições podem ter na formação do ecossistema, ela tem o mé- rito de enfatizar a complementaridade, que é fundamental para reunir uma variedade de vendedores e clientes. No entanto, podem-se listar outras características das relações comerciais que caracterizam os ecossistemas, e isso pode ser feito adotando uma ampla gama de diferentes perspectivas: por exemplo, distinguindo elementos técnicos e comerciais dos ecossistemas ou analisando as partes constitutivas de diferentes categorias de ecossistemas (como ecossistemas de inovação, ecossistemas de dados pessoais, ecossistemas de saúde etc.).
Duas características técnicas que prevalecem nas plataformas digitais — modularidade e interconectividade — facilitam complementaridades que beneficiam não só a plataforma e os fornecedores de insumos complementares — (também chamados de “complementos”), mas também um conjunto mais vasto de participantes que são afetados por sua infraestrutura. Partindo da ecologia, a modularidade pode ser definida como uma propriedade do sis- tema que mede o grau em que os compartimentos densamente ligados dentro de um sistema podem ser dissociados em comunidades ou agrupamentos separados que interagem mais entre si do que com outras comunidades. A interconectividade, por sua vez, refere-se à forma como diferentes espécies dentro de um ecossistema se relacionam (Nordbotten et al., 2018). Levando em consideração tais características, um ecossistema pode ser definido como “um grupo de empresas que interagem e que dependem das atividades umas das outras... dependentes da liderança tecnológica de uma ou duas empresas que fornecem uma plataforma em torno da qual outros membros do sistema, fornecendo insumos e bens complementares, alinham os seus investimentos e estratégias” (Teece, 2012).
Com o crescimento da economia da plataforma, a interconexão, a modularidade e os efeitos exponenciais da rede deram origem ao chamado fenômeno da “empresa invertida”: os líderes de mercado optam por inovar e alcançar escala reunindo grandes números de clientes interdependentes, e, para tanto, utilizam contratos “abertos” externos em vez da integração vertical “fecha- da” ou subcontratos (Parker et al., 2017). A oportunidade de captar os dados e a atenção dos usuários permite a essas empresas intermediarem transações com níveis de personalização sem paralelo, moldarem mercados em torno de perfis de consumidores cada vez mais específicos e alavancarem o seu poder em mercados secundários. Isso dá origem a uma corrida entre poucos cria- dores de mercado, que viram infraestruturas-chave para a criação de valor, e tornam possível um volume elevado de transações. O papel dessas empresas como orquestradores de sistemas é crucial para permitir o crescimento e evitar externalidades negativas, mas, ao mesmo tempo, oferece-lhes oportunidades de abuso e extração de rendas de forma a impactar a concorrência, a inovação e a eficácia das políticas públicas. Consequentemente, alguns autores chamaram os reguladores para analisar mais de perto a forma como o excedente é gerado nos ecossistemas e a sua distribuição pelos diferentes atores da cadeia de valor digital (Jacobides e Lianos, 2021). Outros notaram que, para além da concorrência “intraecossistema”, as autoridades deveriam considerar a concorrência “interecossistema” e evitar sua subversão na medida em que prejudica o bem-estar dos consumidores (Crane, 2019).
EUROPEAN COMMISSION (2015b), Public consultation on the regulatory environment for platforms, online intermediaries, data and cloud computing and the collaborative economy, https://ec.europa.eu/digital-single-market/en/news/public-consultation-regulatory-environment-platforms-online-intermediaries-data-and-cloud
FILISTRUCCHI, L.; GERADIN, D.; DAMME, E., 'Identifying Two-Sided Markets’ World Competition (2013) 36(1), 33-59.
KATZ, M. L.; SHAPIRO, C., Shapiro Systems Competition and Network Effects, Journal of Economic Perspectives—Volume 8, Number 2—Spring 1994—Pages 93–11.
NACHBAR, T., Platform Effects (January 12, 2021). Virginia Public Law and Legal Theory Research Paper No. 2021-10, Virginia Law and Economics Research Paper No. 2021-03, Available at SSRN: https://ssrn.com/abstract=3775205 or http://dx.doi.org/10.2139/ssrn.377520
NOOREN, P.; GORP, N.; EIJK, N.; FATHAIGH, R., “Should We Regulate Digital Platforms? A New Framework for Evaluating Policy Options: Evaluating Policy Options for Digital Platforms”, Policy and Internet 10 (3), pp. 264–301.
NORDBOTTEN, J. M.; LEVIN, S. A.; SZARHMÁRY, E.; STENSETH, N. C., “Modularity”, Encyclopedia of Ecology (Second Edition), 2019, Ecological and evolutionary dynamics Proceedings of the National Academy of Sciences Jan 2018, 115 (4) 750-755; DOI: 10.1073/pnas.1716078115
OECD COMPETITION COMMITTEE (2018), Rethinking Antitrust Tools for Multi-sided markets (2018) at https://www.oecd.org/daf/competition/Rethinking-antitrust-tools-for-multi-sided-platforms-2018.pdf
PARKER. G., VAN ALSTYNE, M. W., JIANG, X. “Platform Ecosystems: How Developers Invert the Firm” 41 (1) MIS Quarterly (2017), 255–266
ROCHET, J-C., TIROLE, J., “Platform Competition in Two-sided Markets”, Journal of the European Economic Association, 2003, Vol. 1, No. 4, p. 990-1029.
ROCHET, J-C., TIROLE, J., “Two-Sided Markets: A Progress Report”, The RAND Journal of Economics, 2006, Vol. 37, No. 3, p. 645-667.
TEECE, D. J. (2012) “Next-Generation Competition: New Concepts for Understanding How Innovation Shapes Competition and Policy in the Digital Economy”, (2012) 9 Journal of Law & Policy
ZINGALES N., FARANI, P., A aplicação do direito antitruste em ecossistemas digitais: desafios e propostas (Editora FGV, 2022), disponível em formato aberto em https://bibliotecadigital.fgv.br/dspace/handle/10438/32889 - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 20:16a
- Coletivo Digital (comentário inserido por: RAUL LUIZ) 16/07/2023 às 20:05Fizemos uma grande discussão e muitas das idéias expostas aqui são pessoais mas extraídas de uma discussão com representantes de diversos coletivos de diferentes estados do país, na qual estamos chamando de grupo da Soberania Digital. As plataformas digitais, as quais estamos discutindo sobre a necessidade de sua regulação, são ambientes virtuais alocados, evidentemente, em uma plataforma física (servidores, etc). As grandes corporações bilionárias internacionais são responsáveis por fazer a gestão desses ambientes virtuais que servem para comunicação, troca de conteúdos, interação entre os usuários, etc. As grandes corporações estabelecem suas regras de uso e desconsideram as legislações e os aspectos culturais de cada país e continente. É preciso regular esses espaços a partir da legislação e da cultura local. As grandes corporações através de suas plataformas digitais estão desestabilizando democracias, interferindo na cultura do povo, disseminando a cultura do ódio, disseminando preconceitos, permitindo a proliferação de pensamentos autoritários. Não podemos afirmar que ela apresenta apenas questões negativas, mas a necessidade de regular a plataforma é para combatermos a cultura do ódio, o preconceito e a proliferação de idéias autoritárias.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 19:46As plataformas são produtos em meio digital que fornecem ou possibilitam outros produtos ou serviços, podendo garantir, entre outros, meios para facilitar a interação, compartilhamento de informações e/ou participação ativa dos usuários.
Nesse sentido, as possíveis regulações em debate devem ser direcionadas para as plataformas digitais intermediárias de serviços que permitem, como elemento central de seu negócio, a transmissão, comunicação e veiculação de informações (conteúdos) de usuários para outros usuários, possibilitando a disseminação para redes de comunicação. Isso inclui serviços que armazenam informações, organizam informações, aplicam mecanismos automatizados para melhoramento de fluxo informacional entre usuários.
Por fim, na busca pela definição de plataformas digitais, é preciso considerar termos principiológicos que consigam adequar a regulação à constante inovação do ambiente digital, nunca se permitindo colocar como objeto uma única plataforma ou um serviço específico, com o risco de tornar a regulação obsoleta no curto prazo. Assim, a busca por plataformas que possuem em seu cerne a transmissão de informações produzidas por usuários para um ou mais usuários é um caminho a ser levado em conta. Esse foi o escolhdio pela Digital Services Act [Art. 2, (f), (h) e (ha)]. - Everton Rodrigues 16/07/2023 às 18:57Plataformas digitais são sistemas, aplicativos ou infraestruturas tecnológicas que possibilitam a interação entre usuários e fornecedores de serviços, produtos ou conteúdos através da internet. Essas plataformas funcionam como intermediárias, conectando diferentes partes interessadas e facilitando transações, comunicação e compartilhamento de informações. Exemplos de plataformas digitais incluem redes sociais, lojas online, aplicativos de compartilhamento de vídeos, serviços de streaming, marketplaces, entre outros.
- Carlos Alberto Afonso 16/07/2023 às 18:04As camadas de serviços e de conteúdos da Internet -- que incluem funções agora clássicas como email, sediamento de conteúdos e uma variedade cada vez maior de serviços interativos -- avançam para sistemas mais complexos, aproveitando a evolução tecnológica de equipamentos (capacidades de processamento e de armazenagem) e da conectividade das redes.
As ditas "plataformas sociais" representadas nas propostas regulatórias atuais por serviços também tradicionais de busca de informação e de troca de mensagens, priorizando os serviços de maior escala como os oferecidos por empresas como Alphabet, Meta, Apple, Microsoft, são uma parte do desafio maior -- o alcance de novos serviços como os oferecidos por variantes da inteligência artificial generativa, a profusão de aplicativos envolvendo grandes volumes de recursos financeiros dos cassinos online -- a maioria deles sediados em paraísos fiscais.
Não há alcance nas propostas regulatórias atuais para abranger esses novos desafios. Há ainda outro espaço que essas propostas estão longe de alcançar: o universo cada vez mais diversificado na Internet das Coisas (IoT, na sigla em inglês). Neste espaço há uma infinidade e variedade de dispositivos cuja origem não é clara, em que a responsabilidade pelo software embarcado ("firmware") é dificil de determinar, e em que riscos de segurança não são em consequência respondidos por fabricantes.
Atualizações de "firmware" nos bilhões de dispositivos de IoT são na quase totalidade inexistentes. Tampouco há clareza sobre a funcionalidade desses "firmwares" -- para onde uma câmera wi-fi envia de fato as imagens obtidas, que tipo de interação não perceptível um assistente digital caseiro mantém com seu fabricante etc.
Em suma, há um grande risco das propostas regulatórias, se sacramentadas em lei, já nascerem datadas, ou alcançarem uma parte menor do espaço interativo da Internet. Em particular, um desafio grave aparece agora, com a IA generativa. Se havia dúvidas sobre o impacto preocupante nos direitos autorais e trabalhistas dessa nova modalidade de interação envolvendo bases de dados gigantescas e software sofisticado, o exemplo atual do movimento grevista em Hollywood as elimina. Atores e atrizes têm suas interpretações usurpadas por empresas que reproduzem suas atuações originais digitalmente em outras performances, muitas vezes sem autorização desses artistas. Roteiristas têm seus textos originais usurpados pelo uso de IAG para gerar novas redações por parte dos estúdios, sem remunerar os autores humanos.
- Marcelo Cotta 16/07/2023 às 17:35A TELEFÔNICA BRASIL S.A., Prestadora de diversos serviços de telecomunicações, doravante denominada apenas TELEFÔNICA, parabeniza o Comitê Gestor da Internet no Brasil (CGI.br) pela promoção desta Consulta Pública.
Primeiramente, faz-se necessário pontuar que esta Prestadora sempre preza por ser propositiva nos temas sobre uso da internet. Nesse sentido, é importante destacar o relevante papel do CGI.br na articulação de medidas e ações para constituição de um arcabouço normativo e regulamentar que suporte o pleno desenvolvimento das atividades inerentes à Internet no Brasil.
A proposta da Consulta Pública sobre Regulação das Plataformas Digitais é de suma importância para dar continuidade à implementação de mecanismos de proteção aos usuários da internet. Entretanto, esta Consulta abre também a oportunidade de se debater mecanismo para além do estabelecimento da proteção da privacidade dos indivíduos e da utilização indevida de seus dados pessoais. Deve-se buscar igualmente a criação de medidas que protejam a livre concorrência e que evitem os riscos sistêmicos que as atividades das Plataformas Digitais podem acarretar à economia, alguns inclusive já identificados e que serão objeto da presente contribuição, e que, por consequência, alcançam a sociedade brasileira como um todo.
Nesse sentido, a TELEFÔNICA entende que, diante da necessária constituição de legislações e regulações sobre o modelo de negócio dos atores do ecossistema digital, especificamente as Plataformas Digitais, é de suma importância o processo de mapeamento das falhas de mercado, a identificação dos danos causados por elas e os riscos que afetam as estruturas de mercado nas quais estão inseridas as Prestadoras de serviços de Telecomunicações, as Plataformas Digitais e os usuários finais, de modo que seja possível a construção de normativos que mitiguem tais falhas e reequilibrem os mercados constantes do ecossistema digital.
I. Ecossistema Digital: mercado de dois lados e sua metodologia de precificação
O desenvolvimento da economia digital ocorreu sob a estrutura de mercado de plataformas, que, segundo a teoria econômica, pode ser compreendido como um mercado representado por empresas intermediadoras do relacionamento entre dois tipos de usuários distintos, isto é, um mercado de dois lados. Entretanto, com a evolução deste mercado, a partir da adoção de novas tecnologias, os parâmetros de negociação ampliaram-se ao ponto de que estas plataformas passaram a ofertar mais de um tipo de produto e/ou serviço, culminando em uma dinâmica de mercado multilateral.
Os mercados de dois lados são modelos econômicos nos quais há interação entre dois grupos distintos de agentes econômicos que se beneficiam mutuamente por meio de uma plataforma intermediária. Tais mercados são caracterizados pela presença de dois lados ou grupos de usuários interdependentes, em que cada um deles depende da presença do outro para obter valor da plataforma. Um lado é composto pelos fornecedores de um produto ou serviço, enquanto o outro lado é composto pelos consumidores ou usuários desse produto ou serviço.
Nesse sentido, vale destacar que a plataforma atua como um intermediário facilitador da interação entre esses dois grupos de usuários, gerando valor ao reunir os dois lados e permitir que eles se encontrem e realizem transações. Essa interdependência gera um efeito de rede, no qual quanto maior é a quantidade de usuários acessando, maior será a demanda e o valor agregado do produto ou serviço ofertado, o que acaba possibilitando maiores ganhos de escala.
Esse tipo de mercado pode ser encontrado em várias indústrias do ecossistema digital, como transporte (Uber, 99), hospedagem (Airbnb), e-commerce (Amazon), redes sociais (Facebook) e muitos outros mercados tradicionais como o de pagamentos (ex.: cartões de crédito) e, ainda, o caso do próprio mercado de telecomunicações, conforme será descrito nos parágrafos seguintes.
Contudo, segundo estudos recentes da TELEFÔNICA [1], mesmo o setor de telecomunicações estando em um mercado no qual há a intermediação de dois grupos por uma plataforma, a responsabilidade pela remuneração dos serviços da plataforma, historicamente e exclusivamente, se concentrou somente em um dos grupos, qual seja, no usuário final.
Dessa maneira, as Operadoras de telecomunicações atuam como intermediárias entre os produtores de conteúdo e os consumidores finais, gerenciando a infraestrutura e oferecendo serviços de telefonia, internet e televisão aos usuários. Entretanto, com o surgimento e o crescimento das Plataformas Digitais, a dinâmica mudou. Nos últimos anos, esta situação tem se tornado crítica, uma vez que, diferentemente do modelo tradicional de serviços baseados em voz, o crescimento no tráfego de dados vem sendo impulsionado principalmente por conteúdos gerados/distribuídos massivamente pelas Plataformas Digitais (aplicativos de mensagens, serviços de streaming de vídeo, redes sociais e lojas virtuais, dentre outros – conceito Over The Top - OTT). Isso resultou em uma interdependência entre as Operadoras de telecomunicações e as Plataformas Digitais. Por um lado, as Operadoras de telecomunicações precisam fornecer uma infraestrutura confiável e de alta velocidade para atender às demandas das Plataformas Digitais e seus usuários. Por outro lado, as Plataformas Digitais dependem das Operadoras de telecomunicações para garantir a conectividade e o acesso dos usuários aos seus serviços.
A existência, até o presente momento, de um modelo econômico de remuneração dos serviços de telecomunicações apenas pelos usuários não deve representar óbice para a evolução para uma precificação bilateral do tráfego de internet, pois os mercados não são estruturalmente unilaterais ou bilaterais.
A evolução da atuação das Plataformas Digitais mudou a forma com que as Operadoras de Telecomunicações gerenciam seus modelos de negócios. Hoje, elas dependem, principalmente, da receita gerada pelos serviços de telefonia e dados/acesso à internet. Porém, com a atual tendência de crescimento da economia digital, o modelo de precificação unilateral dos pacotes de dados, fixos e móveis, não é mais suficiente para arcar com os custos de investimentos e de manutenção da infraestrutura de rede necessários para suportar a elevada demanda pelo consumidor por conteúdos produzidos pelas Plataformas. Por outro lado, a maior parte da cadeia de valor do ecossistema digital está sendo gerada pelo tráfego de dados proveniente dessas Plataformas, que não pagam pelo acesso à internet e pelo uso das redes das Operadoras de Telecom – transporte do tráfego de dados que são gerados através da rede fixa ou móvel das Operadoras até os usuários finais.
Tal situação de aumento de tráfego deve continuar nos próximos anos segundo previsões de mercado, originadas principalmente pelo aumento da demanda da qualidade dos serviços de streaming (ex.: transmissão em 4K, 8K, etc) e também pelo surgimento de novas aplicações relacionadas a realidade virtual, Metaverso, entre outras de baixa latência que exigirão um volume maior de investimentos para aumento da capacidade em redes fixas e móveis.
É a partir desta ótica que serão desenvolvidas as demais contribuições à presente Consulta.
II. Modelos de negócios das Plataformas Digitais: Aspectos concorrenciais e falhas de mercado
A partir do que foi exposto no tópico anterior, é importante destacar que existe uma correlação direta entre o avanço das Plataformas Digitais, especialmente os serviços de streaming, e o aumento da demanda por infraestrutura de internet de alta capacidade, o que, em última análise, conforme será exposto, gera um cenário de falha de mercado que carece de atenção/regulação.
Contudo, antes de avaliarmos o impacto para o setor de telecomunicações, em específico sobre o desequilíbrio do mercado provocado pelas grandes Plataformas Digitais, vale destacar quais seriam estas falhas e os possíveis mecanismos de mitigação que estão sendo analisados no mundo.
Atualmente, ao considerarmos as regulações existentes sobre proteção contra condutas adversas produzidas pelas Plataformas Digitais, elas viabilizam o estímulo ao tratamento justo e não discriminatório no relacionamento com outras empresas. Para isto, a Comissão Europeia na Lei de Mercados Digitais (DMA) [3] estabeleceu como ações: regular o acesso das empresas, desenhar interfaces das apresentações dos produtos e serviços e dos sistemas de notas e reviews, determinar as APIs que podem ser acessadas, etc.
Tal regulação europeia também estabeleceu critérios rigorosos para classificar as grandes Plataformas Digitais como Gatekeepers (controladoras de acesso) com o objetivo de combater práticas anticoncorrenciais e de permitir a maior diversidade de escolha de produtos e serviços, a preços mais acessíveis, pelos consumidores.
Mesmo que o poder das Plataformas Digitais ocorra pela dificuldade em se aplicar remédios anticoncorrenciais, devido à dinâmica peculiar do mercado digital e a ineficiência da utilização de mecanismos aplicados ao mercado tradicional, a falta de transparência e a complexidade destas empresas normalmente impedem que tais condutas sejam efetivamente revistas por reguladores antitruste. Dessa forma, assim como observado no DMA da União Europeia, eventual regulação a ser criada no Brasil deveria impedir o abuso sobre empresas e consumidores por meio da adoção de práticas que:
a) Assegurem que o mercado digital permaneça competitivo;
b) Possibilitem o compartilhamento da base de dados com outras empresas;
c) Promovam a interoperabilidade;
d) Limitem a exploração de vieses e tendências comportamentais dos consumidores; e
e) Proíbam “self-preferencing”
Conforme estabelecido na União Europeia, as propostas que estão sendo discutidas sobre a regulação assimétrica das Plataformas Digitais se dão a partir da segmentação do objetivo da regulação, do tipo de serviço, do faturamento e da quantidade de usuários. Porém, sob o aspecto concorrencial, que atualmente está atrelado à criação de Bigdatas e mecanismos de retenção dos usuários, o DMA estabelece obrigações regulatórias somente aos Gatekeepers que detêm um poder significativo em um determinado mercado digital. Para ser considerada com Poder de Mercado Significativo (PMS), a empresa deverá:
a) Ter atividade econômica em mais de três países da União Europeia;
b) Ter uma posição econômica forte, isto é, possuir um volume de negócios anual de pelo menos 7,5 bilhões de Euros na União Europeia ou uma avaliação de mercado de, pelo menos, 75 bilhões de Euros;
c) Ter posição de intermediação forte, deverá ter, pelo menos, 10% da população da União Europeia como usuários finais mensais, o que representaria hoje 45 milhões de consumidores, e, pelo menos 10 mil usuários/empresas anuais;
d) Ter posição consolidada no mercado europeu, isto é, deter pelo menos, nos últimos três anos, os critérios de poder econômico e de intermediação.
Nesse sentido, vale ainda destacar que o elevado poder de mercado dessas empresas acaba por proporcionar uma alta capacidade de manipulação frente aos usuários, pois, para sustentar a geração de valor e a alta rentabilidade de seus negócios, desenvolvem soluções para manter o engajamento e o maior tempo de tela possível. O maior desafio para a regulação das atividades e dos conteúdos disponibilizados pelas Plataformas Digitais está no fato de que a utilização e o acesso das Plataformas estão conectados às relações sociais e despertam a dependência do uso pelos consumidores.
Tal perspectiva traz a reboque a necessidade de reduzir tais práticas deletérias das Plataformas Digitais e discussões públicas sobre o tema não são uma peculiaridade brasileira. Na União Europeia já há a Lei de Serviços Digitais (DSA) [4] que tem como objetivo: atenuar a manipulação e a desinformação, diminuir a exposição do consumidor a conteúdos ilegais, garantir a proteção dos direitos fundamentais e aumentar a transparência. Tal preocupação vai além da esfera anticoncorrencial, pois estas condutas afetam o bem-estar dos consumidores.
Por fim, junte-se a todo o anteriormente exposto, o fato de que as Operadoras, por força da regulamentação vigente, não podem degradar e nem negar o fornecimento do serviço de acesso à internet às Plataformas, o que as obriga a fazerem grandes investimentos para satisfazer a demanda, mantendo e, até mesmo, aumentando a qualidade, e seguir prestando o serviço de transporte de dados independentemente de não haver a devida remuneração por parte das Plataformas, limitando a capacidade negocial das Operadoras. Consequentemente, quanto melhor a qualidade do acesso à internet, maior será o incentivo para as Plataformas gerarem conteúdos, criando um ciclo de investimentos para ampliação da capacidade de rede que onera por demais as Operadoras devido não receberem receitas adicionais. Assim, o atual avanço das atividades das Plataformas compromete a qualidade e a estabilidade da internet, na medida em que utilizam a infraestrutura de rede de forma massiva e concentrada sem remunerar as Operadoras de telecomunicações.
Dessa maneira, pensando em um cenário agravado pelo uso cada vez mais ostensivo de recursos das redes de telecomunicações em que o mercado não consegue, naturalmente, superar tais externalidades, faz-se necessária uma atuação regulatória-concorrencial que as enderece. É o que traremos no próximo tópico.
III. Impacto das falhas de mercado na prestação de serviço de acesso à internet: Regulação para tratamento justo e não discriminatório (remuneração pelo uso da rede)
O crescente consumo de serviços de streaming, como vídeo, música e jogos online, requer capacidade de infraestrutura de rede significativa para transmitir os dados necessários aos usuários finais. Com o aumento da popularidade dos serviços de streaming, a quantidade de dados transmitidos pela internet aumentou substancialmente. O streaming de vídeo em alta definição (HD) e ultra alta definição (UHD), o maior número de usuários desses serviços e o incremento das horas de uso, por exemplo, requer uma capacidade considerável para entregar uma experiência de visualização de qualidade diferenciada. Além disso, o surgimento de novas tecnologias e serviços de streaming ao vivo, plataformas de jogos em nuvem, realidade virtual (VR/AR), Metaverso e IA também contribuirá para o crescimento do tráfego e aumento da demanda a médio prazo.
Essa demanda crescente por capacidade de rede tem pressionado as redes dos provedores de serviço de internet (ISPs ), que precisam expandir e atualizar suas infraestruturas para atender à demanda por velocidades de conexão mais altas e maior capacidade de dados.
É dizer, há uma necessidade exponencialmente progressiva por parte das Prestadoras de serviços de telecomunicações em investirem na expansão e aumento de capacidade de suas redes de modo a garantir que possam fornecer conexões estáveis e de alta velocidade aos usuários dos serviços ofertados pelas Plataformas.
Em resumo, o avanço das Plataformas Digitais, especialmente os serviços de streaming, tem gerado um aumento significativo na demanda por infraestrutura de internet de alta capacidade, o que, consequentemente, pressiona os provedores de serviço de internet a atualizarem as suas redes para atenderem i) a necessidade crescente de capacidade de rede, e ii) as normas, as quais as Prestadoras de telecomunicações estão sujeitas, que dispõem, principalmente, sobre qualidade de rede.
Nesse contexto, verifica-se também a ausência de justa contribuição das Plataformas Digitais pela utilização das redes de telecomunicações, tendo em vista que os custos da prestação do serviço são sensíveis, aumentando à medida que o tráfego de conteúdos na internet cresce, e, por outro lado, as receitas são restritas apenas ao aumento da base de assinantes.
Estudo da Oliver Wyman [5] considerando as 100 (cem) maiores operações de telecomunicações no mundo, indica que, entre os anos de 2012 e 2021, as receitas dessas empresas tiveram um crescimento abaixo da inflação, ao ponto de restringir a disponibilidade de recursos para investimentos em infraestrutura. No momento, as empresas buscam implantar soluções voltadas a incrementar sua eficiência operacional. Contudo, é notória a existência de fatores limitantes no que tange ao potencial de redução dos custos operacionais, como pressões de cunho competitivo, bem como a necessidade de atendimento às normas legais e regulamentações aplicáveis à sua operação.
A falha de mercado a que se remeteu no tópico anterior, resultante do desequilíbrio entre o aumento constante do uso das redes das Prestadoras de telecomunicações e as limitações para sustentabilidade de suas receitas, é um desafio significativo que requer uma solução equitativa, que permita a justa remuneração pelo uso da rede das Prestadoras de serviços de telecomunicações.
Defender mecanismos de contribuição para a sustentabilidade mediante o pagamento pelas Plataformas Digitais pelos serviços que recebem, com o fito de equilibrar o ônus financeiro das Prestadoras de serviços de telecomunicações com a geração de receitas justas e equivalente ao uso de suas redes pelas Plataformas Digitais, é dizer que, ao garantir uma compensação adequada, as Prestadoras teriam recursos para investir na expansão e atualização de suas redes, mantendo a infraestrutura necessária para atender à demanda crescente de serviços digitais.
Além disso, é necessário considerar as diferentes características do mercado digital e as especificidades dos diversos tipos de serviços online. Por exemplo, serviços de streaming de vídeo ou redes sociais consomem uma quantidade significativa de capacidade de rede, enquanto outros serviços, como streaming de música ou ferramentas de mensageria, podem não ter o mesmo impacto. Portanto, uma abordagem diferenciada pode ser necessária, levando em conta a natureza e o impacto do serviço online na infraestrutura de rede.
Tal processo deve ser conduzido com transparência, buscando um consenso sobre o alcance, os mecanismos e âmbito de implementação. É importante garantir que a solução adotada não desencoraje a inovação e a competição, mas sim promova um ambiente equilibrado e sustentável para todas as partes envolvidas.
Em resumo, trata-se de resposta necessária à falha de mercado anteriormente apontada, mediante atuação regulatória que potencialize diálogo colaborativo entre todas as partes interessadas, de modo a se alcançar solução que promova uma compensação justa e proporcional pelo uso da infraestrutura de rede, criando um ambiente saudável para o crescimento das Plataformas Digitais e das Prestadoras de serviços de telecomunicações e favorecendo o desenvolvimento dos mercados que constituem o ecossistema digital.
IV. Conclusões
Diante de todo o exposto, a TELEFÔNICA entende que a Consulta Pública em questão é de extrema importância para a construção de normativas que equilibrem o mercado digital, tendo em vista que o crescimento exponencial do uso das redes de telecomunicações pelas Plataformas Digitais tem pressionado as Prestadoras a lidar com necessidade de constantes e elevados investimentos em infraestrutura, em contrapartida a um cenário de limitação para captura de novas receitas, podendo afetar negativamente um dos elos essenciais da cadeia de valor do mercado digital e colocando em risco a sustentabilidade dos investimentos em infraestrutura de rede das Operadoras de telecomunicações.
Para lidar com essa disparidade, a implementação de um modelo que proporcione a negociação célere entre as Plataformas Digitais e as Operadoras de telecomunicações se mostra uma abordagem necessária no sentido de buscar garantir uma compensação justa pelo uso da infraestrutura de rede das Operadoras de telecomunicações pelas Plataformas Digitais. No entanto, a implementação desse modelo requer um diálogo colaborativo entre todas as partes interessadas, levando em consideração as características do mercado digital e buscando um equilíbrio entre inovação, crescimento das Plataformas Digitais e sustentabilidade das Prestadoras de serviços de telecomunicações. Dessa forma, é possível promover um ambiente saudável e equilibrado para o desenvolvimento do ecossistema digital como um todo, garantindo a livre concorrência e impedindo que a estrutura de modelo de negócio das Plataformas tenha impacto negativo na prestação do serviço das Operadoras de telecomunicações.
[1] TELEFÔNICA (2023), ¿Quién decide el número de caras del mercado?
https://www.telefonica.com/es/sala-comunicacion/blog/quien-decide-el-numero-de-caras-del-mercado/
[2] Silva, Guilherme (2022), Diversificação nas plataformas digitais: um estudo de caso para Google e Facebook
https://www.anpec.org.br/sul/2022/submissao/files_I/i7-48b8e715d6ba18b9e1738759439136fe.pdf
[3] Comissão Europeia (2022), Regulamento dos Mercados Digitais
https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-markets-act-ensuring-fair-and-open-digital-markets_pt
[4] Comissão Europeia (2022), Regulamentação dos Serviços Digitais
https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable-online-environment_pt
[5] OliverWyman (2023), Growth beyond connectivity - The six most valuable assets for telecom carriers
https://www.oliverwyman.com/our-expertise/insights/2023/jun/how-telcom-operators-can-rebuild-future.html?utm_campaign=organic-social&utm_content=1686927657&utm_medium=social&utm_source=linkedin - Aluizio Weber 16/07/2023 às 16:39Conexis Brasil Digital - Inicialmente, a Conexis agradece a oportunidade de participar da discussão promovida pelo Comitê Gestor da Internet no Brasil (CGI.br), a qual traz uma profícua discussão sobre regulação de plataformas digitais, a qual, no entender deste sindicato, deve partir de princípios amplos que abarquem a complexidade das interrelações entre os diversos agentes e partes, interesses e direitos, modelos de negócio, tecnologias, necessidades regulatórias, cadeias logísticas e infraestruturas dos diversos ecossistemas do meio ambiente digital.
Em observância aos limites da sua atuação e do perfil de suas associadas, as contribuições da Conexis versarão sobre as necessidades de atuação regulatória para corrigir desequilíbrios e falhas de mercado, sobretudo no que tange ao relacionamento entre plataformas digitais e prestadoras de serviços de telecomunicações, com vistas ao desenvolvimento de regulamentações justas e equilibradas que promoverão a completa transformação da sociedade, a concorrência, eficiência e bem-estar nos mercados que integram o ecossistema digital.
Como sabido, a introdução e massificação da Internet banda larga promovido pelo setor de telecomunicações (sobretudo por meio de redes móveis) proporcionou, ao longo dos anos, uma verdadeira revolução da economia, gerando inúmeros e novos modelos de negócios, com inovações tecnológicas, surgimento de players e estruturas de mercado, com novas relações de concorrência. Nesse sentido, os benefícios impulsionados pelo setor de telecomunicações e agregados pelas plataformas digitais para a economia e a sociedade são inegáveis.
Ocorre que, ao mesmo tempo, o surgimento desses novos serviços e modelos de negócios têm levado também ao surgimento de mercados com estruturas e características específicas. Enquanto mercados tradicionais normalmente são organizados linearmente (envolvendo interações sequenciais entre diferentes agentes econômicos que atuam em segmentos distintos e verticalmente relacionados para a entrega de um produto ou serviço final aos consumidores), mercados digitais se organizam como plataformas de múltiplos lados, que interconectam e permitem a interação entre diferentes categorias de usuários, de modo que contam com características e dinâmica de funcionamento próprias.
Algumas das principais características que diferenciam mercados digitais de mercados tradicionais são: (i) efeitos em rede diretos, (ii) efeitos em rede indiretos, (iii) baixos custos marginais e economias de escala, (iv) utilização de dados em larga escala, (v) economias de escopo e entrada em mercados adjacentes, (vi) oferta de produtos e serviços a preço zero para o consumidor, mas remunerados com publicidade e/ou monetização de dados pessoais dos usuários, o que tem se mostrado bastante rentável à estas plataformas.
Tais características favorecem a atuação de empresas na forma de conglomerados ou com intensa integração vertical, sendo capazes de ofertar grandes ecossistemas de produtos e serviços complementares que tendem a fidelizar os usuários em uma única plataforma digital, resultando no efeito lock in que impede ou dificulta a migração de clientes entre diferentes plataformas.
Da mesma forma, tais características têm levado a uma significativa concentração econômica em torno de poucos e poderosos provedores de conteúdo digital, as chamadas big techs, que mormente abusam de sua posição dominante e deu poder de barganha .
Tal fato tem levado autoridades em diversas jurisdições a atuarem de maneira mais efetiva em mercados digitais e a clara evidência disso é a quantidade crescente de investigações de cunho concorrencial em todo mundo em face das big techs por abusos de poder econômico. Mais que isso, tem-se observado também a edição de regulamentações ex ante para que, em conjunto com o enforcement antitruste, possa conter o abuso de posição dominante de grandes plataformas digitais (como, por exemplo, o Digital Markets Act ).
Acompanhar as discussões e eventualmente implementar cenários equivalentes também no mercado brasileiro é imprescindível para obter um ambiente ainda mais competitivo e de inovação, com agentes atuando da maneira mais eficiente possível, ofertando produtos e serviços de qualidade aos usuários e com a adequada transparência sobre as práticas adotadas.
Verifica-se, portanto, que o avanço das telecomunicações no Brasil e no mundo é inegável e irreversível.
Redes que suportam a prestação dos serviços têm se desenvolvido de maneira significativa, com expansão da conectividade e evolução tecnológica em ciclos curtíssimos que permitem não somente o aumento do número de usuários conectados à Internet, como também o aumento das velocidades de conexão e latências menores.
Isso proporcionou uma revolução também no tipo de conteúdo consumido via redes de telecomunicações, com significativa diversificação ao longo dos últimos anos, com destaque para o aumento de conteúdo em vídeo.
Com efeito, tem-se observado um aumento exponencial no tráfego nas redes de telecomunicações, impulsionado por serviços digitais prestados por grandes plataformas que se caracterizam como relevantes geradores de tráfego. A título exemplificativo, de acordo com Sandvine (empresa canadense de inteligência de aplicativos e redes), em 2021 consumiu-se 3,2 vezes mais dados pelas redes fixa e móvel do que em 2018 – uma taxa composta de crescimento anual de 26%. Esse crescimento persiste em 2022, quando a internet transportou 23% mais tráfego do que no ano anterior.
No mesmo sentido, conforme estimativa publicada pela Deutsche Telekom, redes móveis carregam 300 (trezentas) vezes mais tráfego em comparação com 2011. O relatório Mobility Report de junho de 2023, elaborado pela Ericsson, também evidencia o aumento do tráfego de dados nas redes móveis no mundo, o qual saiu uma margem inferior a 10 EB/mês em 2016 para aproximadamente 130 EB/mês no começo de 2023. Tal perspectiva é corroborada pela Nokia que asseverou que “o tráfego das redes em 2027 será dominado por aplicações de realidade aumentada”.
Vale reforçar que esse aumento, bem como a diversificação do tipo de conteúdo consumido, somente foi possibilitado a partir de investimentos bilionários e recorrentes das prestadoras de telecomunicações, com a participação em licitações públicas para aquisição de direitos para explorar radiofrequência, construção e expansão de infraestrutura e elementos de rede, cumprimento de compromissos e obrigações regulatórias, dentre outros, em especial, ao se colocarem como grande força motriz para habilitar infraestruturas que viabilizam cenários ainda mais inovativos, como tecnologia de 5ª geração (5G).
Ocorre que, o crescimento exponencial de aplicações (centralizado em sua grande maioria em alguns grandes players mundiais) e provimento de serviços digitais tem se valido de redes de telecomunicações robustas integralmente financiadas pelas prestadoras de telecomunicações e que, alcançarão, em futuro próximo, patamares que poderão comprometer ou ameaçar a continuidade e manutenção de investimentos em larga escala, tal como até então realizado.
Com o avanço e crescimento irrestritos destas aplicações, o apetite por maiores velocidades e menores latências tem se tornado cada vez maior, onerando os prestadores de serviços de telecomunicações com investimentos massivos sem o incremento de receita em contrapartida. Parte disso também se deve à própria tipologia dos serviços prestados por plataformas digitais que atualmente rivalizam de maneira efetiva com os serviços de telecomunicações, como serviços de voz e audiovisual, os quais são beneficiados com vantagens e por significativas assimetrias que não se referem somente a regimes regulatórios. Portanto, verifica-se que a atual dinâmica do mercado provoca benefícios desproporcionais auferidos, em especial, por big techs e grandes provedores de conteúdo Over the Top (“OTT”), valendo-se, de maneira gratuita, dos investimentos promovidos por prestadores de serviços de telecomunicações.
Vale lembrar que, os pesados investimentos em infraestrutura realizados por prestadores também contribuem para o desenvolvimento e disseminação de inovações tecnológicas associadas à evolução da infraestrutura de rede, o que, por conseguinte, impulsionam e garantem espaço propício à uma inovação ainda maior em serviços prestados por estas plataformas aos seus usuários. Constata-se, portanto, que o setor de telecomunicações é aquele que efetivamente promove e viabiliza um ciclo virtuoso a todo o ecossistema, mediante a realização de investimentos unilaterais para a construção, expansão ou manutenção das redes, viabilizando a utilização massiva e de forma industrial a qualquer interessado, em especial, as plataformas digitais.
Ainda que algumas OTTs adotem determinadas medidas paliativas para aumentar a sua eficiência (como uso de protocolos de alta eficiência e técnicas de codificação e CDNs/caches), vale lembrar que estas, quando são adotadas, são feitas de maneira integralmente voluntária e discricionária. Portanto, não configuram elementos suficientes à promoção de equalização, vez que (i) para realizar tais medidas paliativas, consideram seus critérios específicos e não aspectos de rede objetivos; (ii) desoneram apenas parte de um universo específico de conteúdo, o qual também é escolhido pela OTT e relacionado ao seu escopo empresarial; (iii) grande parte das aplicações, por suas características técnicas, não são “cacheáveis” em cadeia, mantendo a integralidade do ônus do transporte às prestadoras; (iv) não auxiliam em desoneração de redes secundárias, backhaul e rede de acesso móvel.
Trata-se, em verdade, de ações complementares às providências adotadas pelas prestadoras de telecomunicações, e não produzem externalidades positivas na mesma escala, pois configuram investimentos voltados a uma forma de obtenção de vantagens frente a seus concorrentes diretos, tornando os ganhos apropriados às próprias plataformas digitais e viabilizando uma ainda maior consolidação de seu efetivo poder de mercado. Isto é, uma plataforma digital só tem capacidade de prover serviços satisfatoriamente aos seus usuários graças à infraestrutura física robustamente construída pelas empresas de telecomunicações, a quais efetivamente detêm a capacidade de transmitir dados em larga escala.
Vale lembrar que, muitas das perspectivas de crescimento e digitalização futura (inclusive de serviços prestados por estas grandes plataformas) majoritariamente dependerão ainda mais de infraestruturas de telecomunicação avançadas e construídas de modo a permitir uma ainda maior transmissão de dados em grandes volumes, em alta velocidade, com alta fidelidade e baixa latência, impulsionando, por exemplo, serviços de telessaúde, educação on-line, entretenimento, a expansão do trabalho híbrido, soluções de realidade virtual e aumentada, internet das coisas e serviços de missão crítica.
Esta situação específica do setor de telecomunicações, de aumento da demanda por infraestrutura a custos crescentes e queda na compensação mercadológica regular, tem levado legisladores estrangeiros a considerar soluções regulatórias que estabeleçam formas de compensação pelos provedores de serviços digitais originadores da demanda, com a finalidade de recompor o equilíbrio e evitar colocar em risco a transformação digital da sociedade, o ecossistema digital e a prestação do serviço de acesso à internet, especialmente da população vulnerável, bem como a discutir a busca por formas de compensação justas que permitam a continuidade da evolução tecnológica, econômica e social do meio ambiente digital.
Na visão da Conexis, ante a clara assimetria no relacionamento entre prestadoras de telecomunicações e grandes plataformas digitais também identificada no mercado brasileiro, entende-se sim que tal espaço também poderá ser explorado em eventual iniciativa voltada à uma efetiva regulação de plataformas digitais, de forma a encontrar um potencial reequilíbrio (ou mediante, ao menos, de uma minimização deste desequilíbrio) por meio de criação de obrigações normativas que enderecem a sustentabilidade de toda a cadeia digital, com vistas a sanar as falhas de mercado já identificadas na relação entre prestadores de serviços de telecomunicações e grandes plataformas digitais.
Diante do exposto, qualquer debate acerca da regulamentação das plataformas digitais deve necessariamente passar, primeiramente, por solucionar os desequilíbrios e assimetrias acima destacados na relação entre prestadoras de telecomunicações e provedores de conteúdo, de modo a garantir a remuneração justa pelo uso das redes das Operadoras de Telecomunicações pelas Plataformas Digitais e, consequentemente, a sustentabilidade dos investimentos para expansão de tal infraestrutura, permitindo que o ciclo virtuoso observado com a evolução e desenvolvimento dos serviços disponibilizados mediante a massificação do acesso à Internet poderá persistir. - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 13:49O desafio de encontrar uma definição para plataformas digitais que delimite quem será objeto de regulação está no fato de que os modelos de negócio das plataformas são bastante mutáveis. Qualquer definição excessivamente restritiva que seja condição para regulação pode torná-la obsoleta rapidamente ou, pior ainda, incentivar a inovação perversa (quando os sujeitos de regulação mudam seu modelo de negócio para escapar do regramento, enquanto preservam os riscos que o justificaram). Idealmente, a regulação deve trabalhar com tipos de plataforma bem delimitados, não sendo completamente necessário um conceito jurídico geral de plataforma digital.
No position paper “Gig economy e trabalho em plataformas no Brasil: do conceito às plataformas”, chamamos atenção para o fato de que a discussão sobre regulação de plataformas digitais de trabalho estava focada naquelas de entrega (delivery) e transporte individual de passageiros, com poucas menções a outros tipos, como de microtarefas, cuidados, faxina etc.
Se for considerado, mesmo assim, um conceito geral de plataformas digitais, ele deve ser amplo para abarcar os seus mais diversos tipos, limitado a apontar algumas características fundamentais desse tipo de aplicação, como a facilitação e organização da interação entre usuários. Mas esse conceito só pode existir concomitantemente com tipos delimitados de plataforma. Do contrário, todas elas serão reguladas de forma simétrica, o que não considera suas especificidades.
- LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 12:52São elementos fundamentais no conceito a ser adotado por plataformas digitais (i) a utilização de tecnologia, (ii) a implementação de infraestrutura online e (iii) a promoção de interações entre os usuários. Pode-se dizer, neste sentido, que plataforma digital é um modelo de negócio que tem como base a utilização de tecnologia e a implementação de infraestrutura online para promover interações com e entre usuários.
É imprescindível que a definição de plataformas digitais não seja tão restrita ao ponto de determinadas plataformas utilizarem o conceito para se escusarem de cumprir as obrigações estabelecidas pela regulação, nem tão ampla que cause insegurança jurídica. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:05CONTRIBUIÇÃO GERAL
A consulta pública elaborada pelo Comitê Gestor da Internet busca endereçar um amplo conjunto de temas.
Esta visão abrangente é positiva, na medida em que permite identificar aspectos transversais dos esforços regulatórios e, em alguma medida, também as sobreposições de esforços e potenciais conflitos entre interesses regulatórios legítimos que, não raras vezes, podem se chocar, exigindo escolhas regulatórias ou esforços técnicos de compatibilização.
De maneira geral, por outro lado, é importante atentar para as especificidades de cada uma das discussões. Isso porque, mesmo abordando um único assunto (como, por exemplo, desinformação), há diferenças significativas de contexto (ex: desinformação em contexto eleitoral ou no contexto da saúde) que impactam de maneira profunda os riscos que se pretende evitar e, consequentemente, a escolha de quais seriam as medidas apropriadas para mitigá-los.
Além disso, considerando que alguns dos desafios que a consulta pretende endereçar vão além da regulação de plataformas, ou mesmo da internet, é crítico e importante analisar em cada um dos contextos quais outros atores (como partidos políticos, no contexto eleitoral, ou institutos de pesquisa, no contexto de saúde) devem ser envolvidos, regulados ou convidados a participar da proposição de soluções conjuntas.
Por fim, é importante destacar que a abordagem da presente consulta encontra-se exclusivamente focada em riscos e regulação. Ainda que tal abordagem seja útil, não se deve perder de vista também as contribuições feitas para plataformas nos inúmeros temas abordados. Onde a consulta trata dos riscos à concorrência, por exemplo, é necessário contemplar as contribuições feitas pelas plataformas à economia, a criação de novas oportunidades para pessoas e empresas, bem como a facilitação na oferta de bens, produtos e serviços, sejam eles digitais ou não. Onde a consulta trata de riscos à democracia, é importantíssimo lembrar das contribuições que a internet e as plataformas trouxeram para a ampliação da diversidade de pontos de vista, aspecto crítico da liberdade de expressão e do debate democrático. Onde a consulta trata de privacidade e soberania digital, é fundamental lembrar das contribuições feitas pelas diferentes plataformas para incrementar a segurança de dados e informações de cidadãos brasileiros, para garantir a resiliência dos serviços de empresas e órgãos de Estado no País, bem como a contribuição no sentido de empregar, capacitar a força de trabalho local e estimular a atividade econômica, gerando oportunidades que fatalmente podem conduzir a mais inovação local.
Por estas razões, é importante que a presente consulta contemple não apenas os riscos trazidos pela atividade das plataformas, mas também as oportunidades criadas por plataformas e eventuais trade-offs que determinadas escolhas regulatórias podem trazer, limitando aspectos positivos potencializados pela internet.
A ALAI saúda a iniciativa do CGI.br e se mantém disponível para diálogos que devem se seguir a esta iniciativa. Esta contribuição associativa reflete o compromisso do setor com as instituições brasileiras e nossas respostas não devem ser lidas como posicionamento estanque ou final da ALAI ou de suas Associadas. Trata-se de esforço coletivo com o debate público e sinaliza linhas que podem amadurecer com a evolução dos temas de políticas públicas de Internet no Brasil e América Latina. Em razão da amplitude desta Consulta Pública, à multiplicidade de modelos de negócios que abarca e às várias iniciativas de aprimoramento do ambiente normativo de Internet no Brasil, a ALAI ressalta que qualquer excerto das respostas aqui apresentadas, sem devida contextualização, não representa nosso posicionamento institucional derradeiro.
____
Resposta 1.
Antes de avançar a uma proposta de regulamentação e definição de plataformas digitais, é preciso entender qual a demanda que se pretende responder.
Atualmente, não há uma definição consistente de "plataforma digital". Embora muitos regimes tenham discutido a "regulamentação das plataformas digitais", as definições do que constitui uma plataforma digital variam e são frequentemente aplicadas de forma aleatória. É por isso que o termo "plataforma digital" pode adotar um significado no contexto da regulação das comunicações e outro no contexto de privacidade. A ausência de uma definição uniforme de "plataforma digital" a nível mundial apresenta riscos. Além disso, o termo "plataforma digital" não serve como um mercado formal ou mesmo para definir um grupo de mercados para efeitos de análise da concorrência.
É fundamental considerar que as empresas rotuladas como plataformas digitais geralmente abrangem vários setores que atuam tanto no espaço físico como no digital. Portanto, uma regulamentação que se aplica apenas a empresas ou a serviços online resultará em efeitos desproporcionais nestes setores e prejudicará as soluções digitais inovadoras para os clientes.
À medida que outras jurisdições adotam iniciativas análogas de regulação de “plataformas digitais”, é prudente avaliar o impacto de tal legislação/regulação antes de adotá-la no Brasil.
A Europa adotou recentemente o Regulamento Mercados Digitais - DMA. Para além de preocupações e dificuldades enfrentadas na implementação de medidas de cumprimento deste regulamento, ainda não se sabe qual será o seu impacto no crescimento econômico, na inovação e no investimento naquela jurisdição. Agentes privados altamente competitivos e que atuam em benefício do consumidor deverão proceder com cautela ao considerar a sua entrada ou atuação em mercados europeus. Além disso, esses agentes terão de avaliar o valor a longo prazo do investimento nos mercados europeus, uma vez que o DMA desincentiva o êxito do mercado.
É preferível que o Brasil primeiro identifique os problemas que procura resolver com a legislação, antes de simplesmente importar uma legislação existente em outra região. No caso do DMA , por exemplo, é preciso avaliar o que funcionou ou não em termos de estrutura regulatória e de monitoramento em decorrência de sua aplicação na União Europeia.
Além disso, não existem “mercados digitais” pela perspectiva antitruste. Uma forma mais precisa de descrever os desenvolvimentos econômicos é a difusão de tecnologias “digitais” por toda a economia, em setores como publicidade, agricultura, automotivo, indústria e varejo. Empresas geralmente referidas como “big tech” podem ser mais bem descritas como pioneiras na adoção da tecnologia em setores muito distintos.
O tratamento diferenciado a agentes privados que adotaram tecnologias de forma mais abrangente que outras é ilógico, e cria incentivos econômicos perversos. Esse tipo de abordagem penaliza a inovação, distorce a concorrência, protege incumbentes consolidados, e em última instância prejudica os consumidores. Reguladores devem avaliar a dinâmica concorrencial em cada mercado relevante efetivo, e não segmentar ou aplicar regras distintas a determinados canais de distribuição dentro daquele mercado devido ao seu uso de determinada tecnologia. Alterações com escopo mal desenhado à política concorrencial podem desincentivar a inovação e o investimento no país.
Contudo, na hipótese do avanço de tal regulamentação, a definição de plataforma não deve focar na quantidade arbitrária da receita operacional, serviço oferecido, quantidade de clientes ou participação de mercado. - José Antonio Galhardo 16/07/2023 às 10:39A melhor definição é a que se alinhe com a definição internacionalmente aceita uma vez que a regulação nacional terá que enfrentar o desafio da extraterritorialidade das empresas, infraestrutura, mão-de-obra, investidores... Não há entre os organismos multilaterais uma definição única genérica. Eu gosto da definição usada para as plataformas de FinTech que descreve como uma atividade impulsionada por quatro tecnologias subjacentes geralmente chamadas “ABCD”: Inteligência Artificial, Big Data, Cloud services, e Distributed ledger technologies.
- Rodolfo Salema 16/07/2023 às 09:50Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
****
Faz-se imprescindível atentar para o uso das palavras e suas definições. A expressão “plataformas digitais”, por si só, já revela uma retórica própria das plataformas dominantes que sempre buscaram se distinguir de outros players e agentes atuantes em dimensões do mercado nas quais competiam e competem, com isso evitando respeitar regulações nacionais ou internacionais aplicáveis àqueles com quem rivalizam, ainda que com diferenças.
No Brasil, é nitidamente o caso da não aceitação por parte das plataformas que majoritariamente vivem de receitas publicitárias por venderem a anunciantes espaços e inserções publicitários de serem consideradas, nesse tocante, veículos de divulgação que também são (cf. Tercio Sampaio Ferraz Junior e Thiago Francisco da Silva Brito em Opinião Jurídica produzida já em 2018 ao Conselho Executivo de Normas-Padrão e disponível em https://static.poder360.com.br/2019/07/RESOLUCAO_01_2019_Veiculos_de_Comunicacao_Divulgacao.pdf), com isso criando uma situação assimétrica e excepcional em que simplesmente não se submetem às mesmas regras, ignorando inclusive leis federais como é o caso da Lei n. 4.680/65 ou da Lei n. 12.232/10 e buscando vantagens competitivas artificiais e injustas (como se valer das agências de publicidade pagas apenas por remuneração atribuída ou destinada por veículos tradicionais de mídia que abrem mão de parcela dos seus preços na forma de um desconto de agência determinado por Lei e definido em autorregulação, apesar de eventualmente as agências também alocarem publicidade nas tais plataformas digitais, que se tornam assim subsidiadas).
O termo “plataforma” etimologicamente vem do francês “plate-forme”, ou seja, algo com forma, aspecto, aparência, plano, horizontal, achatado, amplo. O adjetivo “plate” também se relaciona com o substantivo “plateau”, planalto, daí que se possa definir a plataforma como faz o dicionário Michaelis como “superfície plana, horizontal, mais alta que a área adjacente”. Daí por exemplo o uso comum e conhecido em expressões como “plataforma de embarque e desembarque” no caso de estações ferroviárias ou mesmo de “plataformas petrolíferas”, construídas no oceano para pesquisas e extração de petróleo.
Logo se vê que o uso do termo “plataforma” no universo digital, portanto, de início implica uma espécie de metáfora que busca atrair aspectos semânticos e pragmáticos do uso da palavra, já para buscar indicar tratar-se de algo “plano”, neutro, bem em linha com a retórica ou ideologia supostamente livre, democrática, de acesso universal da internet que hoje se sabe em realidade falaciosa.
Passadas algumas décadas, contudo, hoje é inegável que pouquíssimas plataformas dominam absoluta e globalmente diversas dimensões do mundo digital. Não é por outro motivo que hoje vemos o esforço regulatório de diversas jurisdições para tratar do assunto. Algumas delas, mais adiantadas, já inauguraram legislações específicas, buscando defender os cidadãos daquilo que se convencionou chamar de “big techs”. Com efeito, o foco de todas as regulações ex-ante que vêm surgindo está nos verdadeiros gigantes que, num contexto globalizado, tem há muitos anos dominado múltiplas e diversas jurisdições, causando efeitos deletérios sobre a liberdade de expressão, a liberdade de informação, o equilíbrio social e os regimes democráticos.
Outras expressões nesse sentido foram surgindo, como as siglas “GAFAM” ou “FAGA”, que fazem referência às maiores da atualidade: Google, Apple, Facebook, Amazon. Nessa direção, talvez por sua clareza, qualificativos fortes ajudam certamente a perceber a dimensão do que está em jogo. Apenas para darmos dois exemplos adicionais, o professor e estudioso da comunicação Eugenio Bucci adotou a expressão “monstros digitais” para se referir a tais agentes e em ação judicial movida nos Estados Unidos por diferentes Estados contra um específico player, dentre tantas outras, chegou-se a estabelecer um paralelo entre referido agente e o “mal” (“evil”), como se pode notar nas transcrições abaixo, que trazem estas outras metáforas:
“Em janeiro de 2020, uma informação correu o mundo, mas não chamou a atenção de quase ninguém: as empresas Apple, Amazon, Alphabet (dona da Google), Microsoft e Facebook tinham alcançado, juntas, o valor de mercado de cinco trilhões de dólares. Menos de seis meses depois, em junho do mesmo ano, a Apple sozinha valia 1,5 trilhão de dólares. Aí, sim, o tema ganhou destaque. (...) O capitalismo chegava, então, a um cenário insólito. Empresas jovens, com poucas décadas de existência, tinham alcançado um preço maior de que o PIB de qualquer país à exceção de China e Estados Unidos. E suas ações não paravam de crescer.”
“A agenda de restringir de alguma forma o poder monopolista do Facebook e das corporações digitais só pode ser liderada por economias centrais, como a dos Estados Unidos ou da União Europeia. Este livro não vai se ocupar da matéria regulatória, mas a simples visualização da discrepância, da monstruosa assimetria entre a onipotência exuberante dos monstros digitais, cujo alcance é global, e as restrições geográficas e jurídicas das legislações e regulações nacionais nos ajuda a aquilatar a magnitude do fenômeno. A disparidade é inaudita. As ‘gigantes da internet’ concentram mais poder de comunicação e mais controle sobre o fluxo da informação do que a imensa maioria dos Estados nacionais. Concentram um poderia econômico que inibe as pretensões de governantes de países médios. Têm mais força de mercado que as bancas do capital financeiro internacional. Estamos tratando de algo que nunca se viu”. (A Superindústria do Imaginário: como o capital transformou o olhar em trabalho e se apropriou de tudo que é visível. 1ª ed, 2021, Belo Horizonte: Autêntica, p. 19).
“2. The halcyon days of Google’s youth are a distant memory. Over twenty years ago, two college students founded a company that forever changed the way that people search the internet. Since then, Google has expanded its business far beyond search and dropped its famous “don’t be evil” motto. Its business practices reflect that change. Today, Google is a monopolist and engages in a wide variety of conduct that only a monopolist can accomplish. The Supreme Court has warned that there are such things as antitrust evils. This litigation will establish that Google is guilty of such antitrust evils, and it seeks to ensure that Google won’t be evil anymore.” (Civil Action No.: 1:21-md-03010-PKC – Third Amend Complaint).
Mudando de perspectiva, é importante resgatar que a ideia de “plataforma” aplicável a mercados em geral também se calca em toda uma teoria econômica desenvolvida para lidar com mercados que tipicamente conectam dois ou mais lados diferentes de “clientes” (cf. David Evans e Richard Schmalensee, Matchmakers: the new economics of multisided platforms), originalmente aplicável aos bailes ou clubes de encontro/namoro, que buscavam conectar parceiros, parceiras, aos veículos de mídia tradicional que conectam público ou audiência com anunciantes, aos cartões de crédito que conectam os usuários, titulares dos cartões, com os lojistas, comerciantes, prestadores de serviços e mais recentemente aos players digitais em geral que igualmente conectam distintos “públicos” ou “agentes”.
Dito tudo isso, o fato é que não há uma definição convergente ou unânime para “plataformas digitais”, mas em um esforço conceitual é possível propor que, em termos de regulação, plataformas digitais sejam definidas como agentes econômicos atuantes na internet que conectam ou propiciam a interação entre dois ou mais grupos de usuários, pessoas físicas e/ou jurídicas, apropriando-se em tal processo de dados, insumo valioso, fundamental e estratégico, com efeitos de rede diretos e indiretos, além de se monetizar por meio da veiculação de publicidade, comissões, bonificações, dentre outras formas de remuneração e modelos de negócios, ainda que aplicáveis a apenas parcela dos usuários ou um dos lados da plataforma, com eventual disponibilização de produtos e serviços gratuitos a outros grupos de usuários.
Este conceito ou definição parece simples e abrangente o suficiente para abarcar motores de busca, marketplaces, redes sociais, aplicativos (compartilhamento de vídeos, transporte, acomodação, locomoção/mapas, alimentação/delivery), navegadores/browsers, serviços de computação em nuvem, lojas de aplicativos e, em certa medida, softwares e sistemas operacionais.
Dito isso, importa observar que a necessidade de regular a atuação de plataformas digitais decorre do fato inequívoco de que, dentre a grande variedade de plataformas digitais e seus modelos de negócio, algumas plataformas (i) prestam serviços que se tornaram essenciais à sociedade e às atividades econômicas de diversos setores e (ii) ocupam uma posição dominante ou mesmo monopolista em seus respectivos segmentos.
Nesse ponto, é fundamental observar que, ainda que os mercados digitais sejam apontados como altamente dinâmicos, algumas plataformas atingiram posição consolidada dominante estável em suas operações, de forma que mesmo “novos” mercados relacionados à internet já nascem dependentes destas plataformas consolidadas. Note-se que, diferentemente de “praças públicas” (outra metáfora por vezes utilizada nos debates sobre as plataformas), as plataformas definitivamente já não são locais neutros a possibilitar uma interação livre entre seus frequentadores. As plataformas hoje interferem ativamente nestas interações, excluindo, impulsionando, recomendando conteúdos tendo como único objetivo o aumento do engajamento dos usuários e, consequentemente, a maximização dos seus lucros, sem contrabalançar ou considerar outros interesses sociais ou públicos – justamente porque lhes falta qualquer tipo de controle ou regulação. Daí a necessidade de uma regulação assimétrica voltada precipuamente a tais agentes.
- Bruno Ribeiro 15/07/2023 às 22:22Uma definição abrangente de plataformas digitais é a de sistemas online que facilitam a conexão entre usuários e a disponibilização de serviços, produtos ou informações. Essas plataformas podem abranger uma ampla variedade de setores, como comércio eletrônico, redes sociais, transporte compartilhado, streaming de conteúdo, entre outros. No contexto da necessidade de regulamentação de sua atuação, é importante considerar que as plataformas digitais têm um impacto significativo na economia, na sociedade e na vida das pessoas. Portanto, a definição de uma regulamentação adequada deve levar em conta os seguintes aspectos: Responsabilidade - As plataformas digitais devem ser responsáveis por suas práticas e conteúdos veiculados em suas plataformas. Isso inclui a moderação de conteúdo, proteção de dados dos usuários e ações para evitar a propagação de informações falsas ou prejudiciais. Proteção do consumidor - Os usuários das plataformas digitais devem estar protegidos contra práticas enganosas, fraudes, violações de privacidade e abusos. A regulamentação deve estabelecer diretrizes claras para a segurança do usuário, privacidade dos dados e formas adequadas de resolução de disputas. Transparência - As plataformas digitais devem ser transparentes em relação às suas práticas, termos de serviço, algoritmos de recomendação e políticas de moderação de conteúdo. A regulamentação pode exigir a divulgação de informações relevantes e garantir que os usuários tenham acesso a informações claras sobre como as plataformas operam. Responsabilidade social - As plataformas digitais têm um papel importante na sociedade e devem assumir responsabilidades sociais. Isso inclui promover a diversidade, a inclusão, a igualdade e o combate à desinformação, ao discurso de ódio e a outras formas de conteúdo prejudicial. É fundamental que a regulamentação das plataformas digitais seja cuidadosamente elaborada, levando em consideração a complexidade do ambiente digital, bem como os direitos e interesses de todos os envolvidos, incluindo usuários, empresas e a sociedade como um todo.
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:05Necessidade de regulação de serviços da sociedade da informação de provável acesso por crianças e adolescentes:
De modo a assegurar a utilização segura da Internet por crianças e adolescentes, é necessário que o conceito de plataformas, para fins de regulação, abranja todos os serviços da sociedade da informação cujo acesso por esses indivíduos seja provável. É essa a abordagem adotada, por exemplo, pelo Information Commissioner’s Office (ICO), autoridade inglesa de proteção de dados: em seu “Age-appropriate Design Code”, publicado em 2021, a autoridade esclarece que as medidas regulatórias ali previstas devem ser observadas por todas as empresas que ofereçam “serviços da sociedade da informação de provável acesso por crianças e adolescentes”. “Serviços da sociedade da informação” são definidos como “quaisquer serviços comerciais normalmente oferecidos à distância, por meios eletrônicos e por solicitação de um usuário”. O termo “de provável acesso” engloba não apenas os serviços direcionados a pessoas com menos de 18 anos, mas também aqueles que, independentemente da classificação etária, possam ser utilizados por esse público, levando em conta a natureza do serviço e as medidas adotadas ou não para controlar o acesso a ele. Como se vê, essa abordagem dá conta de diferentes tipos de plataformas, independentemente da sua quantidade de usuários, e alinha-se ao princípio da proteção integral de crianças e adolescentes em todos os espaços por eles efetivamente acessados.
A abordagem, ainda, tem a vantagem de garantir que mesmo plataformas não direcionadas a crianças e adolescentes, tais como sites com conteúdos pornográficos, adotem medidas no sentido de aplicarem medidas específicas que garantam a proteção contra acesso. Além disso, a abordagem garante que plataformas que possuam elementos que possam caracterizar o provável acesso de crianças e adolescentes devem tomar medidas para proteção por design de seus ambientes. Caso a plataforma julgue não ser de provável acesso, é importante a documentação dos motivos. Isso impede alegações da suficiência da restrição de idade nos Termos de Uso, enxergando a realidade material de acesso das plataformas por esse público. Jogos eletrônicos, hoje amplamente difundidos entre crianças e adolescentes, também estariam no escopo da regulação. Destaca-se, nesse ponto, que a pesquisa Panorama - Crianças e Smartphones no Brasil 2022, da Mobiletime e OpinionBox, apontou que jogos como Minecraft, Roblox, Fortnite e PkXD estão entre os aplicativos mais baixados por crianças no último ano. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 11:56A Câmara Brasileira da Economia Digital (Camara-e.net), na condição de principal entidade representativa multissetorial da internet no Brasil, composta por relevantes agentes da economia digital brasileira e mundial, vem, respeitosamente, apresentar suas contribuições à Consulta Pública acerca da “Regulação de Plataformas digitais”, conduzida por este Comitê Gestor da Internet no Brasil (CGI.br).
A Camara-e.net reconhece o mérito da consulta e agradece a oportunidade de discussão pública deste importante tema.
Ao considerar regulação sobre “plataformas digitais”, é fundamental ter em conta que os agentes alvo de tal regulação geralmente atuam em diversos setores da economia, operando tanto no meio físico como no digital. Tal regulação, portanto, terá efeitos desproporcionais de forma transversal em todos esses setores e limitará o desenvolvimento de soluções digitais inovadoras para os consumidores.
Não existe uma definição uniforme de “plataforma digital”. Embora diferentes jurisdições tenham discutido a “regulação de plataformas digitais”, as definições do que constitui uma plataforma digital variam, e são geralmente aplicadas de forma casuística. Por esse motivo, o termo “plataforma digital” pode assumir um significado no contexto, por exemplo, da regulação de telecomunicações, outro no contexto de discussões sobre privacidade e um terceiro se pensarmos em plataformas de intermediação de serviços. A ausência de uma definição uniforme de “plataforma digital” em nível global é uma fonte de riscos, especialmente considerando que o termo “plataforma digital” não é suficiente para designar um mercado formal ou sequer definir um grupo de mercados para efeitos de análise concorrencial, ao mesmo tempo em que se aplica a agentes com perfis diversos.
Diante desse panorama e na medida em que outras jurisdições têm adotado iniciativas análogas de regulação de “plataformas digitais”, é prudente avaliar o impacto de tal legislação/regulação antes de replicá-la no Brasil.
A Europa, por exemplo, adotou recentemente o Regulamento Mercados Digitais - DMA. Para além de preocupações e dificuldades enfrentadas na implementação de medidas de cumprimento deste regulamento, ainda não se sabe qual será o seu impacto no crescimento econômico, na inovação e nos investimentos naquela jurisdição. Agentes privados altamente competitivos e que atuam em benefício do consumidor deverão proceder com cautela ao considerar a sua entrada ou atuação em mercados europeus. Além disso, esses agentes terão de avaliar o valor a longo prazo do investimento nesses mercados, uma vez que o DMA desincentiva seu êxito.
À vista disso, é preferível que o Brasil primeiro identifique os problemas que procura resolver com a legislação e avalie o impacto do DMA, ou outros regulamentos internacionais, adotando o que funcionou em termos de estrutura regulatória e de monitoramento, e avaliando regulação de forma ponderada para o futuro, talvez elaborando propostas específicas para cada demanda que se pretende responder.
Além disso, é imperioso que se reconheça que não existem “mercados digitais” pela perspectiva concorrencial. Uma forma mais precisa de descrever os desenvolvimentos econômicos é a difusão de tecnologias “digitais” por toda a economia, em setores como publicidade, agricultura, automotivo, indústria e varejo. Empresas geralmente referidas como “big techs” podem ser mais bem descritas como pioneiras na adoção da tecnologia em setores muito distintos.
O tratamento diferenciado a agentes privados que adotaram tecnologias de forma mais abrangente que outras é ilógico e cria incentivos econômicos perversos. Esse tipo de abordagem penaliza a inovação, distorce a concorrência, protege incumbentes consolidados e, em última instância, prejudica os consumidores. Reguladores devem avaliar a dinâmica concorrencial em cada mercado relevante efetivo, e, não, segmentar ou aplicar regras distintas a determinados canais de distribuição dentro daquele mercado devido ao uso de determinada tecnologia. Alterações com escopo mal desenhado à política concorrencial podem desincentivar a inovação e o investimento no país.
Por exemplo, no varejo, os varejistas concorrem através de vários canais, como lojas físicas, lojas no modelo “compre online, retire na loja”, e marketplaces digitais. Cada um destes canais exerce uma pressão competitiva sobre os outros, uma vez que os consumidores utilizam vários canais para fazer compras, de acordo com a sua preferência. A regulação de “plataformas digitais” provavelmente prejudicaria a concorrência entre marketplaces digitais, concorrência essa que tem tido efeitos positivos substanciais para as pequenas e médias empresas e para os consumidores, resultando em melhor serviços aos clientes, com entregas rápidas e cômodas e soluções inovadoras.
Uma regulação de tal natureza levanta riscos de intervenção excessiva, uma vez que pode levar à diminuição da concorrência e dos investimentos em soluções altamente inovadoras em diferentes setores.
Por isso, tendo em vista a grande diversidade de negócios, os diferentes modelos e possibilidade de relacionamento com usuários, é essencial que o CGI busque compreender melhor as especificidades e variedades de plataformas e serviços digitais, a partir de uma ampla discussão com os representantes do setor. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 10:40CONCEITO DE PLATAFORMA DIGITAL: Plataformas digitais são (meta-)organizações mediadoras e facilitadoras de relações que geram valor ao reduzir custos de busca e custos de transação ao agregar e viabilizar transações entre dois ou mais grupos (também conhecidos como lados), aproveitando economias de escopo nas demandas dos diferentes lados das plataformas e promovendo externalidades de rede, inclusive pelo tratamento intensivo de dados.
ELEMENTOS ADICIONAIS
1. CENTRALIDADE DE DADOS: Em especial em plataformas gratuitas, a extração de valor dos usuários-consumidores é realizada através da coleta e tratamento massivo de dados para fins de marketing e publicidade direcionada.
2. A TIPOLOGIA É VARIÁVEL: Ainda se que se busque unificar o conceito, é importante considerar que sua tipologia de plataforma digital é variável a depender do objetivo da norma. É necessário, portanto, considerar as (1) especificidades de cada mercado em que atua e (2) cada tipo de regulação. Plataformas de trabalho e plataformas de mensageria impactam trabalhadores e usuários de formas muito diferentes, merecendo interpretação própria, por exemplo.
O PL 2630, em fase final de tramitação no Congresso Nacional, só abrange plataformas de redes sociais, serviços de mensageria e mecanismos de busca - enquanto o Digital Service Act (DSA) também abrange plataformas de comércio, por exemplo.
3. A ABRANGÊNCIA DE DEFINIÇÃO DE PLATAFORMAS DIGITAIS DEVE CONSIDERAR O ARCABOUÇO JURÍDICO BRASILEIRO: No Brasil, precisamos avançar na regulação e outros tipos de intermediários, sem prejuízo de aplicação do Código de Defesa do Consumidor (CDC), em se tratando de clara relação de consumo. Também é necessário avançar a regulação econômica de todo ecossistema digital, considerando aspectos como o combate a práticas anti-competitivas, proteção de dados pessoais e soberania digital.
Embora nem todas as plataformas sejam gratuitas, é importante considerar que a gratuidade do serviço prestado em plataformas digitais não afasta a existência da relação de consumo. Embora os consumidores não arquem diretamente com os custos na plataforma, a coleta e tratamento de seus dados pessoais representa ganhos financeiros para a empresa. Nesse sentido, a jurisprudência do e. Superior Tribunal de Justiça tem posicionamento firme de que se aplica o Código consumerista nas aplicações de internet independentemente de haver gratuidade na prestação dos serviços (REsp 1.444.008/RS).
Assim, a definição de plataformas digitais deve abranger e considerar o arcabouço da defesa de consumidores. - TelComp - Associação Brasileira das Prestadoras de Serviços de Telecomunicações Competitivas (comentário inserido por: Amanda de Fátima Ferreira) 14/07/2023 às 22:34A TelComp – Associação Brasileira das Prestadoras de Serviços de Telecomunicações Competitivas, pessoa jurídica de direito privado, representando suas associadas, todas operadoras de telecomunicações outorgadas pela Anatel, com atuação em todos os segmentos de mercado e em todo o país, apresenta suas considerações de caráter geral e principiológico a esta consulta pública realizada pelo CGI sobre tema - Regulação de Plataformas Digitais - extremamente atual e relevante para cada indivíduo em particular, as relações humanas e profissionais, os negócios e o própria inovação tecnológica que nos insere, cada vez mais, em um mundo conectado e digital que apresenta seus inegáveis benefícios, bem como requer atenção e atuação das autoridades competentes.
Diante do avanço da tecnologia que vem impulsionando a inserção de mais pessoas nestes ambientes, a ampliação das funcionalidades e aplicações, bem como o amadurecimento do ecossistema digital na sociedade brasileira – quem hoje em dia já não trocou um documento em papel por um documento digital, não faz uso de correio eletrônico ou de serviço de mensageria instantânea para se comunicar, utiliza o internet banking para evitar ir ao banco ou não usa o mecanismo de busca/pesquisa para encontrar mais rapidamente determinado produto ou serviço, dentre outros vários exemplos que poderiam ser aqui citados? – torna-se necessário aprofundar a reflexão sobre essa nova realidade. Quais são os agentes que estão inseridos nesta camada que se vale dos serviços de telecomunicações para ofertar produtos e serviços ao público em geral, quais são as regras aplicáveis diante de questões referentes à segurança digital, proteção de dados, abuso de poder econômico, direitos dos consumidores e tantas outras que estão sendo discutidas quando se cogita regular determinado mercado?
Ao se avaliar a estruturação da cadeia de valor da internet em camadas, resta perceptível que a infraestrutura e os serviços de telecomunicações suportam a camada de cima que se convencionou chamar de over the top – OTT, cujos produtos e serviços agregam novas funcionalidades aos usuários. E à semelhança do que ocorreu na camada de OTT, os serviços de telecomunicações também sofreram flagrante evolução ao longos dos últimos dez anos em razão do avanço da tecnologia através da implantação das redes de telecomunicações de fibra óptica por todo o país, inclusive em municípios menores e remotos, juntamente com expansão das redes móveis com tecnologia 4G e, no último ano, até mesmo com a novel tecnologia 5G que já se faz presente nas maiores cidades do país. O desenvolvimento e a expansão dessas redes de telecomunicações, além de atuar com ferramenta de inclusão para que mais usuários que possam estar conectados, também propicia condições para que os serviços e produtos da camada de cima – OTT se multipliquem e ofereçam cada vez mais aos seus consumidores brasileiros novas funcionalidades. Ou seja, a importância – e por que não a imprescindibilidade – das plataformas digitais é também consequência direta da abrangência geográfica e da atualidade tecnológica das redes de telecomunicações no país, assim como da condução de políticas públicas para o setor e das iniciativas empresariais e do empreendedorismo dos milhares de prestadores de telecomunicações que operam sob regulação setorial técnica, adequada e amadurecida da Anatel.
Dessa forma, a partir de uma percepção mais holística desse novo ecossistema, é possível constatar de forma objetiva a presença de uma multiplicidade de agentes, sendo quatro atores de grande destaque: (i) empresas de telecomunicações (que representam a camada de suporte, ou seja, a base para o mundo digital e já apresentam regulação específica), (ii) plataformas digitais/empresas de internet, (iii) empresas que se utilizam das plataformas digitais para transacionar seus produtos/serviços e consumidores, os quais, muitas vezes, possuem relações com os três agentes anteriores. Em alguns casos, a separação entre os serviços prestados por empresas de telecomunicações e um segmento de empresas de internet/plataformas digitais tem se tornado tênue e sutil, notadamente quando se trata da oferta de comunicação, o que acarretou, por praticamente a integralidade da população brasileira, a substituição do serviço de voz e mensageria tradicionais pelo uso, por exemplo, da funcionalidade de voz e mensagens de aplicativo OTT de mensageria instantânea. Analisando mais especificamente sob o prisma das telecomunicações, a partir da constatação desse simples e cotidiano exemplo, resta nítido que os consumidores brasileiros estão sim inseridos dentro uma nova realidade propiciada pelo inegável avanço da tecnologia, com novos agentes e que não são claras ou se sequer existem regras para disciplinar todas as nuances das relações que daí decorrem.
A situação apresentada não é a única, mas evidencia a necessidade de regulação dessa camada de cima que está suportada pela camada de telecomunicações. Há a real necessidade de aprofundar o debate – e, seguramente, de estabelecer regulação adequada – sobre estes agentes econômicos – como as empresas de internet com suas múltiplas plataformas de serviços que integram grandes conglomerados econômicos – determinando seu poder de mercado e identificando posição dominante, os riscos associados e abusos perpetrados ou potenciais contra fornecedores, demandantes de insumos e consumidores, além de identificar quais os serviços/produtos oferecidos aos consumidores brasileiros (e em que condições), como tais agentes tratam (ou deveriam tratar) os consumidores brasileiros, dentre outros. Uma referência para esta análise é o Digital Markets Act – DMA, REGULATION (EU) 2022/1925 .
Esse corriqueiro exemplo de uma funcionalidade - serviço de mensageria instantânea e chamadas de voz/vídeo utilizada praticamente pela integralidade da população brasileira - provida por plataforma digital inegavelmente demanda a intervenção regulatória, por conta de sua utilidade e indispensabilidade para os usuários, de maneira semelhante ao que ocorre para serviços de telecomunicações sobre informar a indisponibilidade do serviço, realizar chamadas para serviços públicos de emergência, dentre outras obrigações. Assim como neste caso, outros – menos triviais ou explícitos para o consumidor – suscitam questionamentos e, principalmente, avaliação adequada para o estabelecimento de balizas regulatórias: qual é a responsabilidade de tais agentes na cadeia de valor da internet, quais são os modelos de negócios por elas adotados – como se remuneram e se relacionam / selecionam / cobram os fornecedores e provedores de serviços que se utilizam de tais plataformas; quais são os mecanismos de incentivo a serem adotados para que tais agentes colaborem para a disseminação de crimes e propagação de discursos de ódio, etc. Note-se que essa lista de situações e preocupações a serem entendidas, definidas e, até mesmo, pacificadas é tão extensa que, ao final do dia, acaba por contribuir para constatação da necessidade de regulação desse novo ecossistema digital.
A partir desta premissa – da necessidade de um melhor entendimento dessa camada onde as empresas de internet atuam e de uma regulação que a abarque – faz-se necessário definir como, quando e quem regula.
Quem: resumidamente, sustenta-se no presente posicionamento que a Anatel seja legalmente escolhida como entidade do Estado Brasileiro para regular as plataformas de internet e que a sua abordagem seja norteada pela adoção de regras que: (i) assegurem o tratamento assimétrico entre os agentes econômicos; (ii) propiciem a utilização de ferramentas de regulação responsiva e seus incentivos; (iii) reduzam a assimetria de informação entre os agentes dessa camada; (iv) promovam a clareza das obrigações quanto ao acesso aos insumos, precificações e relacionamento com consumidor.
E por que a Anatel? Além de ser uma autarquia especial estruturada e criada por Lei, com autonomia administrativa e financeira com atuação em todo o território nacional, que conta um quadro técnico de profissionais capacitados e permanentemente atualizados os quais costumam ser cedidos para outros órgãos de Estado, possui trajetória de atuação institucional de mais de 25 anos. Adicionalmente, a Anatel é a entidade que vem acompanhando de perto a evolução da tecnologia e possui domínio de conhecimento acerca das camadas existentes na cadeia valor da internet, telecomunicações e infraestrutura de suporte, além de como, a partir dessa convivência, estão estabelecidas as relações entre esses diversos agentes econômicos. Além da inquestionável expertise na regulação da camada de telecomunicações que suporta a camada de cima dominada pelas empresas de internet, a Anatel já vem atuando de forma mais abrangente e consistente em temas que envolvem segurança, cibernética, pirataria, combate à realização de chamadas abusivas e disputas envolvendo provedores de serviços e prestadoras de telecomunicações. De forma complementar, além de tratar, no âmbito de suas competências, de aspectos concorrenciais, regula questões de natureza consumerista e técnicas das redes de telecomunicações que suportam as plataformas digitais/empresas de internet. Por fim, possui desenvolvidos formalmente e já estabelecidos de longa data relacionamentos com os demais órgãos de Estados, incluindo o CADE, Ministério da Justiça e Secretaria do Consumidor, entre outros.
Como? Através de uma abordagem de regulação light touch que, após o devido o entendimento desse novo mercado, de seus agentes econômicos, produtos / serviços, inclusive quanto ao grau de substitutibilidade entre esses e os produtos e serviços de telecomunicações, estabeleça regras de identificação e tratamento assimétrico entre os diversos agentes econômico que atuam nessa camada. Ainda, para evitar o argumento de que a regulação pode prejudicar a inovação e consequentemente o desenvolvimento de novos produtos e serviços, a abordagem precisa estar ancorada nos princípios e incentivos da fiscalização regulatória e não intrusiva no modelo de comando e controle. Adicionalmente, defende-se a necessidade de redução da assimetria de informação entre os agentes e o empoderamento dos consumidores através da criação de bancos de dados e informações públicas a serem divulgadas pelo Regulador. A exemplo da citada regulação europeia “DMA”, faz-se necessário – para o espectro mais amplo de plataformas digitais / empresas de internet – definir os gate keepers e os critérios para que sejam considerados como detentores de poder de mercado no respectivo segmento (como participação de market share, quantidade de usuários da plataforma ou receita econômica do grupo empresarial).
Quando? Agora. Como a tecnologia avança mais rápido que a criação das regras que vão disciplinar os produtos e serviços ofertados, é fato que os consumidores brasileiros já estão inseridos nesse novo ecossistema digital e práticas desleais precisam ser identificadas e coibidas no ambiente digital.
Por fim, torna-se relevante salientar que o exemplo colocado em foco no presente posicionamento – voz/mensageria tradicional x funcionalidade de voz/mensagens de um serviço de mensageria instantânea – ilustra bem a necessidade de o Regulador refletir como irá tratar a irreversível substituição ocorrida entre os dois serviços e como este ente deve assegurar direitos mínimos para os consumidores desse novo serviço, além de tratar as plataformas digitais/empresas de internet em seu universo de relações, mitigando o abuso de poder econômico e de condutas inadequadas perante os demais stakeholders e os usuários finais. - Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:05Segundo o entendimento do IRIS, as plataformas digitais são ferramentas, serviços e/ou aplicativos que funcionam por meio de tecnologias digitais fornecendo conteúdos e permitindo a interação e comunicação entre as pessoas usuárias; ademais, conectam os indivíduos, armazenando, disponibilizando, divulgando e transmitindo conteúdos virtuais. É importante que as plataformas digitais considerem, em sua atuação regulatória, a diversidade de tipos de serviços e modelos de negócios oferecidos pelos atores, como plataformas de redes sociais, comércio eletrônico, plataformas de notícias, mecanismos de busca, aplicativos de mensagem privada, entre outras. Ainda, as plataformas digitais podem ser entendidas como estruturas ou infraestruturas online que facilitam várias atividades, interações e transações entre diferentes grupos de usuários.
- Sarah Martins 14/07/2023 às 18:38A Brasscom, Associação das Empresas de Tecnologia da Informação e Comunicação e Tecnologias Digitais (TIC) e de Tecnologias Digitais, é uma entidade sem fins lucrativos de representatividade nacional que congrega algumas das mais dinâmicas e inovadoras empresas de TIC alinhadas com a Era Digital.
Gostaríamos de agradecer a oportunidade concedida pelo CGI de apresentar comentários à consulta pública sobre Regulação de Plataformas Digitais. Reconhecemos a abertura de espaço para o debate sobre o tema, a fim de organizá-lo de maneira mais estruturada, especialmente pelo fato do CGI se tratar de um órgão multissetorial, onde visões diferentes podem se complementar. No entanto, entendemos que se o Brasil optar por avançar com a regulação das plataformas digitais, essa iniciativa deve ser tomada pelo Congresso.
De qualquer maneira, como forma de contribuir com os debates, nosso objetivo é oferecer uma perspectiva crítica e construtiva, visando regras proporcionais e razoáveis aos objetivos almejados e que levem em conta princípios jurídicos aplicáveis. Neste sentido, gostaríamos de primeiramente compartilhar nossa preocupação quanto à premissa da qual parte toda a estrutura da consulta pública, isto é, de que existem apenas riscos associados às plataformas digitais (presente especialmente no bloco 2 - o que regular - que trata sobre riscos à concorrência, abuso de poder econômico, ameaças à soberania digital e ao trabalho decente, entre outros). Essa abordagem prejudica uma análise abrangente dos benefícios atrelados aos usos de plataformas digitais e do ecossistema digital como um todo e, consequentemente, dificulta a escolha de medidas proporcionais para endereçar os potenciais riscos envolvidos.
Neste documento, a Brasscom, identificando oportunidade para compartilhar o conhecimento de suas empresas associadas do setor tecnológico nacional e internacional, apresenta comentários gerais sobre as discussões relativas à então chamada regulação de plataformas, que atualmente acontecem em diversos âmbitos, bem como destaca os diversos benefícios sociais e econômicos atrelados ao ecossistema digital.
Via de regra, a regulação do ecossistema digital é desafiadora em virtude da sua natureza disruptiva e dinâmica, assim como a característica multifacetada e diversa de agentes. Portanto, a Brasscom gostaria de respeitosamente alertar que a questão da regulação de plataformas digitais não é binária, mas sim uma questão de escopo e calibração entre instrumentos de hard law, co-regulação e soft law, com o intuito de criar um ambiente habilitador para o desenvolvimento de novos modelos de negócio e uso dos mais variados serviços digitais, dispondo de segurança jurídica em prol da inovação, como aspecto fundamental para a existência de investimentos e expansão econômica. Precisamos de uma estrutura regulatória que possa se recalibrar dinamicamente com base nas melhores práticas em evolução, caso contrário, corremos o risco de sufocar desnecessariamente inovações benéficas.
Esses comentários são sintetizados por temas nas seguintes seções:
Em resposta ao Item 1, a Brasscom gostaria de apontar que não existe uma definição uniforme de “plataforma digital”. Embora diferentes jurisdições tenham discutido a “regulação de plataformas digitais”, as definições do que constitui uma plataforma digital variam, e são muitas vezes aplicadas de forma casuística. Por esse motivo, o termo “plataforma digital” pode assumir um significado no contexto da regulação de telecomunicações, e outro no contexto de discussões sobre privacidade. A ausência de uma definição uniforme de “plataforma digital” em nível global é uma fonte de riscos, e, ademais, o termo “plataforma digital” não é suficiente para designar um mercado formal ou sequer definir um grupo de mercados para efeitos de análise concorrencial.
Portanto, ao considerar regulação sobre “plataformas digitais”, é fundamental ter em conta que os agentes alvo de tal regulação geralmente atuam em diversos setores da economia, operando tanto no meio físico como no digital e oferecendo serviços de natureza completamente distinta. Tal regulação, se uniforme, portanto, terá efeitos desproporcionais de forma transversal em todos esses setores, na medida em que desconsidera as especificidades de cada serviço, e potencialmente limitará o desenvolvimento de novas soluções digitais inovadoras para os consumidores.
Por trás do termo comumente utilizado “plataformas digitais”, existe uma ampla gama de serviços digitais. Por exemplo, serviços de intermediação na internet, podem incluir redes sociais, aplicativos de mensageria privada, marketplaces, mecanismos de busca, jogos eletrônicos multiplayer online, serviços públicos, enciclopédias colaborativas, aplicativos de delivery, aplicativos de relacionamentos, sites de compartilhamento de vídeos, além de outros modelos de negócios já existentes ou que ainda podem se viabilizar.
Os serviços digitais podem diferir na dimensão da comunidade envolvida, público-alvo, modo de ingresso, setor abarcado, alcance geográfico, necessidade de maior ou menor tráfego de dados, bem como formas de oferta e de remuneração.
Considerando as diversas diferenças de serviços descritas acima, é importante que qualquer iniciativa de regulamentação não tente abarcar diferentes tipos de serviços digitais. Devemos recomendar que qualquer proposta de regulação seja precedida por estudos abrangentes para entender melhor a dinâmica do ecossistema digital. Ter uma maior visibilidade sobre aquilo que se pretende regular facilita o processo de identificação de medidas, regulatórias ou não, para endereçar questões de maneira proporcional, bem como a observância de dinâmicas concorrenciais.
Em outras palavras, compreender as diferenças entre os mais diversos tipos de serviços e interações em plataformas digitais é fundamental para entender a dinâmica do mercado, e enfrentar adequadamente quaisquer desafios. Como a definição de plataforma se refere a ampla gama de serviços digitais, os legisladores e formuladores de políticas públicas devem considerar as finalidades e características específicas das diferentes aplicações, o valor que criam, seu relacionamento com clientes e concorrentes, e possíveis abordagens alternativas, inclusive não-regulatórias.
Qualquer iniciativa voltada para o ambiente das plataformas digitais, de maneira genérica, deve se concentrar principalmente em garantir que os participantes do mercado, encontrem um ambiente que lhes permita ter sucesso, ao mesmo tempo em que se concentra na promoção do bem-estar do consumidor e no endereçamento de falhas de mercado inequivocamente identificadas. A proporcionalidade é fundamental para evitar consequências não intencionais ligadas ao excesso de obrigações regulatórias que desconsiderem as especificidades dos serviços.
Ressaltamos que, na medida em que outras jurisdições têm adotado iniciativas análogas de regulação de “plataformas digitais”, é prudente avaliar o impacto de tal legislação/regulação antes de adotá-la no Brasil. Um exemplo, é o recente Digital Markets Act - DMA, que ainda é objeto de discussões e implementação no mercado europeu, cuja vigência efetiva ocorreu somente em 3 de maio deste ano. Para além de preocupações e dificuldades enfrentadas na implementação de medidas de cumprimento desta lei, ainda não se sabe qual será o seu impacto no crescimento econômico, na inovação e no investimento no bloco europeu, já que entrou em plena vigência apenas em 3 de maio deste ano.
Portanto, seria preferível que o Brasil realizasse um efetivo benchmark de estudos prévios e avaliasse o efetivo impacto do DMA, internalizando o que funcionou ou não, em termos de estrutura regulatória e de monitoramento para então decidir por utilizar, ou não, esta referência regulatória. - Rafael Evangelista 14/07/2023 às 18:07A definição técnica mais consensual é a que está no artigo Platforms, da IPR, traduzido como "infraestruturas digitais (re)programáveis que facilitam e moldam interações personalizadas entre usuários finais e complementadores, organizadas por meio de coleta sistemática, processamento algorítmico, monetização e circulação de dados". Parece-me adequada. Penso que devemos trabalhar com uma definição ampla dado que as plataformas são caracterizadas por algumas funções principais que as unificam, ainda que se prestem a serviços/funçoes diferentes. São elas:
Coleta sistemática de dados: As plataformas coletam uma grande quantidade de dados dos usuários, incluindo informações pessoais, comportamentos online, preferências, interações e muito mais.
Processamento algorítmico: Os dados coletados são processados por algoritmos complexos que podem analisar, classificar e interpretar essas informações para uma variedade de propósitos.
Monetização de dados: As plataformas usam os dados coletados e processados para gerar receita. Isso pode ser feito de várias maneiras, como venda de anúncios direcionados, oferta de serviços premium, venda de dados para terceiros e muito mais.
Circulação de dados: Os dados não apenas permanecem dentro da plataforma, mas também são circulados. Isso pode envolver o compartilhamento de dados com outras plataformas, empresas ou indivíduos, ou a disponibilização de dados para os usuários de maneiras que incentivem a interação e o engajamento. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 15:44Consideramos que a melhor estratégia seria manter a classificação estabelecida no Marco Civil da Internet (MCI), que distingue os intermediários tecnológicos em provedores de conexão e aplicação. No entanto, diante do contexto atual, acreditamos que poderiam ser criados novos subtipos dentro da categoria de provedores de aplicação, estabelecendo exceções à regra geral do art. 19 do MCI.
As novas categorias deveriam ser definidas a partir de critérios gerais. Neste ponto, é importante considerar as características da atividade em si, abstraindo de seu conceito eventuais aspectos que personalizem a definição para um serviço ou produto específico oferecido por uma empresa.
De todo modo, o que se quer pontuar aqui é a necessidade de coerência terminológica. Partindo do pressuposto que o Direito funciona como um sistema integrando e lógico, a melhor técnica legislativa deve buscar evitar antinomias e lacunas, que podem gerar confusões sobre o alcance e a validade das normas utilizadas em outras legislações.
Além disso, é importante não estabelecer conceitos muito estanques, tendo em vista a dinâmica desses mercados. Conceitos fechados podem levar à obsolescência precipitada da nova legislação ou a necessidade de atualização constante. Conforme abordado no nosso Relatório Amostral (Norte-Sul Global) de Conceitos Relativos à Responsabilidade Civil de Intermediários na Internet – Vol. 2, a Austrália, por exemplo, possui um amplo arcabouço legal, com normas que foram se desenvolvendo de forma independente e com contextos históricos diversos, o que tornou o seu sistema legal confuso e, por vezes, antinômico, com normas cujo âmbito de aplicação podem criar situações de confronto direto ou indireto. A tentativa constante de conceituar os termos utilizados que foram aparecendo ao longo dos anos não parece levar mais coerência ao sistema legal australiano e a falta de uniformidade aumenta a insegurança jurídica e os riscos para os intermediários operarem no país. - CGEE/UNB (comentário inserido por: Jean Campos) 14/07/2023 às 13:26Plataformas digitais são ferramentas, serviços e/ou aplicativos que funcionam por meio de tecnologias digitais fornecendo conteúdos e permitindo a interação e comunicação entre as pessoas usuárias; ademais, conecta as pessoas, armazenando, disponibilizando, divulgando e transmitindo conteúdos virtuais.
- Tatiana Dourado 14/07/2023 às 12:13O termo plataformas digitais tem sentido mais amplo para designar conjunto heterogêneo de provedores de conteúdo e de aplicação que conectam diferentes tipos de partes - como usuários comuns, anunciantes e desenvolvedores -, com a potencial de concentração e interoperabilidade de dados e capacidade de moldar o discurso público.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 12/07/2023 às 19:28Plataformas digitais são todas as ferramentas e suportes oferecidos de maneira gratuita ou não, que são usados para criar redes de duas ou mais pessoas ou comunidades para as mais diversas ações e atividades que as envolvam.
- Ricardo de Holanda Melo Montenegro 12/07/2023 às 09:21As Plataformas Digitais ou Big Techs podem ser definidas como empresas de tecnologia da informação e comunicação (TIC), configuradas como grandes conglomerados econômicos, que executam e prestam serviços digitais a diversos segmentos da economia de um país, incluindo comunicação social, além de conectar produção a consumidores.
- Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 16:11As plataformas digitais são sistemas tecnológicos que funcionam como mediadores ativos de interações, comunicações e transações entre indivíduos e organizações operando sobre uma base tecnológica digital conectada, especialmente no âmbito da Internet, provendo serviços calcados nessas conexões, fortemente lastreados na coleta e processamento de dados e marcados por efeitos de rede.
- CCOM- UnB (comentário inserido por: Murilo César Ramos) 11/07/2023 às 09:44Plataforma tem um viés semântico que, do meu ponto de vista, distorce a discussão já em seu início, por ser um termo que denota neutralidade; e é assim, a partir desse artifício semântico, que as empresas de internet, como prefiro chamá-las, tem construído sua estratégia de desresponsabilização sobre os efeitos dos produtos e serviços que fornecem. Por isso, conceituá-las como empresas de internet - porque não existem fora dela - me parece essencial, por deixar inequívoca a sua essência comercial, moldada por seus próprios interesses, e não os interesses da sociedade ao lado. Mais além, essas mesmas empresas de internet apreciam também se auto-denominar 'empresas de tecnologia', outro artifício linguístico, que descaracteriza a sua essência, como se o que entregassem à sociedade fosse apenas ferramentas tecnológicas, que seriam neutras (sic) por definição. Os léxicos são importantes instrumentos de poder, dos tecnológicos propriamente ditos, aos econômicos e, no caso, com muita ênfase, os jurídicos. Desvendá-los adequadamente é fundamental para se chegar às definições mais precisas.Lucas Oliveira 11/07/2023 às 13:54A Tramontina deveria ser responsabilizada se alguém usasse uma faca fabricada por eles para cometer um homicídio? A Ford deveria ser responsabilizada se um motorista dirigir alcoolizado e provocar um acidente com fatalidades?
- Celso Santos 10/07/2023 às 17:47Depende de quem olha ....eu vejo como uma ferramenta que pode ser útil para o bem ou mal , depende de quem usa..
- Miguel Said Vieira 10/07/2023 às 16:32Proponho uma definição baseada na de Nick Srnicek (no livro Platform capitalism): infraestruturas digitais que permitem a interação entre um ou mais grupos (sejam eles de usuários, fornecedores, trabalhadores, objetos etc.).
- Paulo Rená Da Silva Santarém 11/07/2023 às 05:44E o que é uma infraestrutura digital? Um celular é uma infraestrutura digital? Um fibra ótica, O serviço pix, a maquininha de pagamentos via cartão de crédito, a rede GPS seriam?
Rafael Evangelista 14/07/2023 às 18:18Eu sugeriria a tipologia de plataformas como expressa pelo Nick Srnicek. É bem abrangente e toca vários os setores da economia que, embora diferentes, operam sob uma lógica de extração de exploração dos dados muito semelhante:
Plataformas de Publicidade: São plataformas que obtêm lucros pela captura e armazenagem de dados dos usuários para exibição de anúncios relacionados. Exemplos incluem Google e Facebook.
Plataformas de Nuvem: São empresas que construíram enormes parques computacionais para suas próprias operações, mas que posteriormente oferecem essa infraestrutura como serviços a outras companhias. Exemplos incluem Amazon, Google e Microsoft.
Plataformas de Produtos: Estas se especializam no aluguel de mercadorias, que podem ser físicas, como carros, ou informacionais, como músicas, filmes etc. Um exemplo é a Rolls Royce, que cobra pelo aluguel de propulsores conforme as horas de uso.
Plataformas Enxutas (Lean Platforms): São plataformas que não possuem propriedade sobre o produto ou serviço oferecido. Exemplos incluem Uber, que é a maior companhia de táxis do mundo, mas não possui nenhum carro, e AirBnB, que não é dono de nenhum quarto de hotel.
Plataformas Industriais: Estas plataformas são as que apresentam a melhor possibilidade de expansão futura, dadas as expectativas de desenvolvimento tecnológico da chamada Internet das Coisas. Elas incorporam o que na Alemanha vem sendo chamado de “Indústria 4.0”, um processo de interligação informacional de cada um dos componentes envolvidos no processo industrial, sem a interferência de operários ou gerentes, alcançando-se assim uma redução ótima de custos de trabalho e produção.Rafael Evangelista 14/07/2023 às 18:21sim, todos esses riscos devem ser consideradosRafael Evangelista 14/07/2023 às 18:24Sim, a concentração dados dos usuários permite abuso de poder econômico. Sugiro que os dados relativos a cada tipo de negócio, serviço ou plataforma sejam isolados. Não pode ser permitido às companhias que usem dados de um serviço em benefício de outroRafael Evangelista 14/07/2023 às 18:27Sim, os serviços e negócios precisam ser diferenciados e isolados, de forma a impedir o uso do poder de uma empresa para alavancar vários outros negócios. As empresas precisam ser "quebradas" de acordo com os diferentes serviços que prestamRafael Evangelista 14/07/2023 às 18:30Sim, devem existir medidas que permitam e incentivem a co-existência de serviços de múltiplos modelos de negócio e mesmo de serviços colaborativos e sem fim de lucro. Se entendidos como importantes para a sociedade e para a diversidade tecno-cultural, essas plataformas sem fim de lucro devem ser apoiadas por políticas públicasRafael Evangelista 14/07/2023 às 18:32Sim, a concentração de mercado em geral implica numa queda da qualidade dos serviços, com desproporcional aumento na lucratividadeRafael Evangelista 14/07/2023 às 18:33Sim, é preciso impedir que a mesma empresa atue nas duas pontas da publicidade (criação de anúncios a partir de dados e venda de espaços a anunciantes)Rafael Evangelista 14/07/2023 às 18:43A opacidade dos modelos de negócio das plataformas (e de seus ganhos por atividade específica) impede que haja um sistema de tributação adequado que também sirva para reparar as externalidades negativas de cada operação . É preciso mais transparência sobre como as plataformas lucram (e quanto)Rafael Evangelista 14/07/2023 às 18:45Os dados (e conteúdos) produzidos por usuários das plataformas precisam ser obrigatoriamente interoperáveis com o restante da web, a não ser que um contrato comercial de produção de conteúdo seja estabelecido entre a plataforma e o criador. Os usuários devem ter também o direito a exportarem todos os seus dados para armazenamento localRafael Evangelista 14/07/2023 às 18:46empresas pertencentes ao mesmo grupo não devem compartilhar dados de seus usuários indiscriminadamente, a não ser com autorização expressa deles e sem que esteja em jogo a capacidade de continuar usando ou não o serviçoRafael Evangelista 14/07/2023 às 18:47Sim, com todosRafael Evangelista 14/07/2023 às 18:48Sim, o Estado deve manter controle (no sentido de capacidade de supervisão, conhecimento detalhado do funcionamento e acesso total aos dados) de todas as tecnologias que utiliza. Entre os exemplos citados adicionaria o campo da saúde. O Estado deve não somente ter acesso a dados para formular políticas como deve utilizar-se de tecnologias livres e abertas que permitam a seus quadros estudar melhor o funcionamento da plataformaRafael Evangelista 14/07/2023 às 18:50O Estado deve demandar que dados pessoais e sensíveis de cidadãos brasileiros estejam localizados em território nacional. O fluxo de dados, quando existente, deve ser para operações que estejam de acordo com a legislação brasileira. As discussões europeias são um exemplo nesse sentidoRafael Evangelista 14/07/2023 às 18:53Em comunicações estratégicas e oficiais, o Estado deve fazer uso apenas de tecnologias sobre as quais tenha pleno domínio e garantia de segredo das comunicações, incluindo hardware e software.
Ja a atuação de empresas internacionais na intermediação de discussões públicas dos brasileiros, esta deve ser supervisionada pelo Estado, a partir de medidas de transparência das empresas internacionais, de modo a garantir que não esteja acontecendo manipulação indevida do debate públicoRafael Evangelista 14/07/2023 às 18:58Riscos à tecnodiversidade pela ação dominante das Big Techs. O desenvolvimento tecnológico também guarda traços culturais. Diferentes povos e culturas desenvolvem tecnologias com propósitos distintos, os mais adequados aos seus contextos e história. A ação poderosa de grandes empresas em diversos mercados, por vezes tem força homogeneizadora que deve ser combatidaRafael Evangelista 14/07/2023 às 18:59Sim, concordo totalmente, com critérios sendo definidos pela sociedade - Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:11Em linha com relatório do Departamento de Estudos Econômicos do Conselho Administrativo de Defesa Econômica (“Cade”), plataformas digitais podem ser entendidas como intermediários que conectam dois ou mais grupos de usuários, beneficiando-se no processo de efeitos de rede diretos e indiretos (Concorrência em mercados digitais: uma revisão dos relatórios especializados, 2020, p. 12). Apesar da definição razoavelmente simples, é importante destacar que delimitar o que são plataformas digitais não é tarefa trivial: o relatório supramencionado, que analisou mais de duas dezenas de publicações, concluiu não haver convergência para uma definição precisa acerca do termo.
Parte da dificuldade em delimitar adequadamente o que são plataformas digitais decorre da multitude de modelos de negócio que são genericamente abarcados na noção de plataformas digitais. O ecossistema digital é marcado por uma enorme variedade de atores, o que complexifica essa tarefa de delimitação conceitual. Tal ponto já foi recentemente destacado pela ABRANET no contexto da Audiência Pública realizada no Supremo Tribunal Federal, em fins de março deste ano, para debater o artigo 19 do Marco Civil da Internet (Lei 12.965/2014). Na ocasião, o representante da Associação corretamente pontuou que a internet brasileira não é composta apenas por Bigs Techs, ressaltando que a concepção regulatória que venha a ser aplicada ao ecossistema digital tem que se atentar a este fato, reconhecendo a multiplicidade de atores que operam em suas dimensões – desde, de fato, grandes empresas de tecnologia, passando por pequenos e médios provedores de acesso, provedores de conteúdo, marketplaces, startups, até sites de reclamação de consumidores e grandes enciclopédias online.
O posicionamento da ABRANET se mantém quanto à importância desse olhar atento quando se pensa em regulação de internet. Exatamente por isso, a Associação entende que a definição de plataformas digitais é pouco produtiva para fins de esforço regulatório, sendo certo que a abordagem mais adequada para regular plataformas digitais se assenta no reconhecimento dessa pluralidade de atores que marca o ecossistema digital, pelo que utiliza a técnica de regulação assimétrica. Nesse sentido, apenas um determinado subgrupo de atores no ecossistema digital deve se submeter a uma incidência particular de disposições regulatórias, em razão de suas possibilidades de exercício de poder de mercado. Tais atores são aqueles que detém controle essencial de acesso. Por sua vez, outros atores não ofertam risco relevante e não devem estar sujeitos a essa regulação específica, em prol da proporcionalidade, equidade e promoção da inovação.
A proposta de regulação assimétrica ora defendida pela ABRANET, que focaliza apenas nestes atores com controle essencial de acesso como objeto de atenção regulatória, está em sintonia com iniciativas internacionais de regulação nesta seara. A exemplo, o Digital Markets Act (“DMA”), aprovado pela União Europeia em 2022, volta sua atenção não a todas as plataformas digitais que povoam o ecossistema digital, mas apenas àquelas que se qualificam como gatekeepers, vistas como um pequeno grupo de grandes empresas que oferecem serviços centrais de plataforma, detentoras de considerável poder econômico. Na mesma linha, o Digital Services Act (“DSA”), também da União Europeia e aprovado no mesmo contexto, igualmente implementa um modelo de regulação assimétrica, prevendo obrigações de acordo com o tipo de atuação, tamanho e impacto dos diferentes agentes de mercado no ecossistema digital; o centro das atenções recai, contudo, nos agentes de maiores proporções, classificados como “plataformas digitais muito grandes” (“very large online platforms”). Por fim, nos esforços do Reino Unido para disciplinar a atuação dos mercados digitais, a autoridade regulatória que vem sendo estruturada – a Digital Markets Unit (“DMU”) – é modelada para ter uma atuação pontual relativamente ao ecossistema digital, incidindo apenas sobre as empresas que possuem condição estratégica de mercado (“strategic market status”), o que envolve, dentre outros critérios, poder de mercado substancial e duradouro e posição de importância estratégica. Uma característica em comum destas iniciativas de regulação das plataformas digitais está, portanto, não apenas no modelo de regulação assimétrica em si, mas também na concentração dos novos compromissos regulatórios em alguns agentes de mercado, aqueles com controle essencial de acesso.
Na realidade brasileira, o Projeto de Lei 2.630/2020 também segmenta suas obrigações apenas a grandes agentes de mercado do ecossistema digital. Conforme redação atual de seu provável artigo 2º, a futura Lei será aplicável apenas a provedores que ofertem determinados serviços ao público brasileiro, para além de necessitarem ter elevado número médio de usuários mensais no país, o que direciona o escopo de aplicação da Lei apenas para grandes agentes de mercado. Neste sentido, a proposta da ABRANET está em linha com diversas outras iniciativas regulatórias, de cunho tanto nacional quanto internacional.
Identificado o ator que efetivamente demanda um esforço regulatório para que sejam evitados efeitos deletérios ao funcionamento dos mercados digitais, cabe estabelecer os critérios por meio dos quais este ator poderia ser identificado.
No melhor entender da ABRANET, critérios que podem ser considerados nesse processo são:
(i) a oferta de um serviço essencial de plataforma, identificado em rol taxativo. A referência aqui é o Digital Markets Act europeu, que associa os gatekeepers à oferta de algum tipo de “core platform service”, objeto de especificação em rol pormenorizado. Estratégia similar – e que pode ser tomada de referência para a presente regulação ora em debate – é empregada no PL 2.630/2020, que identifica como serviços de particular importância as: a) redes sociais; b) as ferramentas de busca; e c) os serviços de mensageria instantânea. No Brasil, entende-se que o rol acima proposto já seria suficiente, por serem estratégicos e essenciais para comunicação e pesquisa pelos brasileiros.
O referido PL também apresenta definições instrutivas para estes termos, as quais podem ser aqui replicadas. Deste modo, fornecem o importante ponto de referência que toda boa regulação deve buscar, no sentido de definições claras e estritas, para delimitar suas hipóteses de incidência. Nesse sentido, “rede social” pode ser definida como: “aplicação de internet cuja principal finalidade seja o compartilhamento e a disseminação, pelos usuários, de criação, opiniões e informações, veiculados por textos ou arquivos de imagens, sonoros ou audiovisuais, em uma única plataforma, por meio de contas conectadas ou acessíveis de forma articulada, permitida a conexão entre usuários”. Por sua vez, “ferramenta de busca” deve ser entendida como “aplicação de internet que permite a busca por palavras-chave de conteúdos elaborados por terceiros e disponíveis na internet, agrupando, organizando e ordenando os resultados mediante critérios de relevância escolhidos pela plataforma, independentemente da criação de contas, perfis de usuários ou qualquer outro registro individual, incluído indexador de conteúdo e excetuadas aquelas que se destinem exclusivamente a funcionalidades de comércio eletrônico”. Por fim, “mensageria instantânea” é termo empregado no sentido de “aplicação de internet cuja principal finalidade seja o envio de mensagens instantâneas para destinatários certos e determinados, incluindo a oferta ou venda de produtos ou serviços e aquelas protegidas por criptografia de ponta-a-ponta, com exceção dos serviços de correio eletrônico”.
(ii) a volumetria de usuários, considerando tanto usuários finais quanto usuários profissionais, em número absoluto ou relativo, em percentual proporcional à população brasileira atualizada, nos últimos três exercícios financeiros. Usuários profissionais são as pessoas físicas ou jurídicas que utilizam da respectiva plataforma para finalidades comerciais ou profissionais, com o propósito prover bens e/ou serviços a usuários finais - por exemplo, um varejista que tem uma conta Business para se comunicar com seus clientes. Por sua vez, os usuários finais são definidos de forma residual, como aqueles que não se enquadram enquanto usuários profissionais; são todos os demais casos de uso. A segmentação quanto ao tipo de usuário é importante para evidenciar aqueles que empregam a plataforma para fins de condução de atividades econômicas com usuários finais, tornando evidente a relevância da respectiva plataforma sobre demais agentes econômicos, efetivamente modelando seu acesso às oportunidades de mercado trazidas pela economia digital. Na compreensão da Associação, tais balizas devem ser definidas em número médio de: a) mais de quarenta e cinco milhões de usuários finais e de b) mais de vinte milhões de usuários profissionais, cumulativamente, nos últimos três exercícios financeiros. Alternativamente, 20% da população localizada no país, para usuários finais, conforme indicadores nacionais oficiais, e 10% da população localizada no país para usuários profissionais, conforme indicadores nacionais oficiais, nos últimos três exercícios financeiros.
(iii) posição de dominância de mercado, a qual efetivamente manifesta o controle essencial que estes agentes detêm. Dada a natureza dinâmica dos mercados digitais e o intenso fluxo de inovações a que estes agentes estão propensos, a ABRANET entende que as presunções do Cade relativamente à configuração de posição dominante são por demais conservadoras para serem aplicadas aos mercados digitais, não refletindo a contestabilidade desses mercados ao longo do tempo. Em verdade, a própria Organização para a Cooperação e Desenvolvimento Econômico (“OCDE”), comentando a legislação concorrencial brasileira, já apontou que o patamar em vigor no país para presumir posição dominante é baixo (OCDE. Revisões por Pares da OCDE sobre Legislação e Política da Concorrência: Brasil, 2019, p. 83). Em complemento a esse diagnóstico mais geral da OCDE, Na na visão da Associação, os padrões de dominância de mercado relativamente à economia digital não seriam ainda cristalizados com a mesma facilidade que se verifica nos demais setores econômicos, pelo que porcentagens de mercado mais elevadas poderiam se apresentar sem que a respectiva empresa pudesse exercer as prerrogativas de sua pretensa posição dominante. Nesse sentido, a ABRANET entende que uma posição de dominância nos mercados digitais seria melhor presumida pela detenção de, no mínimo, mais de 50% do respectivo mercado relevante.
Cabe observar que outras autoridades da concorrência mundo afora de fato presumem posição dominante de forma geral a partir de patamares mais elevados de participação de mercado do que aqueles considerados pelo Cade, em linha com o que aqui se sugere especificamente para mercados digitais. Nesse sentido, em documento de trabalho elaborado pelo Departamento de Estudos Econômicos do Cade, consta que, dentre outros, Coreia do Sul, Indonésia, União Europeia e Israel presumem posição dominante a partir de 50% de market share, sendo válido destacar que Singapura considera patamar ainda mais elevado, da ordem de 60% de participação de mercado, para a referida presunção (The problematic binary approach to the concept of dominance, 2021, p. 8). Portanto, a sugestão ora apresentada pela ABRANET está em sintonia com a prática mais geral de outras jurisdições - sendo certo que ainda existem as particularidades dos mercados digitais, acima expostas, a influenciar em favor desse entendimento atualizado sobre presunção de posição dominante, que faz uso de percentual mais elevado de market share para tanto.
Além disso, dado o caráter dinâmico dos mercados digitais, tal parcela de market share precisaria se apresentar por pelo menos os últimos três exercícios financeiros, de forma a mostrar que o estado de dominância do mercado em questão é minimamente estável pela respectiva plataforma.
(iv) alguns tipos de serviço, por não representarem risco aos usuários, poderiam excepcionar o enquadramento da respectiva plataforma enquanto detentora de controle essencial de acesso, na situação de serem tais tipos de serviço a atividade primordial da respectiva plataforma. Tal proposta está em sintonia com a atual redação do PL 2.630/2020, que lista como exceções de enquadramento para fins de regulação os provedores cuja atividade primordial seja a) o comércio eletrônico; b) a realização de reuniões fechadas por vídeo ou voz; c) enciclopédias online sem fins lucrativos; d) repositórios científicos e educativos; e) plataformas de desenvolvimento e compartilhamento de software de código aberto; f) a busca e disponibilização de dados obtidos do poder público; e g) plataformas de jogos e apostas online. Sugere-se, ainda, como exceção, as plataformas financeiras ou de pagamentos, na medida em que já estão sujeitas à regulação setorial.
Estes são os critérios entendidos pela ABRANET como pertinentes para fins de estabelecimento de uma regulação sobre as plataformas digitais: antes de tudo, uma regulação assimétrica, incidente apenas sobre determinadas empresas – i.e, aquelas detentoras de controle essencial de acesso. Estruturando o conceito estão três dimensões: (i) a oferta de um serviço essencial de plataforma, previsto em rol taxativo; (ii) o preenchimento de critérios de volumetria de usuários finais e profissionais, em números absolutos ou proporcionais à população localizada no país, por pelo menos os últimos três exercícios financeiros; e (iii) a detenção de posição dominante no mercado, também por pelo menos os últimos três exercícios financeiros.
Cabe destacar que critérios objetivos são preferíveis e informam a definição das dimensões estruturantes do conceito, diante da clareza com que o preenchimento dessas condições pode ser aferido – o que age em benefício tanto do regulador quanto dos agentes de mercado do ecossistema digital. - Jackson Ezidio de Deus 06/07/2023 às 15:27Não vejo razão para encontrar uma definição para algo que não deva ser regulado, já que é simplesmente uma extensão em modelo digital do que já vivemos fisicamente e o ordenamento jurídico já possui mecanismos para práticas abusivas.
- Alex Camacho Castilho 06/07/2023 às 13:20Plataformas digitais são "espaços virtuais que fornecem infraestrutura e serviços para facilitar a interação, compartilhamento de informações e participação ativa dos usuários na era digital". Elas abrangem uma ampla variedade de serviços, como redes sociais, comércio eletrônico, aplicativos de transporte e entrega, sites de compartilhamento de conteúdo, entre outros.
No entanto, a atuação dessas plataformas não deve ser completamente autônoma e desregulada. A regulamentação se torna necessária para garantir a proteção dos direitos dos usuários, promover a equidade, combater a concentração de poder e evitar abusos por parte das empresas que controlam essas plataformas. - Jose Geraldo Leite Coura 06/07/2023 às 12:32Plataformas digitais são aquelas que oferecem serviços a determinado público que está cadastrado na mesma, esse público oferece conteúdo para que a plataforma distribua esses conteúdos para os todos da mesma plataforma e organiza para esse público receba ofertas e comunicados conforme seu modelo de negócios
- Welinton Baxto 06/07/2023 às 12:02Quando o assunto é classificar estamos querendo categorizar. Assim, deve-se tecer até a profundidade miníma daquela estrutura, por exemplo, determinar e categorizar a macroestrutura a microestrutura. Neste contexto, quem são os provedores e usuários.
- Casa de Cultura Tainã / Rede Mocambos (comentário inserido por: Vincenzo Tozzi\) 06/07/2023 às 08:57Qualquer sistema de grande porte que mantém o controle interno dos usuários e dos dados, em vez de definir protocolos standard e abertos.
- EVANDRO ALVES PEREIRA 06/07/2023 às 08:04No meu entendimento, plataforma digital é um termo genérico que pode englobar um espectro muito grande de softwares e sistemas de comunicação. E como o objetivo desta discussão é debater a regulação de um objeto através de ato legislativo, é de sumária importância que a definição do objeto ou dos objetos sejam tão específicas quanto possível, vedando-se qualquer generalização em quaisquer níveis do texto.
- Felipe Braga 05/07/2023 às 21:20Há uma tendência de chamar tudo de "rede social" hoje: evitem usar este termo na definição
- Patricia Broilo 05/07/2023 às 15:35Concordo.
- Marco Túlio Manso Vieira 05/07/2023 às 10:08Plataformas digitais, são o novo espaço público para troca de informações e opiniões, NÃO deve ser regulada neste sentido, impedir a livre expressão do cidadão, antes mesmo dele expor sua opinião é CENSURA. Coisa digna das piores DITADURAS. Já existem leis que protegem o cidadão em caso de abusos, que devem ser buscadas pelos eventuais "Ofendidos".
- NS INFORMÁTICA (comentário inserido por: Francisco Sales Oliveira Neto) 03/07/2023 às 19:55Seria bom que utilizássemos métricas de capacidade de engajamento, de modo que as plataformas fossem classificadas e reguladas de acordo com sua capacidade de mobilização ou "atingimento" de pessoas.
- CEIIAS, Centro de Estudos Integrados, Infancia, Adolescencia e Saude (comentário inserido por: Evelyn Eisenstein) 03/07/2023 às 16:18Todas as plataformas digitais e todos os aplicativos aos quais crianças e adolescentes até a idade de 18 anos tem acesso no Brasil/ Jogos online já têm uma Classificação Indicativa e passam por "fiscalização" e critérios do Min da Justiça
- Jose Geraldo Leite Coura 28/06/2023 às 20:26O ideal é separar as plataformas como acontece a sociedade, empresas que buscam lucros pelo tamanho, organizações da sociedade civil, organizações públicas. Cada uma com suas regras e tratamentos conforme o tamanhoWelinton Baxto 06/07/2023 às 12:04Caro Jose Geraldo Leite Coura, Este é um caminho para classificar, complementarmente com outras categorias!!Felipe Braga 05/07/2023 às 21:23boa: a regulação deve ser diferente pra cada situação (e, talvez, pelo local de hospedagem também: por exemplo, uma organização pública que usa "nuvem" no exterior deve ser tratada diferente de outra que use "nuvem" hospedada em território nacional)Welinton Baxto 06/07/2023 às 12:06Tipo de distribuição de conteúdo
- DAVID TELES 26/06/2023 às 23:26Plataformas Digitais podem ser definidas como espaços virtuais em que hajam interações, individuais ou em grupo, independente da finalidade e tamanho da base de usuários e volume de operações.Felipe Braga 05/07/2023 às 21:25Acho essa definição muito vaga: qualquer coisa dá pra encaixar aí...
- Fernando Gentil 22/06/2023 às 15:25[SUGESTÃO ENVIADA PELA REDE NARRATIVAS] Considerar as diversas possibilidades de plataformas digitais e seus impactos (ex. jogos, plataformas de aluguel, sites pornográficos, lojas de app, etc)
- Guilherme Marques Ferri 22/06/2023 às 13:45Ambiente democrático de interação social via instrumentos digitais, nos quais, abrangem amplo espectro de fronteiras - essas inexistentes neste mundo -, todavia, não o torna sem leis, muito menos palco de atos tidos como ilegais na legislação Brasileira.
- Guilherme Alves 21/06/2023 às 13:09Provedores de aplicação de Internet (nos termos do Marco Civil), que disponibilizam conteúdo gerado por terceiros.
- Antônio José Abrantes Chaves 20/06/2023 às 17:15Creio que plataforma digital seja qualquer plataforma utilizada por pessoa física ou jurídica para compartilhar informação ou realizar negócio (de comércio, varejo ou serviço) com outra(s) pessoa(s) física e jurídica.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 13:37Uma plataforma digital pode ser definida como um meio de comunicação e divulgação de informações, que por seu lado comercial fica entre empresas que querem divulgar produtos e pessoas que querem comprar os produtos. As plataformas ainda possibilitam a interação entre estas partes de forma que o marketing seja exponencial e atinja um número ilimitado de pessoas, interesses e diversidade. No prisma da divulgação permite que diferentes interesses sejam conectados, influenciadores e produtos, clientes e empresas, pessoas e famílias, notícias e informação, entretenimento e diversas outras possibilidades de cruzamentos.
- Roberto Cardoso Freire da Silva 20/06/2023 às 12:01Conjunto de sistemas e seus algoritmos, que fazendo uso de recursos de Inteligência Artificial (AI) são capazes de aprender com os dados que produzimos e orientar/direcionar nossas ações, no sentido de atender os objetivos mercadológicos das grandes empresas de tecnologia. Estes recursos sofrem interferência das visões de mundo de seus projetistas e das decisões políticas por estes adotadas.
- Jose Vieira 19/06/2023 às 13:39São os meios de comunicação que se utilizam de recursos digitais (internet) para o compartilhamento de informações
- Universidade de São Paulo (comentário inserido por: Roseli Figaro) 18/06/2023 às 15:57As plataformas são empresas que usam a tecnologia de internet para conectar suas aplicações de interface e estruturar negócios específicos. São uma nova modalidade de empresa, porque usam a ambiência da internet como teia, ou seja, oportunizam acesso a bens e serviços de forma dispersiva e recolhem, negociam e controlam dados. Os dados são um fundamento estrutural da lógica de funcionamento dessas novas empresas.
- Aline Souza 13/06/2023 às 09:55Plataforma digital é bem mais que rede social. Elas são sim responsáveis pelos conteúdos que permitem a publicação e circulação. Não podem se eximir dessa responsabilidade. A melhor forma de regulação deverá compor um comitê regional latino composto por governos, sociedade civil organizada e representantes das empresas bigtechs em prol de uma ampla regulação contra discursos de ódio e abusos proferidos aos direitos humanos e minorias políticas. Não podemos defender a autoregulação a cargo apenas das plataformas. E nem incumbir no Brasil que esse orgão seja a Anatel por exemplo. Esse comitê misto precisa ser integrado aos demais comitês globais de regulação.
- Fernanda Hoffmann Lobato 01/06/2023 às 17:19Plataformas Digitais : ambientes digitais mantidos por empresas nacionais ou internacionais, cujo modelo de negocio inclua:
- A intermediação de produtos e serviços entre pessoas;
- A troca de informações entre pessoas e empresas;
- A troca de informações entre pessoas e empresas;
- A captura das informações de empresas e pessoas que se cadastram na plataforma (criação de contas);
- O uso de algoritmos que visem maximizar o uso da plataforma.
- O uso das informações privadas das pessoas para ações da própria empresa visando lucro;
- O uso das informações privadas de pessoas para ações de terceiros, intermediadas pelo ambiente. - Lucas Cunha 31/05/2023 às 20:27Plataforma digitais são meios de disponibilização de informações ou como polo ativo, divulgando, impulsionando, recomendando por algoritmo determinadas informações ou como polo passivo servindo apenas como um meio de um usuário expor determinada informação.
- Enrico Mota 30/05/2023 às 18:29"Plataforma digital é o termo designado para todo serviço virtual que propicia interação entre usuários, prestação de bens e serviços e divulgação de informações, utilizando-se de tecnologia digital. As regulação da atividade das plataformas digitais deve considerar a variedade de setores e modelos de negócios, levando em consideração suas especificidades e desafios. É fundamental envolver uma variedade de partes interessadas, incluindo representantes das plataformas, usuários, especialistas em políticas públicas e a sociedade civil, para garantir que as regulamentações sejam equilibradas, eficazes e promovam o bem público, sem prejudicar desnecessariamente a inovação e o desenvolvimento econômico.
- Paulo Rená Da Silva Santarém 30/05/2023 às 15:51Provedores de aplicações.
- Elaine marques 21/05/2023 às 16:43Todo dispositivo que permita acesso e inclusão de dados e conteúdos de modo online ou offline com posterior divulgação online mediante o uso da internet, podendo ser pública ou privada, com ou sem custo direto para o usuário e que possa alcançar público além do emissor e receptor do dado ou conteúdo.Paulo Rená Da Silva Santarém 11/07/2023 às 05:43Com essa previsão, um celular, uma câmera, e uma caixa de som inteligente seriam consideradas "plataformas digitais" Discordo dessa proposta.
- Victor Lippi Zaccariotto 13/05/2023 às 15:58Qualquer meio de troca de informações que demandem dispositivos eletrônicos.
- Juliano Kimura 10/05/2023 às 21:48Apenas plataformas que distribuem de forma automatizada mensagens em múltiplas plataformas. Seus autores e sua origem.
- Leonardo Tavares de Almeida 04/05/2023 às 08:16Plataforma digital é todo meio eletrônico onde usuários se inscrevem para acessar seus conteúdos e interagir com outros usuários
- Guido Araujo 03/05/2023 às 15:07Olá, sou Professor Titular de Computação da UNICAMP e na palestra baixo eu discuto um modelo que preenche várias das lacunas da PL 2630 ao mesmo tempo que reduz o custo da curadoria, retornando esta para a sociedade civil organizada. A solução combina tecnologia com agências de fact-check, e processos sociais que já existem hoje.
https://www.youtube.com/live/tzdwNHunn7U?feature=shareFelipe Braga 05/07/2023 às 21:26O Google derrubou ou vc mesmo tirou?Felipe Braga 05/07/2023 às 21:29Público x privado e local de hospedagem - Guido Araujo 30/04/2023 às 11:37Meu nome é Guido Araujo, PhD pela Princeton U. e Professor Titular da UNICAMP.
Entendo que com a votação eminente da PL, esta mensagem chega um pouco tarde.
Por outro lado, este modelo que apresento semana que vem (link abaixo) tem as seguintes características: (a) elimina a necessidade de curadoria por parte das plataformas, entregando esta para a sociedade civil; (b) restringe automaticamente o encaminhamento de fake-news, educando os usuários, ao mesmo tempo que não viola as suas inclinações políticas, culturais ou religiosas; e (c) mantém intacta a liberdade de expressão.
https://www.linkedin.com/posts/institute-of-computing-unicamp_fakenewsbrasil-activity-7057722536544858112-LBFK?utm_source=share&utm_medium=member_desktop - Ivelise Fortim 28/04/2023 às 16:08espaços digitais quepermitem trocas entre usuarios, seja trocas de informação, sejam comerciais, sejam trocas de entretenimento
- Sandra Toledo Galvão Liguori 27/04/2023 às 13:19Plataformas digitais são serviços de comunicação, divulgação e venda de conteúdos das mais variáveis áreas, conectando compradores e tomadores de serviços e produtos.
- Rodrigo Pereira 25/04/2023 às 19:10Veículos virtuais que almejam todo conjunto de serviços orgânicos possíveis sendo direcionados pela via de uma revolução industrial restrita ao universo digital, sendo portanto geradores de novas necessidades, que se tornarão dependências no interior de um mercado fechado - na mão de poucos detentores dos meios que definirão as linhas das demais plataformas de desenvolvimento - secando os investimentos em plataformas orgânicas, com pouca ou nenhuma concorrência e abertura democrática de inovações fora da bolha digital.
- Simeão Do nascimento barros 25/04/2023 às 16:49Aquele que tem como função divulgar informação.
- Alender Max De Souza Moraes 25/04/2023 às 15:53O termo "plataformas digitais" deve ser compreendido em sentido amplo, encapsulando redes sociais, comércio eletrônico, plataforma de notícias, mecanismos de busca, aplicativos de mensagem. E envolvendo qualquer modelo de negócio neles aplicados.
- UIRAPORA CARMO 03/05/2023 às 12:31Exato, a definição de plataforma digital deve ser ampla. Gostei da definição do Gabriel Capellari abaixo:
"Plataformas digitais são serviços online que permitem a conexão entre usuários e/ou fornecedores de bens, serviços ou informações, por meio de tecnologias de comunicação digital."
No entanto, a abrangência da lei deveria estar limitada a "grandes plataformas comerciais", com o especial cuidado de diferenciar plataformas centralizadas, distribuídas e de comunicação direta, o famoso P2P, e mais cuidado ainda, de se diferenciar modelos de negócio. Não se pode exigir da wikipedia, que é uma grande plataforma e um serviço sem fins lucrativos, a mesma rigidez das plataformas comerciais geradoras dos maiores faturamentos e lucros do planeta.
Nesse sentido, a Lei enfrenta grandes monopólios, mas não apresenta nenhuma medida para equilibrar o ecosistema, fomentando novas redes e serviços, por exemplo.
EVANDRO ALVES PEREIRA 06/07/2023 às 08:09Na verdade, em se tratando de ato legislativo, é de sumária importância que evite-se quaisquer generalizações. Um ato legislativo DEVE por obrigação ser tão específico quanto possível, eliminando a possibilidade de interpretações.Gustavo Paiva 07/06/2023 às 15:11Bem colocado, Uirapora.
A definição deve ser abrangente, porém a lei deve discernir que nem todas as plataformas são iguais.
Um fator que eu considerei em outros comentários seria que a lei faça distinções baseadas no tipo de empresa dona/gerente da plataforma. Uma empresa de capital aberto, com milhares de acionistas, não é a mesma coisa de uma plataforma mantida por uma entidade sem fins lucrativos. Talvez esse critério seja mais claro e menos nebuloso do que "grandes plataformas comerciais", porém não é perfeito por si só, particularmente se/quando empresas começarem a usar shell companies para serem as donas de plataformas no papel.EVANDRO ALVES PEREIRA 06/07/2023 às 08:25Deve-se tomar o cuidado de ser tão específicos quanto possível.
Eu diria que existem
- Serviço de mensagem assíncrona, ou seja, troca direta de mensagens de texto, voz, foto, imagem e/ou vídeo individuais e/ou em massa.
- Serviço de rede social, com portais, páginas e grupos de interesse comum, que possibilite a publicação de foto, imagem, vídeo, texto e/ou audio e/ou também a interação dos usuários com as publicações e outros usuários através de inclusão de comentários nestas publicações.
- Serviço de propagação de conteúdo de forma unilateral, e/ou que sigam uma base editorial tais como portais de notícia e/ou conteúdo proprietário, ainda que este permita a existência de uma base de usuários registrados e a interação destes usuários nas publicações através da inclusão de comentários. - Everton Benedikt 25/04/2023 às 15:22Vale a pena destacar que ficou evidente que o objetivo é criar uma semântica que seja generalista a ponto de poder dar tratamento diferenciado a grupos que essencialmente cumprem a mesma função. Eu estou com muito medo de vocês.
- Everton Benedikt 25/04/2023 às 15:20é um neologismo que gera mais problemas que soluções. Existem boas definições que são sites, redes sociais, provedores de acesso, provedores de conteúdo. Eu acompanhei atentamente o debate e me estarreceu a quantidade de indefinições e subjetividades que começam com o nome e isso pode gerar um imenso problema.
- Gabriel Capellari Santos 25/04/2023 às 13:49Plataformas digitais são serviços online que permitem a conexão entre usuários e fornecedores de bens, serviços ou informações, por meio de tecnologias de comunicação digital.
- Jose Geraldo Leite Coura 25/04/2023 às 11:15Plataforma digital é todo ambiente que oferece serviços de interação de comunicação entre atores diversos que transmite informações e colaboração entre todos.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:15[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Em primeiro lugar é preciso identificar o caráter das plataformas, se públicas ou privadas, e o setor principal em que atuam. Não é natural que haja essencialmente plataformas privadas. Políticas devem estimular a criação e/ou a manutenção de outros tipos de plataformas, inclusive de caráter público. Também com vistas à soberania, o Estado deve democratizar o uso de infraestrutura pública, compartilhando-a com o maior número de agentes, atentando para questões como guarda de dados em território nacional.
Tendo em vista a dinâmica da economia digital, a regulação deve considerar diferentes dimensões das plataformas, como sua origem, a fim de proteger a soberania nacional; seu o poder econômico, tendo em vista valor de mercado e faturamento; sua participação de mercado, considerando audiência que possuem/usuários que concentram; o número e a diversidade de segmentos em que atuam; a participação no bolo publicitário; o controle e a utilização/compartilhamento de dados, entre outras - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 21:03Acreditamos que a melhor regulação assimétrica seja aquela que onera as plataformas com maior alcance nas vidas dos cidadãos (ou seja, aquelas que geram um risco sistêmico), e aquelas que detém poder de controle de acesso essencial (gatekeepers). Antes de definir esses conceitos, é importante destacar que trata-se de definições abrangentes e que não é recomendável excluir do escopo da regulação plataformas de um determinado tipo (como, por exemplo, as plataformas de e-commerce, repositórios científicos, enciclopédias online sem fins lucrativos, plataformas de jogos e apostas, e plataformas de desenvolvimento e compartilhamento de software de código aberto, que são excluídas do escopo da lei pelo artigo 2 § 1º do substitutivo ao PL 2630/2020). Isso porque toda plataforma tem a capacidade de ser utilizada para veicular conteúdos nocivos e gerar danos expressivos, tanto nas pessoas físicas quanto nas pessoas jurídicas.
O primeiro conceito, aquele de risco sistêmico, está atrelado ao fato que, muitas vezes, riscos gerados pelas grandes plataformas digitais têm uma forte tendência a “contagiar” o mundo físico. Por isso, por analogia com a regulação financeira, que usa tal risco como gatilho da aplicação de obrigações especificas, esse conceito pode ser entendido a partir de três critérios.
i. A amplitude da base de usuários. Isto porque uma vasta base de usuários facilita uma veiculação massiva de conteúdo, muitas vezes de forma imprevisível.
ii. A interconexão entre múltiplos atores dentro do mesmo ecossistema. Por um lado, o potencial espalhamento ou "efeito de contaminação" de um risco é maior; por outro lado, a existência de múltiplos atores interconectados aumenta as chances de abusos dos serviços por terceiros que fazem parte desse ecossistema. Particularmente, ressalta-se a existência de ampla gama de técnicas e comportamentos coordenados, para a manipulação de má-fé dos sistemas de plataforma digital. Cabe destacar que o risco de amplificação de conteúdo se torna ainda mais evidente em caso de implementação de sistemas de recomendação algorítmica, que maximizam e orientam as interconexões sistêmicas por meio de recomendações e que podem ser explorados abusivamente por atores de má-fé.
iii. Por último, a dependência dos usuários finais e comerciais dos serviços em questão. Aqui, a forma principal de determinar dependência remete à possibilidade de substituição entre os serviços da empresa e aqueles oferecidos por concorrentes, embora haja também critérios de dependência que não dependem do poder de mercado (LIANOS; LOMBARDI, 2016). É importante frisar que, ao longo da última década, certos provedores de aplicativos alcançaram um papel insubstituível pela enorme maioria da população brasileira (e do Sul Global) em razão de serem patrocinados via planos de zero rating.
Quanto ao segundo conceito, tem uma grande discussão de regulação econômica que está acontecendo em várias jurisdições (como União Europeaia, Estados Unidos de América, Japão, Reino Unido, Alemanha, Francia), em relação ao conceito de plataformas com controle de acesso essential (ou gatekeeper). A metade dessas leis inclui uma lista de atividades ou mercados que se prestam a esse tipo de qualificação, enquanto todas elas contêm critérios específicos que permitem a designação de alguns players com determinadas caraterísticas como gatekeepers ou conceitos parecidos. Esses critérios incluem o volume de usuários, a capitalização da empresa no mercado, se ela é um parceiro crucial para relações comerciais, se ela reúne ao mesmo tempo usuários comerciais e usuários finais, se detém poder estabelecido e durável, se está em uma posição estratégica (com efeitos do próprio poder sendo particularmente expressivos), posição dominante em um ou mais mercados, capacidade financeira ou de acesso a outros recursos, integração vertical ou em atividades relacionadas, acesso a dados relevantes para concorrência, relevância das próprias atividades para o acesso de terceiros aos mercados de venda e compra. Na metade dos casos, existem também presunções implicando na caracterização de players com determinadas caraterísticas como gatekeeper em vista do presumido preenchimento dos requisitos elencados na lei. De forma geral, o conceito de gatekeeper depende das falhas de mercado que os reguladores vislumbram. Contudo, não parece razoável abstrair na definição desse conceito do poder de mercado, que historicamente foi utilizado em setores com caraterísticas de monopólio natural para identificar os sujeitos onerados com regulação. Por isso, sugere-se analisar de forma cuidadosa o poder de mercado, no sentido explicado abaixo no comentário 1.3.
Referências bibliográficas
LIANOS, I.; LOMBARDI, C. Superior Bargaining Power and the Global Food Value Chain: The Wuthering Heights of Holistic Competition Law? Rochester, NY, 1 jan. 2016. Disponível em: . Acesso em: 22 maio. 2023
WERBACH, K.; ZARING, D. Systemically Important Technology. Texas Law Review, v. 101, n. 4, 18 abr. 2023. - Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 19:46Sim, a regulação deve ser assimétrica. Primeiro, dentro da definição de plataforma digital, existem inúmeras possibilidades de serviços a serem oferecidos. A regulação deve levar em conta diferentes modelos de negócios, como mensageria instantânea (criptografada ou não), mecanismos de busca, redes sociais, comunidades de conversas, dentre outras. Segundo, a assimetria deve levar em conta o risco que as plataformas oferecem à sociedade e, nesse caso, o número de usuários e o tamanho das plataformas são fatores relevante, além da utilização de mecanismos automatizados, Inteligência Artificial e algoritmos. Quanto maior o número de usuários e maior a utilização de mecanismos baseados em dados pessoais e automatização, maior deve ser o nível de rigor das regras, como obrigações de transparência robustas e análises de riscos periódicas.
- Everton Rodrigues 16/07/2023 às 18:581) Propósito
2) Participantes
3) Interações
4) Modelos de Negócios
5) Arquitetura Tecnológica
6) Regulação e Governança
7) Impactos Sociais e Econômicos
8) Gestão dos dados dos usuários - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 13:56Mais importante do que um conceito geral de plataformas digitais é que se delimite modelos particulares de plataforma de forma mais detalhada e estes estejam sujeitos a uma regulação específica e assimétrica. “Redes Sociais” e “Aplicativos de Mensageria Instantânea”, em particular, precisam ser bem distinguidos uns dos outros para que determinadas plataformas não sejam sujeitas a obrigações tecnicamente inviáveis ou que prejudiquem excessivamente o modelo de negócio.
Mesmo a distinção pode não resolver problemas de sobreposição de regulação. Uma mesma plataforma pode ter várias funcionalidades, que atraem diferentes regimes. Um aplicativo como o Instagram tem, ao mesmo tempo, um aspecto de rede social (feed, postagens públicas etc.) e um aspecto de serviço de mensageria instantânea (direct). O Telegram oferece chats privados e grupos públicos com interação de atores e canais nos quais um usuário transmite sua mensagem aos seguidores. Assim, há uma diferença entre regular a plataforma como um todo (que pode agregar diferentes funcionalidades), uma funcionalidade que pode ser encontrada em plataformas ou uma empresa que mantém diferentes plataformas com diferentes funcionalidades.
De qualquer forma, uma dimensão importante para distinção dos tipos de plataformas para fins de regulação assimétrica é seu nível de ingerência sobre o conteúdo publicado por usuários. Redes Sociais, nesse sentido, são caracterizadas por facilitarem o desenvolvimento de vínculos sociais conectando de diversas formas os perfis de diferentes usuários. Sistemas de recomendação, ranqueamento de conteúdo, sugestão de conexões e até a existência de uma Linha do Tempo são características distintivas, pois as Redes Sociais organizam o conteúdo que será visto pelo usuário.
Nos aplicativos de mensageria, diferentemente, os usuários acessam grupos (normalmente fechados), comunidades e conversas para interagirem com grandes quantidades de outros usuários de forma privada, sem que haja organização interna desse conteúdo pela plataforma. Usuários visualizam as mensagens em tempo real conforme elas são publicadas, sem que elas sejam ranqueadas, recomendadas ou filtradas conforme seus interesses. Em alguns desses aplicativos, a ingerência da plataforma sobre o conteúdo publicado por usuários pode ser ainda mais limitada em razão da criptografia ponta a ponta, que faz com que apenas os usuários tenham acesso às suas mensagens.
Por essa razão, no caso das Redes Sociais, existe um risco específico de que os sistemas de ranqueamento e recomendação estejam impulsionando a difusão de conteúdo perigoso, o que justifica, por exemplo, uma regulação voltada a garantir maior transparência para esses sistemas. Da mesma forma, o fato de que sistemas de moderação proativa e de organização do conteúdo já são centrais para o modelo de negócio justifica que essas plataformas sejam obrigadas a utilizar esses sistemas para controlar conteúdo considerado nocivo pelo poder público.
No caso dos aplicativos de mensageria, a menor ingerência da plataforma sobre o conteúdo pode tornar ineficazes obrigações de moderação proativa de publicações (sem que haja denúncia ou ordem específica de remoção) ou irrelevantes obrigações de transparência sobre sistemas de recomendação. Por outro lado, podem ser estabelecidas obrigações específicas de cooperação com o poder público para fins de investigação e denúncia de circulação de conteúdo perigoso em grupos específicos.
Independente dos conceitos adotados e das dimensões relevantes, porém, é essencial que qualquer forma de regulação de plataformas digitais preveja alguma forma de atualização que permita acompanhar com velocidade o surgimento de novos modelos de negócio. Do contrário, a evolução rápida do mercado de plataformas digitais pode tornar a regulação ineficaz em pouco tempo. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:07Não existe um fenômeno único que possa ser resumido como “plataforma digital”. Assim como existem diferentes setores industriais na economia “tradicional”, também existem diferentes empresas que adotam tecnologias. Não há razão para descrever “plataformas digitais” de forma diferente de qualquer outro agente privado. Nesse contexto, a melhor maneira de descrever cada tipo de provedor de produtos ou serviços digitais se dá a partir do setor em que ele opera (saúde, entretenimento, etc.).
Plataformas digitais são bastante amplas, abarcando diferentes tipos de negócios. É importante diferenciar redes sociais de mensageria privada, por exemplo. Mensageria privada é fundamentalmente diferente de outros tipos de plataformas, uma vez que é privada, gerando diferentes perfis de riscos, abordagens de segurança e diferentes expectativas por parte dos consumidores. - Rodolfo Salema 16/07/2023 às 09:51Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
As dimensões relevantes para descrever as plataformas digitais que devem ser objeto de uma regulação assimétrica podem ser combinações entre os seguintes pontos:
1. Oferta de serviço essencial de plataforma. Trata-se de serviços que se tornaram essenciais a agentes, empresas, setores de mercado, entidades públicas e privadas, não existindo alternativas disponíveis minimamente equivalentes, existindo clara situação de dependência. Por exemplo, com base no Digital Markets Act da União Europeia, os core platform services estão relacionados a: (1.1.) serviços de intermediação online; (1.2.) motores de busca; (1.3.) redes sociais; (1.4.) compartilhamento de vídeos; (1.5.) serviços de comunicação interpessoal independente de número; (1.6.) sistemas operacionais; (1.7.) navegadores; (1.8.) assistentes virtuais; (1.9.) serviços de computação em nuvem; (1.10.) serviços de publicidade online e intermediação de publicidade digital.
2. Posição de Gatekeeper (controlador de acesso) ou designada como Strategic Market Status – SMS (status de mercado estratégico). Assim como o critério anterior, busca-se identificar os players que, dada a sua dimensão monopolística ou de “monstro digital”, com atuação verticalizada e integrada em distintos mercados, assim chamados adjacentes, são capazes de bloquear ou impedir o acesso a mercados por players que desejem competir ou se integrar e não se submetam a condições abusivas impostas. O primeiro termo é central na regulação europeia do DMA enquanto o segundo aparece na regulação britânica (Digital Markets, Competition and Consumer Bill 2022-2023)
3. Volume de faturamento. Está entre os critérios de identificação dos gatekeepers no Digital Markets Act da União Europeia e também é um dos critérios essenciais para a incidência do controle de estruturas ex ante do Conselho Administrativo de Defesa Econômica. A Lei nº 12.529/2011 em seu art. 88 estabelece valores mínimos de faturamento do grupo econômico no ano anterior no Brasil (além de definir em regulação infralegal como se identificam os grupos econômicos envolvidos), que foram objetos de atualização via portaria interministerial em 2012.
Volume de faturamento traz uma relativa estabilidade e segurança para os agentes por sua objetividade (apesar das mínimas controvérsias nas definições de grupo econômico e de identificação da atuação no Brasil) e evita sobrecarregar as autoridades de supervisionar agentes econômicos pequenos que, diferentemente das big techs, têm pouca capacidade/probabilidade/risco de prejudicar a concorrência e afetar os direitos fundamentais dos cidadãos. Contudo, este critério, mesmo no âmbito de análise de atos de concentração pelo CADE, pode acabar deixando de fora diversas operações econômicas envolvendo plataformas digitais – uma vez que as sedes e as transações destas plataformas tendem a ser realizadas majoritariamente no exterior, e o faturamento no Brasil tende a ser baixo ou até mesmo zero, ainda que as plataformas sejam altamente populares entre os usuários brasileiros ou se trate de entrantes com potencial de rivalizar ou ingressar em outros mercados relacionados. Sendo assim, referido critério é válido, mas, dadas as especificidades dos mercados digitais, é fundamental que ele seja aplicado em combinação com outros, como os aqui mencionados.
4. Volume de usuários. Está entre os critérios de identificação dos gatekeepers no Digital Markets Act da União Europeia uma combinação entre 45 milhões de usuários finais ativos mensalmente e 10 mil usuários profissionais ativos, ambos estabelecidos ou localizados na União Europeia no último ano. Trata-se de critério extremamente relevante, na medida em que indica sua capacidade de gerar efeitos sistêmicos sobre a sociedade e sobre a economia, justificando a necessidade de sua regulação específica.
5. Posição dominante. Há uma grande controvérsia sobre a análise de posição dominante de plataformas digitais, uma vez que a definição dos mercados relevantes de atuação destas plataformas é pouco consensual, existindo consenso justamente quanto à desnecessidade de definição de mercados relevantes no universo digital - tanto para se evitar uma discussão infindável e árida em que evoluções tecnológicas podem atravancar análises técnicas como também devido ao fato inequívoco de que as big techs não apenas possuem posição dominante mas verdadeiro poder de monopólio no cenário atual e estável ao menos na última década, constatação que torna dispensável a definição de mercado relevante.
Importa observar ainda que a legislação brasileira de defesa da concorrência (Lei nº 12.529/2011) presume posição dominante não apenas por participação no mercado relevante, mas quando uma empresa (ou grupo de empresas) for capaz de alterar unilateral (ou coordenadamente) as condições de mercado (art. 36, § 2º). Nesse sentido, ainda que exista a referida dificuldade relacionada à delimitação da fronteira destes mercados, é evidente que algumas plataformas digitais controlam serviços online essenciais que lhes conferem posição dominante. Assim, com relação a elas, seria possível se estabelecer uma presunção relativa de dominância; tal presunção poderia ser contestada pelas plataformas com elementos concretos de sua atuação, afastando a presunção de dominância se demonstrar a efetiva existência de concorrência no segmento.
6. Exceções. Mesmo que algumas plataformas se enquadrem em algumas combinações dos critérios acima, alguns tipos de atuação não parecem, a princípio, oferecer risco aos usuários e aos mercados (e.g. repositórios científicos e educacionais, enciclopédias online sem fins lucrativos, plataformas de desenvolvimento compartilhamento de softwares de código aberto, plataformas de disponibilização de dados obtidos do poder público etc.). Tais exceções devem ser especificadas e contempladas na regulação. - Manas Digitais (comentário inserido por: Danielle Couto) 16/07/2023 às 07:57Há uma relação direta entre esse tipo de comportamento e as diretrizes dos algoritmos, responsáveis pela distribuição e organização de dados nestas redes sociais. Young (2006) afirma que a criação de bolsões de informação moldada estrategicamente para um grupo social específico cria uma ideia superficial de pluralidade, uma falsa representatividade. Ou seja, segmentar a sociedade em nichos informativos baseando-se em padrões como classe social, etnia, gênero, orientação sexual, profissão ou orientação política, é uma forma de manter cada um num suposto devido lugar, visão compartilhada também por Bauman (2014).
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:07Provável acesso à plataforma por crianças e adolescentes como critério de regulação assimétrica:
- Importância da proteção de crianças e adolescentes no ambiente online, bem como de traçar medidas específicas para plataformas utilizadas, de possível acesso ou de restrição de acesso por elas, ressaltando a sua hipervulnerabilidade enquanto grupo social (referência - ICO’s Children’s Code: https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/childrens-information/childrens-code-guidance-and-resources/#:~:text=Age%20appropriate%20design%3A%20a%20code,media%20sites)%20must%20conform%20with.)
Fatores de risco atrelados ao modelo de negócios (alto risco):
– Modelos de negócios predatórios, baseado no extrativismo de dados pessoais;
– Prática de perfilização dos usuários;
– Prática de uso de dados para exploração comercial e para direcionamento de publicidade personalizada - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 11:59Não existe um fenômeno único que possa ser resumido como “plataforma digital” - o uso coloquial do termo abarca diferentes modelos operacionais e tipos de negócios, com perfis de riscos e características completamente distintas.
Assim como existem diferentes setores industriais na economia “tradicional”, também existem diferentes agentes econômicos que adotam tecnologias. Não há razão para descrever “plataformas digitais” de forma diferente de qualquer outro agente privado. Nesse contexto, a melhor maneira de descrever cada tipo de provedor de produtos ou serviços digitais se dá a partir do setor em que ele opera (saúde, entretenimento, etc.). - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 10:421. CLASSIFICAÇÃO POR RISCO A DIREITOS: A regulação de plataformas digitais deve se concentrar naquelas que representam maiores riscos à sociedade, especialmente os relacionados à soberania nacional, exercício da cidadania, aos direitos fundamentais e ao oferecimento de serviços essenciais.
2. TAMANHO DAS PLATAFORMAS DIGITAIS (REGULAÇÃO ASSIMÉTRICA): é importante também considerar as diferentes capacidades econômicas (e, inclusive, de tratamento de dados) das plataformas. Um impacto desproporcional em plataformas menores pode ter o efeito inverso ao querido: pode acabar afetando a inovação e impedindo a concorrência, de maneira a desproporcionalmente favorecer justamente as plataformas que já são dominantes. Do ponto de vista quantitativo, possíveis critérios são: (i) participação de mercado (marketshare), (ii) faturamento, (iii) quantidade de pessoas usuárias (comerciais e não-comerciais). Esses tipos de classificação quantitativos são relevantes em especial para uma regulação econômico-concorrencial, mas não deixam de ser importantes elementos em outros tipos de regulação de plataformas.
3. ECOSSISTEMAS DIGITAIS E EFEITO CONGLOMERAL: é importante também diferenciar quais plataformas atuam somente em um serviço, mercado ou têm somente uma funcionalidade. Isso porque há maior preocupação (em diversas dimensões, desde o ponto de vista concorrencial ao impacto à liberdade de expressão) com plataformas dominantes e que atuam em diversos mercados. Isso porque os efeitos de rede não se limitam somente a plataformas individualizadas, mas muitas vezes se ampliam para outras plataformas integradas no mesmo grupo econômico. Em especial, aqui são relevantes as big techs - a exemplo da Meta, que atua tanto com redes sociais (em diferentes plataformas integradas) quanto em serviços de mensageria, além de outros tipos de plataforma. Ou seja, temos também que considerar as especificidades dos conglomerados em mercados digitais.
4. FUNCIONALIDADE DA PLATAFORMA: ainda que se tenha um conceito unificado de plataformas digitais, é importante considerar qual é a sua função. Em especial, as tipologias de: (i) serviços de mensageria, (ii) redes sociais, (iii) plataformas de comércio eletrônico, (iv) mecanismos de busca e (v) plataformas de trabalho, dentre outras. É possível também considerar as plataformas abrangidas enquanto "serviços essenciais de plataforma" (core platform services), que incluem também (vi) serviços operacionais, (vii) serviços de armazenamento em nuvem, (viii) assistentes pessoais, dentre outras.
5. CRITÉRIOS TRANSVERSAIS: esses elementos não devem ser considerados isolados. Como exemplo, no DMA, o conceito de "gatekeeper" leva diferentes subcritérios considerados conjuntamente. Nessa mesma norma,
Do ponto de vista do Idec, todas essas classificações são relevantes para o desenho regulatório, mas o 4º critério (funcionalidade da plataforma) é essencial na delimitação do objeto da regulação e para a análise de quais são as principais falhas de mercado nessas plataformas que justificam uma intervenção regulatória. Dentre esses temas, para o Idec, os tipos prioritários são: (i) serviços de mensageria, (ii) redes sociais e (iii) plataformas de comércio eletrônico. - Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:07O Instituto de Referência em Internet e Sociedade considera ser necessário que a regulação de plataformas digitais seja feita de forma assimétrica. Além da quantidade de usuários, como o que vem sendo proposto em sede do PL 2630, é importante que as dimensões relacionadas ao impacto e poder econômico que as plataformas possuem, bem como o tipo de serviço prestado, que também deve ser levado em consideração.
Com o domínio de big techs na área de plataformas de rede sociais, por exemplo, em que há uma tendência à concentração do mercado, é importante que plataformas que possuem quotas maiores de participação possam ser reguladas de forma diferente daquelas com menor espaço. Empresas que possuem também maior valor de faturamento podem ter melhores condições de se adequarem a uma regulação com maiores exigências. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 15:47É importante também levar em consideração os aspectos regulatórios de plataformas de mensageria privada, atendendo ao princípio da privacidade relativo à comunicação dos usuários e a criptografia.
- Internet Society Capítulo Brasil (comentário inserido por: GT-RI ISOC Brasil) 14/07/2023 às 15:18Os vários marcos regulatórios que têm sido propostos ao redor do mundo representam diversas possibilidades em termos de definições conceituais, princípios legais e mecanismos legislativos que podem delimitar modelos de responsabilidade de intermediários e escopos diferenciados de aplicação das novas legislações ou regramentos. Na medida em que os debates sobre esse arcabouço conceitual relacionado às plataformas digitais frequentemente se restringem ao debate sobre quais plataformas deveriam estar sujeitas à legislação fundamentalmente com base no seu número de usuários, a ISOC Brasil reforça a relevância de que outros elementos também sejam levados em consideração na busca por marco regulatório adequado às especificidades da Internet e do ambiente legal e regulatório do país.
Em conformidade com a missão global da Internet Society e com base no Decálogo e Recomendações sobre o Modelo Brasileiro de Responsabilidade de Intermediários, ressaltamos que a Internet integra um complexo sistema de provedores de serviços. Nesse sentido, chamamos a atenção para i) os diferentes tipos de serviços e aplicações existentes e as suas consequentes diferenciações em relação ii) ao poder econômico, iii) status jurídico e iv) posicionamento de mercado e de funcionalidade em um complexo ecossistema digital. Tal conjunto relevante de assimetrias entre atores, com diferentes modelos de negócios e capacidades econômicas que conferem distintos alcances e características dos serviços oferecidos, deve também ser compatibilizado com os modelos de responsabilidade civil já estabelecidos no ordenamento jurídico, entre legislações específicas, como o Marco Civil da Internet, e regramentos que também podem ser mobilizados para a área, como o Código de Defesa do Consumidor.
Por essas razões, a ISOC Brasil considera que legislações que não levem esse conjunto de fatores em consideração e que não dialoguem com a terminologia já pacificada pelo Marco Civil da Internet, bem como retomem o debate da época, o modelo de construção e os princípios do MCI para avançar em um maior detalhamento e compreensão dos provedores de aplicação, tendem a se tornar obsoletas, inaplicáveis e excessivamente contestáveis pelos diferentes atores que podem ser afetados. Além disso, acreditamos que a postura proposta é capaz de atender às demandas que justificam atualizações regulatórios ao mesmo tempo em que é compatível não só com as propriedades críticas da Internet e o ordenamento jurídico já estabelecido, mas ao importante princípio de que a Internet deve ser preservada como uma rede de propósitos múltiplos. Nesse sentido, regulações demasiadamente específicas em relação a um modelo de negócio vigente contemporaneamente podem também ser suplantadas pela rápida emergência de novas tecnologias e novos modelos de negócios. As atividades da ISOC Brasil têm recorrentemente justificado a firme compreensão de que os princípios acima defendidos são indispensáveis para o estabelecimento de marcos regulatórios duradouros. - Tatiana Dourado 14/07/2023 às 12:19- Número de usuários ativos
- Período em que está em operação
- Modelos de negócios baseados em publicidade digital
- Coleta de dados
- Interoperabilidade de dados
- Externalidades negativas - Tarcizio Silva 14/07/2023 às 11:55A definição de dimensões deve levar em conta um grupo de fatores universais e um grupo de fatores ligados ao potencial observado ou especulativo de infrações de direitos ou danos sociais, individuais ou coletivos. Algumas das dimensões chave:
Número de usuários únicos global e número de usuários únicos locais - a quantidade de usuários deve ser analisada como fator em plataformas que tratem da troca de conteúdos ou recursos nos campos da cultura, entretenimento, comunicação, mídia, jornalismo, política e afins. No caso de plataformas com serviços ligados a aspectos pessoais, da saúde, do emprego ou outras áreas sensíveis, um pequeno número de usuários não deve ser critério para evasão de responsabilidades.
Escritório e equipes de relações governamentais, políticas públicas e similares no território brasileiro. A oferta de determinados tipos de plataforma a brasileiros deve ser condicionada à presença de escritório físico no país com times com capacidade de representação e decisão quanto às obrigações definidas na legislação brasileira em construção.
Mediação, análise, classificação ou ranqueamento algorítmico automatizado ou semi-automatizado de conteúdos ou valores trocados. A aplicação de sistemas algorítmicos para automatizar ou escalar fatores relevantes aos usuários das plataformas deve ser uma dimensão levada em conta em cruzamento com as demais.
Modelo de negócio e fontes de manutenção e receita. A análise das plataformas deve levar em conta fatores econômicos multidimensionais além do lucro e receita no território, por considerar que os negócios de tecnologia globais geram valores indiretos em termos de implementação, disponibilização, dados, cadastros e outros. - Blogueiras Negras (comentário inserido por: Blogueiras Negras) 12/07/2023 às 19:37Podemos descrever as plataformas a partir de alguns critérios como:
1. seu propósito
2. sua estrutura
3. sua localização
4. seu número de usuários
5. sua capacidade de conversar com outras plataformas
6. sua aderência à legislação que as regulam
7. seu orçamento
8. onde e por quem são sediadas
9. sua filiação ideológica
10. sua permanência - Ricardo de Holanda Melo Montenegro 12/07/2023 às 09:43Embora no cenário atual exista uma convergência tecnológica, o quantitativo de consumidores e o tipo de serviço digital prestado (ex.: comunicação social digital; cloud computing; telecomunicações - 5G; OTT; IoT; IPTV; Apps, marketplace; proteção de dados, buscadores etc.) talvez sejam balizadores.
- Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 16:18As plataformas digitais têm entre suas características a capacidade de promover o acesso entre os diversos lados que conformam oferta e demanda, em um de seus traços essenciais da sua dimensão de sistema tecnológico. Uma primeira característica derivada dessa natureza é a necessidade de definição de uma estrutura de preços para os dois lados, e não apenas a fixação do montante por unidade para o consumidor. Um dos aspectos derivados da constituição da natureza multilado das plataformas é a importância adquirida pelos já discutidos efeitos de rede (network effects), entendidos como a capacidade de aproveitar a presença de indivíduos e organizações em sua rede para reforçar sua dominância e relevância social, política e econômica. Ao colocar lados em contato, as plataformas beneficiam-se desses efeitos para expandir sua base e atrair mais usuários de diversos lados. As plataformas são também agentes operados por meio da Internet. Esta permitiu um acesso mais fácil aos integrantes de cada um dos lados e o acesso de integrantes de cada lado ao outro. Uma última e talvez mais importante marca dessas plataformas é o uso intensivo de dados em todas as suas atividades. Combinando esse conjunto de características, as plataformas digitais se conformam como mediadores ativos de diversas atividades e dos serviços que oferecem, ao contrário da tentativa de sugerir uma neutralidade.
- Miguel Said Vieira 10/07/2023 às 16:38- Modelo de gestão: formato da instituição ou grupo que gere a plataforma (empresa, governo, associação ou cooperativa -- formada por todos os usuários da plataforma, ou só parte deles -- etc.)
- Modelo de custeio: formas por meio das quais a plataforma custeia sua existência (cobrança de assinatura, publicidade na plataforma, monetização dos dados dos usuários, cobrança de comissão nos serviços intermediados, doações voluntárias etc.)
- Finalidade de lucro
- Tipos de serviços oferecidos: mensagens, redes sociais, intermediação de serviços etc. - Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:18No entender da ABRANET, uma adequada compreensão do ecossistema digital – indispensável para qualquer esforço regulatório que pretenda influir sobre seus contornos – necessariamente envolve reconhecer a multiplicidade de atores que dele participam. Diante dessa diversidade – que vai de grandes empresas de tecnologia até sites de reclamação de consumidores e grandes enciclopédias digitais – é evidente que os agentes do ecossistema digital não são uniformes em seu grau de influência sobre o funcionamento salutar desse espaço, pelo que geram demandas distintas de intervenção regulatória sobre sua atuação. O pleno reconhecimento desse traço do ecossistema digital demanda – em termos de resposta regulatória adequada – um esforço de regulação assimétrica, a prever tratamentos distintos de acordo com o tipo de agente e seus impactos ao bom funcionamento do ecossistema digital.
Contudo - e em sintonia com outras propostas em debate ou já em fase de implementação, tanto no Brasil quanto a nível internacional – a ABRANET considera que uma regulação voltada às plataformas digitais, mais do que ser apenas assimétrica, deve incidir apenas sobre os maiores agentes de mercado detentores de controle essencial de acesso – os chamados gatekeepers. Tal proposta de segmentação das novas obrigações regulatórias, de forma que estas se apliquem apenas para os maiores agentes de mercado, se apresenta, por exemplo, no Digital Markets Act europeu, bem como na proposta de regulamentação dos mercados digitais em debate no Reino Unido (Digital Markets, Competition and Consumers Bill) e na versão atual do PL 2.630/2020, em discussão no país.
A partir deste enfoque apenas nos gatekeepers, o cerne do esforço regulatório deve ser especificar os traços por meio dos quais estes podem ser identificados – ou seja, quais são as dimensões essenciais que importam para que um determinado agente de mercado seja reconhecido enquanto detentor de controle essencial de acesso (gatekeeper). No entender da ABRANET, três são estas dimensões:
(i) a oferta de um serviço essencial de plataforma, identificado em rol taxativo. A referência aqui é o Digital Markets Act europeu, que associa os gatekeepers à oferta de algum tipo de “core platform service”, objeto de especificação em rol pormenorizado. Estratégia similar – e que pode ser tomada de referência para a presente regulação ora em debate – é empregada no PL 2.630/2020, que identifica como serviços de particular importância as: a) redes sociais; b) as ferramentas de busca; e c) os serviços de mensageria instantânea. No Brasil, entende-se que o rol acima proposto já seria suficiente, por serem estratégicos e essenciais para comunicação e pesquisa pelos brasileiros.
O referido PL também apresenta definições instrutivas para estes termos, as quais podem ser aqui replicadas. Deste modo, fornecem o importante ponto de referência que toda boa regulação deve buscar, no sentido de definições claras e estritas, para delimitar suas hipóteses de incidência. Nesse sentido, “rede social” pode ser definida como: “aplicação de internet cuja principal finalidade seja o compartilhamento e a disseminação, pelos usuários, de criação, opiniões e informações, veiculados por textos ou arquivos de imagens, sonoros ou audiovisuais, em uma única plataforma, por meio de contas conectadas ou acessíveis de forma articulada, permitida a conexão entre usuários”. Por sua vez, “ferramenta de busca” deve ser entendida como “aplicação de internet que permite a busca por palavras-chave de conteúdos elaborados por terceiros e disponíveis na internet, agrupando, organizando e ordenando os resultados mediante critérios de relevância escolhidos pela plataforma, independentemente da criação de contas, perfis de usuários ou qualquer outro registro individual, incluído indexador de conteúdo e excetuadas aquelas que se destinem exclusivamente a funcionalidades de comércio eletrônico”. Por fim, “mensageria instantânea” é termo empregado no sentido de “aplicação de internet cuja principal finalidade seja o envio de mensagens instantâneas para destinatários certos e determinados, incluindo a oferta ou venda de produtos ou serviços e aquelas protegidas por criptografia de ponta-a-ponta, com exceção dos serviços de correio eletrônico”.
(ii) a volumetria de usuários, considerando tanto usuários finais quanto usuários profissionais, em número absoluto ou relativo, em percentual proporcional à população brasileira atualizada, nos últimos três exercícios financeiros. Usuários profissionais são as pessoas físicas ou jurídicas que utilizam da respectiva plataforma para finalidades comerciais ou profissionais, com o propósito prover bens e/ou serviços a usuários finais - por exemplo, um varejista que tem uma conta Business para se comunicar com seus clientes. Por sua vez, os usuários finais são definidos de forma residual, como aqueles que não se enquadram enquanto usuários profissionais; são todos os demais casos de uso. A segmentação quanto ao tipo de usuário é importante para evidenciar aqueles que empregam a plataforma para fins de condução de atividades econômicas com usuários finais, tornando evidente a relevância da respectiva plataforma sobre demais agentes econômicos, efetivamente modelando seu acesso às oportunidades de mercado trazidas pela economia digital. Na compreensão da Associação, tais balizas devem ser definidas em número médio de: a) mais de quarenta e cinco milhões de usuários finais e de b) mais de vinte milhões de usuários profissionais, cumulativamente, nos últimos três exercícios financeiros. Alternativamente, 20% da população localizada no país, para usuários finais, conforme indicadores nacionais oficiais, e 10% da população localizada no país para usuários profissionais, conforme indicadores nacionais oficiais, nos últimos três exercícios financeiros.
(iii) posição de dominância de mercado, a qual efetivamente manifesta o controle essencial que estes agentes detêm. Dada a natureza dinâmica dos mercados digitais e o intenso fluxo de inovações a que estes agentes estão propensos, a ABRANET entende que as presunções do Conselho Administrativo de Defesa Econômica (“Cade”) relativamente à configuração de posição dominante são por demais conservadoras para serem aplicadas aos mercados digitais, não refletindo a contestabilidade desses mercados ao longo do tempo. Em verdade, a própria Organização para a Cooperação e Desenvolvimento Econômico (“OCDE”), comentando a legislação concorrencial brasileira, já apontou que o patamar em vigor no país para presumir posição dominante é baixo (OCDE. Revisões por Pares da OCDE sobre Legislação e Política da Concorrência: Brasil, 2019, p. 83). Em complemento a esse diagnóstico mais geral da OCDE, na visão da Associação os padrões de dominância de mercado relativamente à economia digital não seriam ainda cristalizados com a mesma facilidade que se verifica nos demais setores econômicos, pelo que porcentagens de mercado mais elevadas poderiam se apresentar sem que a respectiva empresa pudesse exercer as prerrogativas de sua pretensa posição dominante. Nesse sentido, a ABRANET entende que uma posição de dominância nos mercados digitais seria melhor presumida pela detenção de, no mínimo, mais de 50% do respectivo mercado relevante.
Cabe observar que outras autoridades da concorrência mundo afora de fato presumem posição dominante de forma geral a partir de patamares mais elevados de participação de mercado do que aqueles considerados pelo Cade, em linha com o que aqui se sugere especificamente para mercados digitais. Nesse sentido, em documento de trabalho elaborado pelo Departamento de Estudos Econômicos do Cade, consta que, dentre outros, Coreia do Sul, Indonésia, União Europeia e Israel presumem posição dominante a partir de 50% de market share, sendo válido destacar que Singapura considera patamar ainda mais elevado, da ordem de 60% de participação de mercado, para a referida presunção (The problematic binary approach to the concept of dominance, 2021, p. 8). Portanto, a sugestão ora apresentada pela ABRANET está em sintonia com a prática mais geral de outras jurisdições - sendo certo que ainda existem as particularidades dos mercados digitais, acima expostas, a influenciar em favor desse entendimento atualizado sobre presunção de posição dominante, que faz uso de percentual mais elevado de market share para tanto.
Além disso, dado o caráter dinâmico dos mercados digitais, tal parcela de market share precisaria se apresentar por pelo menos os últimos três exercícios financeiros, de forma a mostrar que o estado de dominância do mercado em questão é minimamente estável pela respectiva plataforma.
(iv) alguns tipos de serviço, por não representarem risco aos usuários, poderiam excepcionar o enquadramento da respectiva plataforma enquanto detentora de controle essencial de acesso, na situação de serem tais tipos de serviço a atividade primordial da respectiva plataforma. Tal proposta está em sintonia com a atual redação do PL 2.630/2020, que lista como exceções de enquadramento para fins de regulação os provedores cuja atividade primordial seja a) o comércio eletrônico; b) a realização de reuniões fechadas por vídeo ou voz; c) enciclopédias online sem fins lucrativos; d) repositórios científicos e educativos; e) plataformas de desenvolvimento e compartilhamento de software de código aberto; f) a busca e disponibilização de dados obtidos do poder público; e g) plataformas de jogos e apostas online. Sugere-se, ainda, como exceção, as plataformas financeiras ou de pagamentos, na medida em que já estão sujeitas à regulação setorial.
Estes são os critérios entendidos pela ABRANET como pertinentes para fins de estabelecimento de uma regulação sobre as plataformas digitais: antes de tudo, uma regulação assimétrica, incidente apenas sobre determinadas empresas – as gatekeepers, isto é, aquelas detentoras de controle essencial de acesso. Estruturando o conceito estão três dimensões: (i) a oferta de um serviço essencial de plataforma, previsto em rol taxativo; (ii) o preenchimento de critérios de volumetria de usuários finais e profissionais, em números absolutos ou proporcionais à população localizada no país, por pelo menos os últimos três exercícios financeiros; e (iii) a detenção de posição dominante no mercado, também por pelo menos os últimos três exercícios financeiros.
Cabe destacar que critérios objetivos são preferíveis e informam a definição das dimensões estruturantes do conceito, diante da clareza com que o preenchimento dessas condições pode ser aferido – o que age em benefício tanto do regulador quanto dos agentes de mercado do ecossistema digital. - Alex Camacho Castilho 06/07/2023 às 13:231. Tamanho e poder de mercado: Uma dimensão importante é o tamanho da plataforma e sua participação de mercado. Plataformas digitais dominantes, com um grande número de usuários e influência significativa sobre setores específicos, podem exigir maior atenção regulatória devido ao potencial de abuso de posição dominante e impacto na concorrência.
2. Modelo de negócio: As plataformas digitais podem variar em seu modelo de negócio, como plataformas de comércio eletrônico, redes sociais, serviços de streaming, aplicativos de compartilhamento de transporte, entre outros. Cada modelo de negócio pode apresentar desafios e impactos diferentes, exigindo considerações regulatórias específicas.
3. Intermediação e controle da informação: A forma como as plataformas digitais intermediam a interação entre usuários e controlam o acesso e a distribuição de informações é uma dimensão importante. Algumas plataformas atuam como gatekeepers, influenciando o conteúdo que é exibido aos usuários e podendo afetar a diversidade e a pluralidade de opiniões. Essa dimensão está relacionada à liberdade de expressão e ao papel da plataforma na promoção de um debate público saudável.
4. Coleta e uso de dados: As plataformas digitais coletam e utilizam uma grande quantidade de dados dos usuários para diversos fins, como segmentação de anúncios, personalização de conteúdo e desenvolvimento de produtos. A dimensão da coleta e uso de dados está relacionada à privacidade, à proteção dos dados pessoais e ao controle que os usuários têm sobre suas informações.
5. Impacto na economia e no trabalho: As plataformas digitais têm impactos econômicos significativos, incluindo mudanças no mercado de trabalho. Muitas plataformas utilizam trabalhadores independentes, o que pode levantar questões sobre direitos trabalhistas, proteção social e condições de trabalho. A dimensão do impacto econômico e trabalhista é relevante para considerar a necessidade de regulação nesse aspecto.
6. Externalidades sociais e impacto na sociedade: As plataformas digitais podem ter impactos amplos na sociedade, como a disseminação de desinformação, a polarização política, a concentração de poder e a exclusão digital. A dimensão das externalidades sociais e o impacto na sociedade são importantes para avaliar o potencial risco e a necessidade de medidas regulatórias para mitigar esses efeitos. - Casa de Cultura Tainã / Rede Mocambos (comentário inserido por: Vincenzo Tozzi\) 06/07/2023 às 09:00Numero de usuários e/ou perfis e tipologias de informações..
- Patricia Broilo 05/07/2023 às 15:35OK.
- DAVID TELES 26/06/2023 às 23:35A dimensão (volume de usuários) não deve ser considerada para fins de regulação e critérios de aplicação do normativo.
- ROSA VICARI 23/06/2023 às 15:23Acredito que devemos procurar um documento baseado em princípios ou um documento que oriente a revisão e implementação de processos regulatórios para estas situações específicas ou para situações similares.
- Guilherme Marques Ferri 22/06/2023 às 22:35As dimensões transfronteiriças, psicossociais, históricas da plataforma, principais público-alvos, as mais utilizadas para disseminação de conteúdos ilícitos e ou antiéticos, entre outros (FGV-EBAPE).
- Antônio José Abrantes Chaves 20/06/2023 às 17:18Número de usuários envolvidos, tipos de publicação permitidas, recursos utilizados (somente áudio, ou somente texto, ou somente vídeo, ou multimídia) e se estes recursos são próprios ou produzidos por terceiros ou repassados (com ou sem consentimento de seus produtores), se exibe ou não anúncios, se cobra valores (recorrentes ou não).
- Roberto Cardoso Freire da Silva 20/06/2023 às 12:11Sistemas que fazem uso de análise preditiva tendem a ser mais obscuros em relação às suas potencialidades, tanto pelas diferentes variáveis e aspectos psicológicos que permitem explorar comportamentos/reações dos usuários (psicometria), quanto da imprevisibilidade que emerge de sua eventual capacidade de reescrita / reconfiguração. Entende-se, neste sentido, que os próprios termos de uso podem se tornar ineficientes e inválidos, devido ao desconhecimento, por parte de seus usuários, acerca dos eventuais usos dos dados e informações para além do previsto no momento do aceite. Outro risco está no uso de IA generativa, que podem automatizar a propagação de preconceitos e estereótipos a partir dos dados que lhe servem de treinamento, frequentemente enviesados.
Neste sentido, entende-se que sistemas poderiam ser classificados quanto a sua capacidade de autonomia e sensibilidade das informações que poderiam ser produzidas a partir dos dados que operam e manipulam. - Jose Vieira 19/06/2023 às 13:40Abrangência, público, tipo de acesso, objetivo
- Gustavo Paiva 05/06/2023 às 12:02Um dos critérios de extrema relevância para prever como atuará uma plataforma (e *qualquer empresa*, em verdade) é a origem de seus fundos e, consequentemente, como é o modelo econômico do seu financiamento e sua estrutura de incentivos.
Falando de maneira concreta e direta, uma empresa financiada por um dono único que usou seu patrimônio para criá-la possui é diferente de uma empresa criada com a ajuda de um empréstimo de um banco. O empréstimo, e os juros, criam uma situação na qual o proprietário tem um incentivo para atingir lucro o mais rápido possível. Quanto mais rápido isso ocorrer, menos pagará em juros.
O que observamos é que empresas como Facebook, Twitter, Amazon, Uber e companhia se beneficiaram de venture capital, ou fazem uso de vendas de ações da empresa para arrecadar fundos. Para essas empresas, a meta não é tanto atingir lucratividade e sim executar um crescimento mais explosivo e vertiginoso possível. O lucro para os acionistas da empresa se encontra na valorização das ações, o que os permitirá vendê-las por um preço alto.
Essa estrutura de incentivos criou um cenário atual no qual essas empresas, dotadas de reservas quase inexauríveis de fundos, conseguem destruir mercados pré-existentes (a mídia tradicional arrasada pelas mídias sociais, táxi destruído pelo Uber, comércio tradicional destruído pela Amazon), permitindo uma dominância tal que em algum momento nebuloso no futuro poderão aumentar os preços de seus serviços e assim atingirem uma lucratividade quase monopolística.
A meu ver, esse aspecto das empresas que gerem plataformas é um dos fatores mais determinantes e confiáveis de como seus produtos funcionarão. Aqui podemos ver de maneira muito clara que uma pessoa física gerindo uma instância de Mastodon tem incentivos que o tornam muito diferente de uma empresa como o Twitter, apesar das duas plataformas serem semelhantes em muitos aspectos.
Estritamente falando, o modelo econômico da empresa e a origem de seus fundos não é uma característica *DA PLATAFORMA EM SI*, porém é tão determinante que de fato se torna mais relevante do que coisas mais mutáveis como número de usuários e alcance geográfico. Esses dois fatores são uma fotografia do que uma plataforma é hoje, enquanto que a estrutura de incentivos criada pelo financiamento da empresa é uma projeção de seu futuro como um todo.
Seguindo um passo adiante, a meu ver a regulação sobre empresas que usam ou usaram investimento de venture capital precisa ser extremamente rígida, e que devemos até impor limites específicos sobre as plataformas geridas por essas empresas -- por exemplo, proibindo determinadas tecnologias que podem ter um impacto particularmente destrutivo no contexto da estrutura de incentivos que essas empresas criam. - Fernanda Hoffmann Lobato 01/06/2023 às 17:21- Uso de algoritmos na customização de experiências;
- Presença de escritórios e representações no país; - Lucas Cunha 31/05/2023 às 20:31As dimensões relevantes são: o tipo de serviço prestado; a forma da pessoa jurídica; a organização da atividade; o número de usuários.
- Anderson Nascimento Nunes 26/05/2023 às 13:30Nenhuma plataforma estará segura enquanto estiver sendo executada em processadores que permitem sabotagem remota através de implante de hardware oculto.
Os Estados Unidos usam Silicon Trojans em todos os processadores, de modo que os equipamentos de Telecom no Brasil, por usarem os chips americanos, são usados para espionagem eletromagnética e sabotagem que expõem brasileiros à radiação não ionizante com intensidade superior à permitida na regulação da Anatel.
Crianças são atacadas também, além de jornalista, ativistas e defensores dos direitos humanos.
Quanto antes for reconhecido o terrorismo do Vale do Silício para manter seu monopólio tecnológico, tão antes inocentes deixarão de morrer por conta das células que se organizam em lugares como 4chan e Dogolachan e que têm ajuda material das empresas Americanas para espionar e matar em vários países do mundo. - Rodrigo Pereira 25/04/2023 às 19:15Critérios de tamanho de bigdata, de infraestrutura, de responsabilidade social, ambiental e de respeito à legalidade devem ser verificados para garantia da democratização na ascensão de novas plataformas para oferta de serviços e entretenimento, tanto digitais quanto de outras naturezas, preservando o universo de possibilidades de desenvolvimento.
- Gabriel Capellari Santos 25/04/2023 às 13:52Alguns critérios que podem ser considerados na identificação das plataformas que oferecem maior risco à sociedade e, portanto, merecem maior atenção à definição de suas obrigações regulatórias, incluem:
Tamanho e poder de mercado: Plataformas que detêm uma posição dominante em um determinado mercado, ou que têm grande participação de mercado, podem exercer poder de mercado e impor condições desfavoráveis aos usuários e concorrentes.
Tipo de serviço: A natureza do serviço oferecido pela plataforma pode implicar diferentes riscos para a sociedade. Por exemplo, plataformas de redes sociais têm maior potencial para disseminação de desinformação e discurso de ódio, enquanto plataformas de comércio eletrônico têm maior risco de fraudes e violações de direitos do consumidor.
Tipo de conteúdo: Algumas plataformas são mais propensas a hospedar conteúdo ilegal, prejudicial ou inapropriado, como conteúdo de incitação à violência, discurso de ódio, pornografia infantil, entre outros.
Modelo de negócio: O modelo de negócio da plataforma pode impactar na forma como a plataforma lida com os dados pessoais dos usuários, na transparência de suas práticas, e na proteção dos direitos dos usuários.
Alcance geográfico: Plataformas que operam em múltiplos países ou que têm grande alcance global podem apresentar desafios regulatórios adicionais, já que estão sujeitas a diferentes leis e jurisdições.
Estrutura de governança: A estrutura de governança da plataforma pode afetar a forma como decisões são tomadas e implementadas, e como a plataforma lida com questões como a moderação de conteúdo, transparência e proteção de dados. - Jose Geraldo Leite Coura 25/04/2023 às 11:21Deve ser existir parâmetros universais relacionados a qualquer tipo de plataforma digital, agora esses parâmetros devem ter impacto conforme o tamanho da plataforma e seu impacto na sociedade.
- Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:22Limites quantitativos são frequentemente um método impreciso usado para definir o escopo da regulação. Um método melhor geralmente requer conhecimento da finalidade da regulação. Para questões de concorrência, o poder de mercado é um bom indicador, enquanto a regulamentação para danos ou proteção ao consumidor deve estar vinculada a funções ou serviços específicos onde essas preocupações ocorrem. Isso fornece clareza de quem está ou não no escopo e ajuda a minimizar impactos não intencionais a terceiros.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 21:07Além do poder de mercado em sentido tradicional, um segundo tipo de poder relevante nos mercados digitais é aquele focado na posição de barganha superior de um subconjunto de atores do ecossistema digital em relação a seus parceiros comerciais, em particular fornecedores ou varejistas no contexto das cadeias de suprimentos. Mais especificamente, este poder contratual está presente quando existe uma relação de dependência para a oferta ou procura de um bem ou serviço de tal forma que não existam possibilidades suficientes e razoáveis de mudança para outras empresas. Formas específicas de abuso desse tipo de poder são proibidas pelas leis de concorrência em algumas jurisdições, incluindo Áustria, Bélgica, China, França, Alemanha, Itália, Japão, Coréia, República Eslovaca, África do Sul, Suíça e Taiwan. Em alguns casos, essas leis reconhecem os abusos de forma a replicar algumas das disposições tradicionais da lei de concorrência: por exemplo, a recusa ilegal de uma venda, compra ou outras condições de transação; a imposição direta ou indireta de preços de compra ou venda ou outras condições comerciais desleais; a limitação da produção, dos mercados ou do desenvolvimento técnico em detrimento dos consumidores; a aplicação de condições desiguais a serviços equivalentes aos parceiros económicos, colocando-os em desvantagem competitiva; a sujeição da celebração de contratos à aceitação, pelos parceiros económicos, de serviços adicionais que, pela sua natureza ou segundo os usos comerciais, não estejam relacionados com o objeto desses contratos (Thombal, 2020). Em outros, esses abusos incluem novos conceitos ou terminologias, como “impedimento ou discriminação injusta” e “exigir vantagens sem justificativa objetiva” (Glöckner, 2019).
O que é fundamental notar é que, em todos esses casos, a situação de poder é definida com referência à relação específica entre duas empresas e, portanto, sem referência direta ao poder dessas duas empresas no mercado em geral. No entanto, alguns elementos que contribuem para a determinação do âmbito de proteção contra o abuso de poder de mercado relativo podem ser considerados, pelo menos indiretamente, relacionados com o sucesso relativo no mercado dessas empresas: por exemplo, as noções de “suficiente” e “suficiente” possibilidades razoáveis” de mudança são evidentemente informadas por considerações de mercado, embora a primeira seja geralmente interpretada de forma objetiva, e a segunda da perspectiva da suposta vítima de abuso (Feteira 2016).
A jurisprudência tem estabelecido um conjunto de fatores relevantes para estabelecer a existência de dependência económica, nomeadamente no setor alimentar (Lianos & Lombardi 2016), que incluem a existência de vias de distribuição alternativas ou vias de produção alternativas, a importância de um produto para o varejista, força da marca e existência de poder de compra agregado. Com base nesses fatores, quatro tipos de relacionamentos foram identificados:
a) dependência baseada em sortimento, se o produto da outra parte for considerado como um bem de estoque devido à sua notoriedade ou popularidade;
b) dependência baseada na escassez, se a outra parte for uma das raras fontes onde o bem pode ser encontrado;
c) dependência baseada na procura, se o insumo ou recurso da outra parte for de importância significativa no volume de negócios da empresa;
d) dependência baseada em relacionamento comercial, se o investimento da outra parte no relacionamento tiver sido significativo.
A estas categorias tradicionais importa acrescentar a introduzida pela 10ª Emenda à Lei da Concorrência Alemã, clarificando que “a dependência também pode advir do facto de uma empresa depender do acesso a dados controlados por outra empresa para as suas próprias atividades” (§20, 1a). Além disso, a Emenda reconhece explicitamente o papel do poder de intermediação como um tipo de poder relacionado à importância das plataformas como intermediárias para o acesso aos mercados de vendas e compras (Schweitzer et al. 2019). Isso corrobora a visão de que, embora a dependência econômica seja uma questão de poder de mercado generalizável, ela é particularmente proeminente nos mercados digitais devido à importância que certas plataformas ou sites adquiriram como canais de comunicação e comércio.
Uma terceira forma de manifestação de poder é a utilização do acesso superior aos dados como forma de erigir obstáculos à concorrência em determinado mercado. Isso se refere ao uso de dados para pelo menos dois propósitos diferentes: primeiro, como entrada para construir e treinar algoritmos; e segundo, como um ativo que pode ser explorado para oferecer produtos e serviços direcionados.
A primeira questão é aquela que deu origem a uma discussão substancial tanto na literatura acadêmica quanto na prática jurídica. A orientação mais confiável sobre este assunto foi fornecida por um Estudo Conjunto do Bundeskartellamt e da Autorité de la Concurrence francesa intitulado “Direito da Concorrência e Dados” (BKA & AdC, 2016), que parte da distinção entre voluntário, observado e inferido dados (OCDE, 2013) para identificar duas macrocategorias: dados primários e dados de terceiros. Embora dados de terceiros possam estar disponíveis para enriquecer o conjunto de dados de empresas que não desfrutam da vantagem dos dados primários, a dificuldade de atingir a quantidade e a qualidade dos dados nas mãos de players estabelecidos deve ser reconhecida. Se essa dificuldade realmente afetar a capacidade dos novos entrantes de obter acesso a um grande volume ou variedade de dados importantes para garantir a competitividade no mercado, isso pode criar uma situação de poder de mercado.
Mas tanto o Relatório Franco-Alemão quanto o documento da Comissão de Concorrência da África do Sul (Competition Commission of South Africa, 2020), bem como vários outros comentaristas (por exemplo, Rubinfield & Gal, 2017), reconhecem que tal competitividade é uma questão específica do contexto , a ser respondida caso a caso.
Uma maneira pela qual essa determinação pode ser feita é referindo-se às quatro características relevantes de big data: a variedade de dados que compõem o conjunto de dados; a velocidade com que os dados são coletados (velocidade); o tamanho do conjunto de dados (volume); e a relevância econômica (valor).
Outra abordagem foi avançada pelo Relatório sobre “Big Data and Competition” entregue ao Ministério Holandês de Assuntos Econômicos (Van Tjl et al 2017), que leva em consideração um conjunto mais amplo de fatores para determinar se o big data pode conferir uma vantagem econômica . Enquanto um, relacionado à disponibilidade de um modelo de negócios (não baseado em dados), está negativamente correlacionado com o poder de mercado, os quatro critérios restantes têm uma correlação positiva: a disponibilidade exclusiva de tais dados para uma empresa, sua capacidade de gerar efeitos de aprendizagem que podem ser usados para melhorar um produto ou serviço, seu uso para reunir diferentes tipos de usuários em uma plataforma e a disponibilidade da empresa em questão de ativos complementares aos dados. Além disso, ao fazer essa avaliação, parece relevante entender o escopo de um conjunto de dados não apenas em relação à sua simpatia por outros, mas também em termos de quantos domínios diferentes um único conjunto de dados pode fornecer informações (Lianos & Carballa Smichowski, 2021 ).
Referências bibliográficas
BKA & ADC, “Competition Law and Data” (2016).
COMPETITION COMMISSION OF SOUTH AFRICA, Competition In the Digital Economy (7 September 2020)
JACOBIDES, M. G., LIANOS, I., “Ecosystems and competition law in theory and practice” (2021) Industrial and Corporate Change, October 30 (5): 1199-1229. Available at SSRN: https://ssrn.com/abstract=3772366 or http://dx.doi.org/10.2139/ssrn.3772366.
LIANOS, I.; SMICHOWSKI, B. C., Economic Power and New Business Models in Competition Law and Economics: Ontology and New Metrics (March 15, 2021). Available at SSRN: https://ssrn.com/abstract=3818943 or http://dx.doi.org/10.2139/ssrn.3818943
VAN TJL, H., VAN GORP, N., PRICE, K. “Big Data and Competition”, Report for the Dutch Ministry of Economic Affairs (June 2017), at ttps://zoek.officielebekendmakingen.nl/blg-813928.pdf
ZINGALES N., FARANI, P., A aplicação do direito antitruste em ecossistemas digitais: desafios e propostas (Editora FGV, 2022), disponível em formato aberto em https://bibliotecadigital.fgv.br/dspace/handle/10438/32889
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 21:04
Os critérios (i) e (iii) são sem dúvida muito importantes na delimitação das entidades que deveriam ser oneradas com obrigações decorrentes de uma regulação assimétrica, com base no poder de mercado, que constitui um elemento essencial para a análise da maior parte de condutas e estruturas do ponto de vista do direito concorrencial. Contudo, existem divergências acerca das métricas utilizadas para medir tal poder, inclusive sobre a utilização desses critérios. De fato, a participação de mercado é apenas um dos elementos utilizados para se definir a existência de poder de mercado. A fim de ilustração, lembra-se que a autoridade de concorrência brasileira identificou, dentre alguns indicadores da existência de posição dominante, o número de transações, número de downloads de um aplicativo de software, número de usuários ativos, número de visitas à web e número de cliques. De forma mais geral, pode-se usar as seguintes métricas alternativas para participação no mercado: participação na quantidade de ativos produtivos (em termos de participação na quantidade vendida, na quantidade comprada ou na quantidade produzida), participação na capacidade (em termos de capacidade total ou capacidade disponível), participação na receita total do mercado, participação de força de trabalho e participação no numero de consumidores. Em todos esses casos, além desse fator básico dever-se-ia considerar eventuais barreiras à entrada que limitem a capacidade de outras empresas concorrer efetivamente no mesmo mercado, e a capacidade dos consumidores reagirem a um eventual exercício do poder de mercado pelo agente sob análise.
Tradicionalmente, o poder de mercado é avaliado com base na capacidade da empresa de aumentar os preços. Embora as referências a aumentos de preços sejam frequentemente usadas como uma abreviação para uma gama mais ampla de manifestações de poder, incluindo redução de qualidade, produção, inovação ou variedade, a medição da probabilidade de aumento lucrativo de preços continua sendo um método básico para estabelecimento de poder de mercado. No entanto, este método apresenta desafios significativos nos mercados digitais, particularmente no contexto dos mercados de “preço zero”: os consumidores tendem a ver o zero como um “botão emocional” que pode levá-los a subestimar a substituibilidade de produtos concorrentes e ignorar as consequências a jusante da negociação de dados e atenção. Em teoria, uma avaliação teórica do preço poderia ser aplicada para medir a lucratividade de aumentos na coleta e uso de dados pessoais ou dos custos de atenção suportados por um consumidor em relação a um determinado bem ou serviço. No entanto, se a atenção é um bem perecível que deve ser renovado ao longo do tempo para lucrar com ela, oferecendo assim aos consumidores uma saída efetiva (HIRSCHMANN, 1970), o mesmo não se aplica necessariamente aos dados pessoais: há valor intrínseco nos dados divulgada pelos consumidores como contraprestação a uma transação comercial, e esse valor não é prejudicado pela capacidade dos usuários de interromper o uso do bem ou serviço. Além disso, a assimetria de informação afeta a capacidade dos consumidores de avaliar o valor do que estão negociando. Primeiro, embora a política de privacidade do fornecedor do bem ou serviço em questão possa lançar alguma luz sobre os dados coletados e seu uso pretendido, eles geralmente estão longe de ser descrições completas e detalhadas; além disso, compreender o conteúdo dessas descrições pressupõe uma quantidade significativa de tempo e nível de especialização que simplesmente não estão disponíveis para o consumidor médio (Mc Donald & Cranor, 2008; Pew Research, 2019). Em segundo lugar, embora os dados sejam por natureza replicáveis, os consumidores geralmente não têm o maquinário para rastrear sua pegada digital. Como resultado, eles acabam ignorando elementos importantes sobre dados pessoais que já estão nas mãos do provedor e, portanto, o benefício adicional (ou prejuízo) de quaisquer dados marginais que eles divulgam. Por fim, na perspectiva do provedor, dados os efeitos indiretos de rede, é preciso levar em consideração os efeitos dos aumentos de preços do outro lado da plataforma. Isso significa que a introdução de taxas de usuário pode desacelerar o crescimento de uma plataforma e, portanto, é apenas estratégico fazê-lo quando grupos de usuários suficientemente grandes já foram alcançados (BKA, 2016).
Por todas essas razões, a confiança nos indicadores baseados em lucro (como o Índice de Lerner) e na métrica tradicional de participação de mercado está repleta de complexidades em um contexto de preço zero. O fato das quotas de mercado não serem necessariamente indicativas de poder de mercado é agora amplamente reconhecido (por exemplo, Comité da Concorrência da OCDE, 1996; AdC, 2018; CERRE, 2019), especialmente quando se trata de setores de rápido crescimento caracterizados por ciclos de inovação curtos. Algumas autoridades enfatizaram a importância de critérios alternativos ao volume de negócios, ou seja, critérios baseados no usuário e no volume, como o número de usuários registrados, de usuários ativos mensais ou diários, de visitas ou referências a páginas, de usuários logados, de úmero de uploads/vídeos vistos e de número de buscas (Lancieri & Sakowski 2020), ou ainda em recursos financeiros e condições técnicas do operador econômico (SAMR, 2021). Outros colocaram mais ênfase na inovação, sugerindo que a avaliação do poder de mercado deveria se concentrar na capacidade de “minar a inovação por meio do controle de recursos-chave, pontos de acesso críticos, visibilidade, informações, etc.” (CNN Num 2014). Esta sugestão é sensata tendo em conta que o valor estratégico para um participante num mercado digital, particularmente no contexto de plataformas e ecossistemas baseados em plataformas, pode não estar nem no volume de negócios nem no número de utilizadores (Jacobides et al, 2019).
Referências bibliográficas
AdC, “Ecossistemas digitais, Big Data e Algoritmos” Issues Paper (2018) at http://www.concorrencia.pt/vPT/Estudos_e_Publicacoes/Estudos_Economicos/Outros/Documents/Ecossistemas%20digitais,%20Big%20Data%20e%20Algoritmos.pdf
BKA (2016), Working Paper. The Market Power of Platforms and Networks. Executive Summary (June 2016)
CERRE, Market Definition and Market Power in the Platform Economy (2019) at https://cerre.eu/wp-content/uploads/2020/05/report_cerre_market_definition_market_power_platform_economy.pdf
CNN NUM., Platform Neutrality: Building an open and sustainable digital environment (13.06.2014)
CRANE, D. A., Ecosystem Competition and the Antitrust Laws, 98 Neb. L. Rev. 412 (2019).
HIRSCHMANN, A., Exit, Voice, and Loyalty: Responses to Decline in Firms, Organizations, and States (Harvard University Press 1970).
JACOBIDES, M. G.; SUNDARARAJAN, A.; ALSTYNE, M. V., Platforms and Ecosystems: Enabling the Digital Economy (World Economic Forum, February 2019).
LANCIERI, F. and SAKOWSKI, P., Competition in Digital Markets: A Review of Expert Reports (January 30, 2021). 26 Stan. J.L. Bus. & Fin. 65 (2021), Available at SSRN: https://ssrn.com/abstract=3681322
OECD COMPETITION COMMITTEE (1996), “Application of Competition Policy to High Tech Markets”, at https://www.oecd.org/daf/competition/abuse/1920091.pdf
SAMR, Guidelines for Anti-monopoly in the Platform Economy (2021).
MC DONALD, A.; CRANOR, L. F., The Cost of Reading Privacy Policies. A Journal of Law and Policy for the Information Society, vol. 4, no. 3 (2008), 543-568.
PEW RESEARCH (2019), “Americans’ attitudes and experiences with privacy policies and laws” - Marcelo Cotta 16/07/2023 às 17:35A TELEFÔNICA BRASIL S.A., Prestadora de diversos serviços de telecomunicações, doravante denominada apenas TELEFÔNICA, parabeniza o Comitê Gestor da Internet no Brasil (CGI.br) pela promoção desta Consulta Pública.
Primeiramente, faz-se necessário pontuar que esta Prestadora sempre preza por ser propositiva nos temas sobre uso da internet. Nesse sentido, é importante destacar o relevante papel do CGI.br na articulação de medidas e ações para constituição de um arcabouço normativo e regulamentar que suporte o pleno desenvolvimento das atividades inerentes à Internet no Brasil.
A proposta da Consulta Pública sobre Regulação das Plataformas Digitais é de suma importância para dar continuidade à implementação de mecanismos de proteção aos usuários da internet. Entretanto, esta Consulta abre também a oportunidade de se debater mecanismo para além do estabelecimento da proteção da privacidade dos indivíduos e da utilização indevida de seus dados pessoais. Deve-se buscar igualmente a criação de medidas que protejam a livre concorrência e que evitem os riscos sistêmicos que as atividades das Plataformas Digitais podem acarretar à economia, alguns inclusive já identificados e que serão objeto da presente contribuição, e que, por consequência, alcançam a sociedade brasileira como um todo.
Nesse sentido, a TELEFÔNICA entende que, diante da necessária constituição de legislações e regulações sobre o modelo de negócio dos atores do ecossistema digital, especificamente as Plataformas Digitais, é de suma importância o processo de mapeamento das falhas de mercado, a identificação dos danos causados por elas e os riscos que afetam as estruturas de mercado nas quais estão inseridas as Prestadoras de serviços de Telecomunicações, as Plataformas Digitais e os usuários finais, de modo que seja possível a construção de normativos que mitiguem tais falhas e reequilibrem os mercados constantes do ecossistema digital.
I. Ecossistema Digital: mercado de dois lados e sua metodologia de precificação
O desenvolvimento da economia digital ocorreu sob a estrutura de mercado de plataformas, que, segundo a teoria econômica, pode ser compreendido como um mercado representado por empresas intermediadoras do relacionamento entre dois tipos de usuários distintos, isto é, um mercado de dois lados. Entretanto, com a evolução deste mercado, a partir da adoção de novas tecnologias, os parâmetros de negociação ampliaram-se ao ponto de que estas plataformas passaram a ofertar mais de um tipo de produto e/ou serviço, culminando em uma dinâmica de mercado multilateral.
Os mercados de dois lados são modelos econômicos nos quais há interação entre dois grupos distintos de agentes econômicos que se beneficiam mutuamente por meio de uma plataforma intermediária. Tais mercados são caracterizados pela presença de dois lados ou grupos de usuários interdependentes, em que cada um deles depende da presença do outro para obter valor da plataforma. Um lado é composto pelos fornecedores de um produto ou serviço, enquanto o outro lado é composto pelos consumidores ou usuários desse produto ou serviço.
Nesse sentido, vale destacar que a plataforma atua como um intermediário facilitador da interação entre esses dois grupos de usuários, gerando valor ao reunir os dois lados e permitir que eles se encontrem e realizem transações. Essa interdependência gera um efeito de rede, no qual quanto maior é a quantidade de usuários acessando, maior será a demanda e o valor agregado do produto ou serviço ofertado, o que acaba possibilitando maiores ganhos de escala.
Esse tipo de mercado pode ser encontrado em várias indústrias do ecossistema digital, como transporte (Uber, 99), hospedagem (Airbnb), e-commerce (Amazon), redes sociais (Facebook) e muitos outros mercados tradicionais como o de pagamentos (ex.: cartões de crédito) e, ainda, o caso do próprio mercado de telecomunicações, conforme será descrito nos parágrafos seguintes.
Contudo, segundo estudos recentes da TELEFÔNICA [1], mesmo o setor de telecomunicações estando em um mercado no qual há a intermediação de dois grupos por uma plataforma, a responsabilidade pela remuneração dos serviços da plataforma, historicamente e exclusivamente, se concentrou somente em um dos grupos, qual seja, no usuário final.
Dessa maneira, as Operadoras de telecomunicações atuam como intermediárias entre os produtores de conteúdo e os consumidores finais, gerenciando a infraestrutura e oferecendo serviços de telefonia, internet e televisão aos usuários. Entretanto, com o surgimento e o crescimento das Plataformas Digitais, a dinâmica mudou. Nos últimos anos, esta situação tem se tornado crítica, uma vez que, diferentemente do modelo tradicional de serviços baseados em voz, o crescimento no tráfego de dados vem sendo impulsionado principalmente por conteúdos gerados/distribuídos massivamente pelas Plataformas Digitais (aplicativos de mensagens, serviços de streaming de vídeo, redes sociais e lojas virtuais, dentre outros – conceito Over The Top - OTT). Isso resultou em uma interdependência entre as Operadoras de telecomunicações e as Plataformas Digitais. Por um lado, as Operadoras de telecomunicações precisam fornecer uma infraestrutura confiável e de alta velocidade para atender às demandas das Plataformas Digitais e seus usuários. Por outro lado, as Plataformas Digitais dependem das Operadoras de telecomunicações para garantir a conectividade e o acesso dos usuários aos seus serviços.
A existência, até o presente momento, de um modelo econômico de remuneração dos serviços de telecomunicações apenas pelos usuários não deve representar óbice para a evolução para uma precificação bilateral do tráfego de internet, pois os mercados não são estruturalmente unilaterais ou bilaterais.
A evolução da atuação das Plataformas Digitais mudou a forma com que as Operadoras de Telecomunicações gerenciam seus modelos de negócios. Hoje, elas dependem, principalmente, da receita gerada pelos serviços de telefonia e dados/acesso à internet. Porém, com a atual tendência de crescimento da economia digital, o modelo de precificação unilateral dos pacotes de dados, fixos e móveis, não é mais suficiente para arcar com os custos de investimentos e de manutenção da infraestrutura de rede necessários para suportar a elevada demanda pelo consumidor por conteúdos produzidos pelas Plataformas. Por outro lado, a maior parte da cadeia de valor do ecossistema digital está sendo gerada pelo tráfego de dados proveniente dessas Plataformas, que não pagam pelo acesso à internet e pelo uso das redes das Operadoras de Telecom – transporte do tráfego de dados que são gerados através da rede fixa ou móvel das Operadoras até os usuários finais.
Tal situação de aumento de tráfego deve continuar nos próximos anos segundo previsões de mercado, originadas principalmente pelo aumento da demanda da qualidade dos serviços de streaming (ex.: transmissão em 4K, 8K, etc) e também pelo surgimento de novas aplicações relacionadas a realidade virtual, Metaverso, entre outras de baixa latência que exigirão um volume maior de investimentos para aumento da capacidade em redes fixas e móveis.
É a partir desta ótica que serão desenvolvidas as demais contribuições à presente Consulta.
II. Modelos de negócios das Plataformas Digitais: Aspectos concorrenciais e falhas de mercado
A partir do que foi exposto no tópico anterior, é importante destacar que existe uma correlação direta entre o avanço das Plataformas Digitais, especialmente os serviços de streaming, e o aumento da demanda por infraestrutura de internet de alta capacidade, o que, em última análise, conforme será exposto, gera um cenário de falha de mercado que carece de atenção/regulação.
Contudo, antes de avaliarmos o impacto para o setor de telecomunicações, em específico sobre o desequilíbrio do mercado provocado pelas grandes Plataformas Digitais, vale destacar quais seriam estas falhas e os possíveis mecanismos de mitigação que estão sendo analisados no mundo.
Atualmente, ao considerarmos as regulações existentes sobre proteção contra condutas adversas produzidas pelas Plataformas Digitais, elas viabilizam o estímulo ao tratamento justo e não discriminatório no relacionamento com outras empresas. Para isto, a Comissão Europeia na Lei de Mercados Digitais (DMA) [3] estabeleceu como ações: regular o acesso das empresas, desenhar interfaces das apresentações dos produtos e serviços e dos sistemas de notas e reviews, determinar as APIs que podem ser acessadas, etc.
Tal regulação europeia também estabeleceu critérios rigorosos para classificar as grandes Plataformas Digitais como Gatekeepers (controladoras de acesso) com o objetivo de combater práticas anticoncorrenciais e de permitir a maior diversidade de escolha de produtos e serviços, a preços mais acessíveis, pelos consumidores.
Mesmo que o poder das Plataformas Digitais ocorra pela dificuldade em se aplicar remédios anticoncorrenciais, devido à dinâmica peculiar do mercado digital e a ineficiência da utilização de mecanismos aplicados ao mercado tradicional, a falta de transparência e a complexidade destas empresas normalmente impedem que tais condutas sejam efetivamente revistas por reguladores antitruste. Dessa forma, assim como observado no DMA da União Europeia, eventual regulação a ser criada no Brasil deveria impedir o abuso sobre empresas e consumidores por meio da adoção de práticas que:
a) Assegurem que o mercado digital permaneça competitivo;
b) Possibilitem o compartilhamento da base de dados com outras empresas;
c) Promovam a interoperabilidade;
d) Limitem a exploração de vieses e tendências comportamentais dos consumidores; e
e) Proíbam “self-preferencing”
Conforme estabelecido na União Europeia, as propostas que estão sendo discutidas sobre a regulação assimétrica das Plataformas Digitais se dão a partir da segmentação do objetivo da regulação, do tipo de serviço, do faturamento e da quantidade de usuários. Porém, sob o aspecto concorrencial, que atualmente está atrelado à criação de Bigdatas e mecanismos de retenção dos usuários, o DMA estabelece obrigações regulatórias somente aos Gatekeepers que detêm um poder significativo em um determinado mercado digital. Para ser considerada com Poder de Mercado Significativo (PMS), a empresa deverá:
a) Ter atividade econômica em mais de três países da União Europeia;
b) Ter uma posição econômica forte, isto é, possuir um volume de negócios anual de pelo menos 7,5 bilhões de Euros na União Europeia ou uma avaliação de mercado de, pelo menos, 75 bilhões de Euros;
c) Ter posição de intermediação forte, deverá ter, pelo menos, 10% da população da União Europeia como usuários finais mensais, o que representaria hoje 45 milhões de consumidores, e, pelo menos 10 mil usuários/empresas anuais;
d) Ter posição consolidada no mercado europeu, isto é, deter pelo menos, nos últimos três anos, os critérios de poder econômico e de intermediação.
Nesse sentido, vale ainda destacar que o elevado poder de mercado dessas empresas acaba por proporcionar uma alta capacidade de manipulação frente aos usuários, pois, para sustentar a geração de valor e a alta rentabilidade de seus negócios, desenvolvem soluções para manter o engajamento e o maior tempo de tela possível. O maior desafio para a regulação das atividades e dos conteúdos disponibilizados pelas Plataformas Digitais está no fato de que a utilização e o acesso das Plataformas estão conectados às relações sociais e despertam a dependência do uso pelos consumidores.
Tal perspectiva traz a reboque a necessidade de reduzir tais práticas deletérias das Plataformas Digitais e discussões públicas sobre o tema não são uma peculiaridade brasileira. Na União Europeia já há a Lei de Serviços Digitais (DSA) [4] que tem como objetivo: atenuar a manipulação e a desinformação, diminuir a exposição do consumidor a conteúdos ilegais, garantir a proteção dos direitos fundamentais e aumentar a transparência. Tal preocupação vai além da esfera anticoncorrencial, pois estas condutas afetam o bem-estar dos consumidores.
Por fim, junte-se a todo o anteriormente exposto, o fato de que as Operadoras, por força da regulamentação vigente, não podem degradar e nem negar o fornecimento do serviço de acesso à internet às Plataformas, o que as obriga a fazerem grandes investimentos para satisfazer a demanda, mantendo e, até mesmo, aumentando a qualidade, e seguir prestando o serviço de transporte de dados independentemente de não haver a devida remuneração por parte das Plataformas, limitando a capacidade negocial das Operadoras. Consequentemente, quanto melhor a qualidade do acesso à internet, maior será o incentivo para as Plataformas gerarem conteúdos, criando um ciclo de investimentos para ampliação da capacidade de rede que onera por demais as Operadoras devido não receberem receitas adicionais. Assim, o atual avanço das atividades das Plataformas compromete a qualidade e a estabilidade da internet, na medida em que utilizam a infraestrutura de rede de forma massiva e concentrada sem remunerar as Operadoras de telecomunicações.
Dessa maneira, pensando em um cenário agravado pelo uso cada vez mais ostensivo de recursos das redes de telecomunicações em que o mercado não consegue, naturalmente, superar tais externalidades, faz-se necessária uma atuação regulatória-concorrencial que as enderece. É o que traremos no próximo tópico.
III. Impacto das falhas de mercado na prestação de serviço de acesso à internet: Regulação para tratamento justo e não discriminatório (remuneração pelo uso da rede)
O crescente consumo de serviços de streaming, como vídeo, música e jogos online, requer capacidade de infraestrutura de rede significativa para transmitir os dados necessários aos usuários finais. Com o aumento da popularidade dos serviços de streaming, a quantidade de dados transmitidos pela internet aumentou substancialmente. O streaming de vídeo em alta definição (HD) e ultra alta definição (UHD), o maior número de usuários desses serviços e o incremento das horas de uso, por exemplo, requer uma capacidade considerável para entregar uma experiência de visualização de qualidade diferenciada. Além disso, o surgimento de novas tecnologias e serviços de streaming ao vivo, plataformas de jogos em nuvem, realidade virtual (VR/AR), Metaverso e IA também contribuirá para o crescimento do tráfego e aumento da demanda a médio prazo.
Essa demanda crescente por capacidade de rede tem pressionado as redes dos provedores de serviço de internet (ISPs ), que precisam expandir e atualizar suas infraestruturas para atender à demanda por velocidades de conexão mais altas e maior capacidade de dados.
É dizer, há uma necessidade exponencialmente progressiva por parte das Prestadoras de serviços de telecomunicações em investirem na expansão e aumento de capacidade de suas redes de modo a garantir que possam fornecer conexões estáveis e de alta velocidade aos usuários dos serviços ofertados pelas Plataformas.
Em resumo, o avanço das Plataformas Digitais, especialmente os serviços de streaming, tem gerado um aumento significativo na demanda por infraestrutura de internet de alta capacidade, o que, consequentemente, pressiona os provedores de serviço de internet a atualizarem as suas redes para atenderem i) a necessidade crescente de capacidade de rede, e ii) as normas, as quais as Prestadoras de telecomunicações estão sujeitas, que dispõem, principalmente, sobre qualidade de rede.
Nesse contexto, verifica-se também a ausência de justa contribuição das Plataformas Digitais pela utilização das redes de telecomunicações, tendo em vista que os custos da prestação do serviço são sensíveis, aumentando à medida que o tráfego de conteúdos na internet cresce, e, por outro lado, as receitas são restritas apenas ao aumento da base de assinantes.
Estudo da Oliver Wyman [5] considerando as 100 (cem) maiores operações de telecomunicações no mundo, indica que, entre os anos de 2012 e 2021, as receitas dessas empresas tiveram um crescimento abaixo da inflação, ao ponto de restringir a disponibilidade de recursos para investimentos em infraestrutura. No momento, as empresas buscam implantar soluções voltadas a incrementar sua eficiência operacional. Contudo, é notória a existência de fatores limitantes no que tange ao potencial de redução dos custos operacionais, como pressões de cunho competitivo, bem como a necessidade de atendimento às normas legais e regulamentações aplicáveis à sua operação.
A falha de mercado a que se remeteu no tópico anterior, resultante do desequilíbrio entre o aumento constante do uso das redes das Prestadoras de telecomunicações e as limitações para sustentabilidade de suas receitas, é um desafio significativo que requer uma solução equitativa, que permita a justa remuneração pelo uso da rede das Prestadoras de serviços de telecomunicações.
Defender mecanismos de contribuição para a sustentabilidade mediante o pagamento pelas Plataformas Digitais pelos serviços que recebem, com o fito de equilibrar o ônus financeiro das Prestadoras de serviços de telecomunicações com a geração de receitas justas e equivalente ao uso de suas redes pelas Plataformas Digitais, é dizer que, ao garantir uma compensação adequada, as Prestadoras teriam recursos para investir na expansão e atualização de suas redes, mantendo a infraestrutura necessária para atender à demanda crescente de serviços digitais.
Além disso, é necessário considerar as diferentes características do mercado digital e as especificidades dos diversos tipos de serviços online. Por exemplo, serviços de streaming de vídeo ou redes sociais consomem uma quantidade significativa de capacidade de rede, enquanto outros serviços, como streaming de música ou ferramentas de mensageria, podem não ter o mesmo impacto. Portanto, uma abordagem diferenciada pode ser necessária, levando em conta a natureza e o impacto do serviço online na infraestrutura de rede.
Tal processo deve ser conduzido com transparência, buscando um consenso sobre o alcance, os mecanismos e âmbito de implementação. É importante garantir que a solução adotada não desencoraje a inovação e a competição, mas sim promova um ambiente equilibrado e sustentável para todas as partes envolvidas.
Em resumo, trata-se de resposta necessária à falha de mercado anteriormente apontada, mediante atuação regulatória que potencialize diálogo colaborativo entre todas as partes interessadas, de modo a se alcançar solução que promova uma compensação justa e proporcional pelo uso da infraestrutura de rede, criando um ambiente saudável para o crescimento das Plataformas Digitais e das Prestadoras de serviços de telecomunicações e favorecendo o desenvolvimento dos mercados que constituem o ecossistema digital.
IV. Conclusões
Diante de todo o exposto, a TELEFÔNICA entende que a Consulta Pública em questão é de extrema importância para a construção de normativas que equilibrem o mercado digital, tendo em vista que o crescimento exponencial do uso das redes de telecomunicações pelas Plataformas Digitais tem pressionado as Prestadoras a lidar com necessidade de constantes e elevados investimentos em infraestrutura, em contrapartida a um cenário de limitação para captura de novas receitas, podendo afetar negativamente um dos elos essenciais da cadeia de valor do mercado digital e colocando em risco a sustentabilidade dos investimentos em infraestrutura de rede das Operadoras de telecomunicações.
Para lidar com essa disparidade, a implementação de um modelo que proporcione a negociação célere entre as Plataformas Digitais e as Operadoras de telecomunicações se mostra uma abordagem necessária no sentido de buscar garantir uma compensação justa pelo uso da infraestrutura de rede das Operadoras de telecomunicações pelas Plataformas Digitais. No entanto, a implementação desse modelo requer um diálogo colaborativo entre todas as partes interessadas, levando em consideração as características do mercado digital e buscando um equilíbrio entre inovação, crescimento das Plataformas Digitais e sustentabilidade das Prestadoras de serviços de telecomunicações. Dessa forma, é possível promover um ambiente saudável e equilibrado para o desenvolvimento do ecossistema digital como um todo, garantindo a livre concorrência e impedindo que a estrutura de modelo de negócio das Plataformas tenha impacto negativo na prestação do serviço das Operadoras de telecomunicações.
[1] TELEFÔNICA (2023), ¿Quién decide el número de caras del mercado?
https://www.telefonica.com/es/sala-comunicacion/blog/quien-decide-el-numero-de-caras-del-mercado/
[2] Silva, Guilherme (2022), Diversificação nas plataformas digitais: um estudo de caso para Google e Facebook
https://www.anpec.org.br/sul/2022/submissao/files_I/i7-48b8e715d6ba18b9e1738759439136fe.pdf
[3] Comissão Europeia (2022), Regulamento dos Mercados Digitais
https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-markets-act-ensuring-fair-and-open-digital-markets_pt
[4] Comissão Europeia (2022), Regulamentação dos Serviços Digitais
https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable-online-environment_pt
[5] OliverWyman (2023), Growth beyond connectivity - The six most valuable assets for telecom carriers
https://www.oliverwyman.com/our-expertise/insights/2023/jun/how-telcom-operators-can-rebuild-future.html?utm_campaign=organic-social&utm_content=1686927657&utm_medium=social&utm_source=linkedin - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 13:59Quanto ao objetivo de determinar que plataformas devem ser sujeitas aos altos custos da regulação, o critério de quantidade de usuários brasileiros parece ser mais adequado do que os critérios de valor de mercado, faturamento ou market share, por algumas razões:
Primeiro, porque o maior número de usuários, em geral, possui correlação direta com o maior poder econômico da plataforma, o que permite que essas arquem com os custos decorrentes da conformidade com a regulação.
Segundo, porque o maior número de usuários também tem correlação com o maior risco a direitos e a instituições brasileiras, já que mais usuários poderão ser afetados pela moderação ou entrar em contato com conteúdo nocivo, como desinformação.
Terceiro, porque o maior número de usuários brasileiros também traz uma percepção de maior legitimidade para a regulação, que inevitavelmente abrangerá plataformas sediadas em outros países e que podem alegar não serem sujeitas à jurisdição brasileira.
Ainda que outros critérios, como valor de mercado e faturamento, possam servir para determinar a capacidade da plataforma de arcar com os custos da regulação, o critério de número de usuários brasileiros resolve este e outros problemas de forma simultânea.
Quanto ao objetivo de classificar os tipos de modelo de negócio, reitera-se aquilo que foi apontado no item 2 desta consulta, sendo essencial que haja regulação assimétrica para diferentes tipos de serviço. - LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 12:551. A Participação de mercado (ou market share) pode ser definida como um indicador de mercado que corresponde à relevância da plataforma no setor em que atua. Insta destacar que a definição de mercados relevantes é desafiada pela natureza multifacetada das plataformas digitais. Nesse sentido, é importante definir quais são os limites dos mercados sobre os quais será desenvolvida a análise de efeitos. (Fernandes, 2022).
2. O critério de valor de mercado leva em consideração o valor percebido de uma plataforma no mercado, influenciado pela Lei da Oferta e Demanda, refletindo o desempenho da empresa e sua posição no mercado em relação aos concorrentes. O faturamento, por sua vez, representa a soma do valor arrecadado pela empresa, a partir do exercício de sua atividade comercial, em um determinado período de tempo.
3. O critério de quantidade de usuários e clientes é importante para avaliar e medir o impacto que uma plataforma exerce sobre a população. Essa métrica fornece insights valiosos sobre a penetração e alcance da plataforma, indicando seu nível de influência.
4. Serviço essencial de plataforma. É notória a importância que as plataformas digitais ganharam na atualidade, exercendo um papel significativo na economia e na sociedade. Um serviço essencial de plataforma pode ser uma plataforma digital relevante para o país, que permita seus usuários acessarem serviços digitais, tais como redes sociais, motores de busca, marketplaces, plataformas de compartilhamento de conteúdo e outros. A natureza dos serviços prestados deve ser um dos principais critérios para aferir se uma plataforma se enquadra na categoria. Além disso, reconhecer determinados serviços das plataformas digitais como essenciais deve impactar diretamente a forma que tais empresas são responsabilizadas. Na regulação brasileira, também é importante conferir tratamento diferenciado para os serviços que não visam fins comerciais, como os projetos colaborativos.
5. Controle essencial de acesso (gatekeeper). Do ponto de vista concorrencial, é uma categoria interessante a fim de ser utilizada para classificar as plataformas digitais. Pode ser considerado "gatekeeper" um serviço essencial de plataforma que possui uma posição dominante no mercado e exerce controle significativo sobre o acesso de outras empresas ou usuários a determinados serviços ou recursos. Tais empresas podem influenciar as condições de mercado e impor regras que afetam a concorrência e o acesso justo a oportunidades comerciais.
6. Tipos de serviços. Não se pode equiparar uma plataforma que oferece jogos online com uma plataforma que garante atendimento médico 24 horas por dia, por exemplo. Além dos serviços oferecidos possuírem diferentes graus de importância, os riscos associados e o potencial de impacto negativo em titulares de dados também é muito discrepante. Em específico, é preciso considerar que determinadas plataformas atuam com diferentes posições no direito do trabalho e que a ausência de regulação tem permitido a precarização de trabalhadores por meio das plataformas.
FERNANDES, Victor. 1.Definição de Mercados Relevantes em Plataformas Digitais In: FERNANDES, Victor. Direito da Concorrência das Plataformas Digitais - Ed. 2022. São Paulo: Revista dos Tribunais. 2022.
SETO, Kenzo Soares. Regulação de Plataformas Digitais: uma revisão sistemática de literatura. Revista EPTIC - Dossiê Temático Concentração na Internet e regulação, [s.l.], v. 23 n. 3, dez. 2021.
UNIÃO EUROPEIA. Alterações aprovadas pelo Parlamento Europeu, em 15 de dezembro de 2021, sobre a proposta de regulamento do Parlamento Europeu e do Conselho relativo à disputabilidade e equidade dos mercados no setor digital (Regulamento Mercados Digitais) (COM(2020)0842 – C9-0419/2020 – 2020/0374(COD)). 2021. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-9-2021-0499_PT.html. Acesso em: 10 jul. 2023.
CONTRI, Camila Leite; SECAF, Helena; ZANATTA, Rafael. A regulação de plataformas digitais já é realidade. O Digital Markets Act está para ser aprovado na União Europeia e deve impactar outras jurisdições. Data Privacy BR Research, [s.l.], dez. 2021. Disponível em: https://www.dataprivacybr.org/a-regulacao-de-plataformas-digitais-ja-e-realidade/. Acesso em: 10 jul. 2023. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:07Não existe uma definição uniforme de “plataforma digital”, e fatores como a “participação de mercado”, “valor de mercado” e “quantidade de usuários” não conseguem, por si só, levar a conclusões úteis acerca do tipo de produto ou serviço ofertado por um determinado provedor. Da mesma forma, não existe uma definição única do que constitui “essencialidade” (em “serviço essencial de plataforma” ou “controle essencial de acesso”), tornado esse termo igualmente impreciso que levanta riscos de intervenção excessiva, uma vez que pode levar à diminuição da concorrência e dos investimentos em soluções altamente inovadoras em diferentes setores.
Na linha da atual abordagem regulatória brasileira, quaisquer fatores considerados para uma potencial regulação (caso haja) devem se basear no tipo de serviço prestado, no segmento em que o provedor opera, e principalmente, nas questões específicas que a regulação proposta se destina a resolver.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 15:14Necessidade de critérios CUMULATIVOS (por exemplo, gatekeeper e quantidade de usuários) e também ALTERNATIVOS (por exemplo, faturamento).
Em especial, é também importante ter VÁLVULAS DE ESCAPE (por exemplo, quando uma plataforma não chega a ter a quantidade de usuários em específico), especialmente devido à dinamicidade desses mercados e, portanto, a dinamicidade de preocupações que podem surgir. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 12:43Necessidade de critérios CUMULATIVOS (por exemplo, gatekeeper e quantidade de usuários) e também ALTERNATIVOS (por exemplo, faturamento).
Em especial, é também importante ter VÁLVULAS DE ESCAPE (por exemplo, quando uma plataforma não chega a ter a quantidade de usuários em específico), especialmente devido à dinamicidade desses mercados e, portanto, a dinamicidade de preocupações que podem surgir. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:00Como já esclarecido, não existe uma definição uniforme de “plataforma digital”, de modo que fatores como a “participação de mercado”, “valor de mercado” e “quantidade de usuários” não conseguem, por si só, levar a conclusões úteis acerca do tipo de produto ou serviço ofertado por um determinado provedor. Da mesma forma, não existe uma definição única do que constitui “essencialidade” (em “serviço essencial de plataforma” ou “controle essencial de acesso”), tornado esse termo igualmente impreciso, levantando riscos de intervenção excessiva, uma vez que pode levar à diminuição da concorrência e dos investimentos em soluções altamente inovadoras em diferentes setores.
Na linha da atual abordagem regulatória brasileira, quaisquer fatores considerados para uma eventual regulação devem se basear no tipo de serviço prestado, no segmento em que o provedor opera e em questões específicas que a regulação proposta se destina a resolver. - Celso Santos 10/07/2023 às 17:46Não se pode classificar sem uso de tecnologia desta forma pontuei que haja uma forma técnico científica, de algoritmo, e outros atalhos que podem burlar uma auditoria...
Não concordo com acepção de plataforma...devem ser todas nacionais e estrangeiros - Miguel Said Vieira 10/07/2023 às 16:45O percentual de mercado (em relação aos serviços oferecidos) controlado pela plataforma é critério adequado para sua classificação, analisado em conjunto aos demais.
- CEIIAS, Centro de Estudos Integrados, Infancia, Adolescencia e Saude (comentário inserido por: Evelyn Eisenstein) 03/07/2023 às 16:20Apropriadas OU NÂO para crianças e adolescentes população até 18 anos)
- Roberto Cardoso Freire da Silva 20/06/2023 às 12:141) Quanto a sua forma de monetização;
2) Quanto à sensibilidade dos dados pelos/com os quais opera;
3) Pela autonomia dos sistemas em processar resultados, independente da ação de seus projetistas - Gabriel Capellari Santos 25/04/2023 às 13:56Esses critérios podem ser utilizados para classificar as plataformas digitais de acordo com suas características e riscos potenciais, permitindo uma abordagem mais precisa e proporcional na definição de suas obrigações regulatórias. É importante notar que a combinação desses critérios pode variar de acordo com o contexto específico de cada plataforma e de cada mercado em que atua.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:15[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A participação de mercado é um indicador fundamental para classificar plataformas digitais. Este é um dos aspectos chave para definir os critérios de corte para classificar grandes plataformas, ou com poder significativo de mercado. - Rodolfo Salema 16/07/2023 às 09:53Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Participação de mercado é uma forma tradicional e útil de mapeamento e identificação de posição dominante no direito antitruste. Contudo, como destacado na contribuição à questão 2, há um entrave inicial neste critério que é a própria definição dos mercados relevantes de atuação das plataformas digitais. Alguns elementos tornam esta tarefa muito difícil: (i) alguns mercados digitais são altamente dinâmicos ou desconhecidos, de forma que uma regulação muito estrita e engessada pode se tornar desatualizada rapidamente; (ii) os mercados digitais são altamente interrelacionados, de forma que os efeitos de rede (flywheel network effects) e escala muitas vezes extrapolam os mercados relevantes e conferem posição dominante às plataformas inclusive em outros mercados nos quais a participação de mercado não é tão alta; (iii) existem fatores que podem conferir posição privilegiada/dominante a uma plataforma independentemente do market share nos mercados digitais, por exemplo, controle de infraestruturas essenciais, direitos de propriedade intelectual, contratos de longo prazo com exclusividade com fornecedores essenciais e até mesmo concessões públicas.
Nesse contexto, é importante que a regulação considere outros elementos para além de market share, tais como número de usuários, para fazer configurar a dominância. Vale mencionar que, como já dito acima, a legislação brasileira de defesa da concorrência, além de atribuir presunção relativa de posição dominante a partir de 20% de participação de mercado, também estabelece que esta posição dominante é presumida “sempre que uma empresa ou grupo de empresas for capaz de alterar unilateral ou coordenadamente as condições de mercado”. Sendo assim, há na nossa legislação espaço para a consideração de elementos outros que não market share na determinação de posição dominante dos agentes, tal como sugerido. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 10:46O critério de market share é relevante e deve ser considerado também no contexto de efeitos conglomerados.
Tratando de mercados digitais, com forte tendência ao monopólio, a participação do mercado é um fator determinante para compreender o impacto da plataforma aos usuários e na economia digital.
Para o critério de participação no mercado, é fundamental que a regulação crie mecanismos que avaliem a integração vertical e, em especial, o efeito de conglomerado dos grupos econômicos envolvidos.
O art. 36, §2º da Lei 12.529/11, estabelece que a posição de dominante pode ser presumida em relação às empresas ou grupo de empresas que controlarem 20% (vinte por cento) ou mais do mercado relevante. Ocorre que a entrada de empresas ou negócios atuantes em ecossistemas é diretamente influenciada pelos efeitos de rede diretos e indiretos das plataformas.
Ou seja, ainda que o WhatsApp Pay não detenha 20% (vinte por cento) do mercado de meios digitais de pagamento, é fundamental considerar que o WhatsApp detém 99% (noventa e nove por cento) de um mercado verticalmente relacionado, o de mensageria. Ademais, que o Meta Threads tenha surgido há pouco, deve ser considerada também a relevância do grupo econômico da Meta e também a integração dessa nova plataforma com outras, em especial o Instagram.
Há, porém, um contraponto na adoção desse critério: para utilizá-lo, seria necessário fazer uma análise da estrutura de mercado previamente à delimitação do objeto regulatório (para averiguar se a plataforma possui participação de mercado suficiente para ser enquadrada por esse critério na regulação). Isso traz camadas adicionais de complexidade para a entidade que fará esse tipo de análise (mesmo antes de analisar se há eventual tipo de ilícito, até mesmo para delimitar o objeto regulatório). Desta maneira, esse poderia ser um dos critérios, mas poderia ser acrescido de outras alternativas facilitadas para a definição do objeto regulatório (por exemplo, ter critérios que sejam alternativos). - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 15:48Tendo em vista a enorme concentração de mercado nesse setor, é importante estabelecer mecanismos que permitam a entrada de outros players no mercado, diversificando as opções para os consumidores.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 12/07/2023 às 19:50O participação de mercado pode ser definido por seu alcance local e global, sua permanência e sua capacidade de promover lucros materiais e imateriais em uma sociedade e que por sua vez acabam se retroalimentando.
- Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 16:21A participação de mercado é indicador chave para compreender o que autores vêm chamando de poder de plataforma. Contudo, a capacidade desses agentes de atuarem em diversos mercados faz com que eles desafiem a delimitação tradicional de cada um dos mercados. É por isso que a classificação deve tomar as participações de mercados específicos e também em mercados mais amplos, como os de tipos de plataformas, das plataformas como um todo e das aplicações de Internet.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:23A participação de mercado é elemento importante para demonstrar a posição das plataformas digitais em seus respectivos mercados relevantes de atuação. Na compreensão da ABRANET, a participação de mercado deve ser critério levado em conta para a definição de quais plataformas digitais se qualificam para um regime regulatório de gatekeeper, conceito que deve ser eixo da regulação ora em debate, no melhor entender da ABRANET.
Como apresentado também em outros questionamentos da presente Consulta, a Associação acredita que a regulação que se planeja deve ser assimétrica por essência, incidindo apenas sobre os agentes de mercado que detenham controle essencial de acesso. Três critérios devem ser atendidos pelo respectivo agente de mercado para que seja qualificado enquanto tal; a participação de mercado é um deles, por um período relevante. No entender da ABRANET, é preciso que a plataforma possua dominância de mercado, a qual se manifesta pela detenção de mais de 50% de participação no respectivo mercado relevante, aferida nos últimos três exercícios financeiros.
Dada a natureza dinâmica dos mercados digitais e o intenso fluxo de inovações a que os agentes que atuam nestes mercados estão sujeitos, a ABRANET entende que as presunções tradicionais do Conselho Administrativo de Defesa Econômica (“Cade”) relativamente à configuração de posição dominante (art. 36, § 2º da Lei 12.529/2011) são por demais conservadoras para serem aplicadas aos mercados digitais, não refletindo a contestabilidade desses mercados ao longo do tempo. Em verdade, a própria Organização para a Cooperação e Desenvolvimento Econômico (“OCDE”), comentando a legislação concorrencial brasileira, já apontou que o patamar em vigor no país para presumir posição dominante é baixo (OCDE. Revisões por Pares da OCDE sobre Legislação e Política da Concorrência: Brasil, 2019, p. 83). Em complemento a esse diagnóstico mais geral da OCDE, na visão da Associação os padrões de dominância de mercado relativamente à economia digital não seriam ainda cristalizados com a mesma facilidade que se verifica nos demais setores econômicos, pelo que porcentagens de mercado mais elevadas poderiam se apresentar sem que a respectiva plataforma pudesse exercer as prerrogativas de sua pretensa posição dominante. Nesse sentido, a ABRANET entende que uma posição de dominância nos mercados digitais seria melhor presumida pela detenção de, no mínimo, mais de 50% do respectivo mercado relevante.
Cabe observar que outras autoridades da concorrência mundo afora de fato presumem posição dominante de forma geral a partir de patamares mais elevados de participação de mercado do que aqueles considerados pelo Cade, em linha com o que aqui se sugere especificamente para mercados digitais. Nesse sentido, em documento de trabalho elaborado pelo Departamento de Estudos Econômicos do Cade, consta que, dentre outros, Coreia do Sul, Indonésia, União Europeia e Israel presumem posição dominante a partir de 50% de market share, sendo válido destacar que Singapura considera patamar ainda mais elevado, da ordem de 60% de participação de mercado, para a referida presunção (The problematic binary approach to the concept of dominance, 2021, p. 8). Portanto, a sugestão ora apresentada pela ABRANET está em sintonia com a prática mais geral de outras jurisdições - sendo certo que ainda existem as particularidades dos mercados digitais, acima expostas, a influenciar em favor desse entendimento atualizado sobre presunção de posição dominante, que faz uso de percentual mais elevado de market share para tanto.
Além disso, dado o caráter dinâmico dos mercados digitais, tal parcela de market share precisaria se apresentar por pelo menos os últimos três exercícios financeiros, de forma a mostrar que o estado de dominância do mercado em questão pela respectiva plataforma é minimamente estável. - Alex Camacho Castilho 06/07/2023 às 13:29Participação de mercado (market share): Esse critério se refere à fatia de mercado que uma determinada plataforma digital detém em relação aos seus concorrentes. Geralmente é medido em termos de porcentagem de participação no mercado. Uma alta participação de mercado pode indicar uma posição dominante, influência significativa sobre o setor e potencial impacto na concorrência.
- Guilherme Marques Ferri 22/06/2023 às 22:38Há de se levar em conta a venda de produtos duvidosos nesse caso no tocante a procedência do mesmo. Por exemplo : Olx, Marketshare do Facebook (...) - (FGV/EBAPE)
- Jose Vieira 19/06/2023 às 13:42É importante definir qual o mercado e objetivo desse.
Existem plataformas gigantes sem relevância e a qualquer momento podem surgir plataformas pequenas com grande impacto - Fernanda Hoffmann Lobato 01/06/2023 às 17:27Quanto maior a plataforma, maior sua influencia. No entanto, há exceções: o Twitter é apenas a décima rede em número de usuários no Brasil, atrás até do Kwai e Pinterest mas, por ser a queridinha dos jornalistas, tem um peso desproporcional na nossa mídia, que é a que ainda informa cerca de 40% da população que não tem acesso pleno à internet.
- Elaine marques 21/05/2023 às 16:44Não há razão para classificar pois uma plataforma tem sempre o objetivo de ampliar sua participação,
- Alender Max De Souza Moraes 25/04/2023 às 16:02Essa classificação é pouco relevante porque o tamanho da plataforma amplifica os danos. Uma plataforma com pouca participação de mercado pode oferecer riscos iguais ou mais elevados.
- Gabriel Capellari Santos 25/04/2023 às 13:53Este critério se refere à parcela de mercado detida por uma plataforma digital em relação ao mercado total em que atua. É um indicador importante para avaliar o poder de mercado da plataforma e, consequentemente, sua capacidade de impor condições desfavoráveis aos usuários e concorrentes.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:16[Contribuição do DiraCom - Direito à Comunicação e Democracia]
O valor de mercado e o faturamento devem ser considerados para atribuir a classificação de poder de mercado significativo e, a partir disso, delegar mais responsabilidades e atribuições. No mesmo sentido do item anterior, a aferição dessa participação deve ser periódica e considerar tanto os números relativos à holding quanto os de empresas específicas que a compõem, da forma mais desagregada possível. - Rodolfo Salema 16/07/2023 às 09:53Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Apesar de valor de faturamento ter sido escolhido tanto pela Lei de Defesa da Concorrência do Brasil quando pelo Digital Markets Act da União Europeia como um critério relevante para estabelecer quem seria objeto de regulação e controle, sua aplicação para plataformas digitais – especialmente no Brasil – pode não obter os efeitos visados.
Conforme já dito, volume de faturamento traz uma relativa estabilidade e segurança para os agentes (apesar das controvérsias nas definições de grupo econômico e de identificação da atuação/faturamento no Brasil) e pode evitar sobrecarregar as autoridades de supervisionar agentes econômicos pequenos com pouca capacidade/probabilidade/risco de se envolver em infrações relacionadas a abuso de poder econômico.
Entretanto, este critério, mesmo no âmbito de análise de atos de concentração pelo CADE, pode acabar deixando de fora diversas operações econômicas envolvendo plataformas digitais – uma vez que as sedes e as transações destas plataformas tendem a ser realizadas majoritariamente no exterior, e o faturamento no Brasil tende a ser baixo ou até mesmo zero, ainda que as plataformas sejam altamente populares entre os usuários brasileiros ou se trate de entrantes com potencial de rivalizar ou ingressar em outros mercados relacionados. Trazendo apenas alguns casos concretos que fugiram aos critérios do controle prévio de estruturas regido pela Lei nº 12.529/2011, operações econômicas relevantes envolvendo plataformas digitais, como as aquisições do Instagram e do Whatsapp pelo Grupo Facebook (Meta), a aquisição do Waze e do Youtube pelo Grupo Google (Alphabet), a aquisição da Musical.ly pelo Grupo TikTok (ByteDance), a parceria entre Facebook e Cielo no Brasil para inaugurar o Whatsapp Pay, entre outras, não foram voluntariamente submetidas às autoridades concorrenciais previamente à sua implementação.
A noção de valor de mercado, apesar de mais volátil, em combinação com outros critérios, poderia reconhecer a importância de ativos que ainda não manifestam sua relevância através de faturamento/volume de negócios, inclusive para identificar aquisições de entrantes ou concorrentes nascentes pelas plataformas já estabelecidas e dominantes no setor. Contudo, haveria um desafio em estabelecer os critérios específicos relacionados a valor de mercado. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 10:56Não é adequado considerar de forma isolada o valor de mercado ou faturamento como critério para a classificação de plataformas digitais. Trata-se de um critério relevante, mas muito dinâmico, que pode ser alterado drasticamente em um breve período, tanto com aumento do faturamento ou a redução.
Ainda, devido aos efeitos de rede e tendência ao monopólio. É possível que uma plataforma digital estrategicamente não obtenha lucro em um primeiro período para angariarem o mercado e os usuários e posteriormente, a plataforma passar a explorar de forma lucrativa os usuários.
Por exemplo: o WhatsApp não possuía faturamento suficiente no Brasil quando da sua compra pelo Facebook (Meta), a ponto deste ato de concentração não ter sido notificado no Brasil. Porém, a plataforma já possuía (i) participação de mercado relevante no Brasil e (ii) quantidade de usuários relevante. O mesmo ocorreu quando da compra do Instagram pelo Facebook. Ainda que as plataformas possam ter tido uma relevância menor antes da sua aquisição, considerando o conglomerado que integrariam é importante pensar no poder que iriam adquirir.
É necessário que se analise a insuficiência da intervenção de autoridades concorrenciais no passado para garantir uma intervenção regulatória atualizada com os aprendizados de experiências passadas. E uma das insuficiências que vem sendo estudada é justamente a fragilidade de um critério quantitativo unicamente baseado em faturamento - no caso do antitruste, para a obrigatoriedade da notificação de um ato de concentração.
Caso esse critério seja utilizado, recomenda-se que seja aliada a outros critérios alternativos. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 15:49Este critério se refere ao valor de faturamento da plataforma, importante para categorização e dimensão de tamanho delas.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 13/07/2023 às 10:30Quando vemos a grandeza dos valores de mercado das plataformas digitais temos um vislumbre do alcance daquilo que tem sido chamado de Economia de dados e como ela acontece na vida das pessoas. Nesse sentido, é preciso que haja mecanismos que tornem esses valores algo mais acessível e palpável para as pessoas que usam essas plataformas, para que possam ter em mente a relação direta entre o número de horas que gastam nesses ambientes gerando lucros para grandes empresas de tecnologia.
Em outras palavras, se considerarmos o valor de mercado de cada uma delas, qual seria o valor correspondente para cada hora despendida pelas pessoas que transitam por esses ambientes? - Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 16:23Valores de mercado são indicadores importantes, embora sujeitos a diferentes critérios e agentes avaliadores. Por isso, o valor de mercado deve ser combinado com o faturamento geral e das plataformas em seus mercados específicos para compreender seu poder econômico em cada nicho. O faturamento também deve ser tomado nos mercados delimitados geograficamente, especialmente em caso de regulações nacionais. Assim, é fundamental que reguladores disponham das informações discriminadas por países para compreender o poder de cada plataforma naquele país.
- Miguel Said Vieira 10/07/2023 às 16:48O valor de mercado ou faturamento da plataforma é critério adequado para sua classificação, e um dos mais importantes. Permite calibrar a regulação para o caso de empresas com muito poder de mercado, mas que estão começando a oferecer determinada plataforma (e que, portanto, tenha poucos usuários ou pouca participação de mercado no setor específico da plataforma).
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:26Métricas de faturamento têm sido questionadas em sua utilidade quando da aplicação para plataformas digitais. De acordo com o Conselho Administrativo de Defesa Econômica (“Cade”), um dos grandes desafios das autoridades de concorrência mundo afora é evitar que operações de concentração envolvendo plataformas digitais, e que apresentem risco concorrencial, escapem do controle acerca de seus efeitos, por não alcançarem os valores mínimos exigidos por lei, especialmente no que tange ao volume de negócios das empresas objeto de aquisição (Mercados de Plataformas Digitais, 2021, p. 8). Nesse sentido, a preocupação da autoridade concorrencial é que métricas de faturamento ou volume de negócios – empregadas para determinar, a princípio, a necessidade de notificação de determinados atos de concentração, como acontece na Lei de Defesa da Concorrência brasileira (Lei 12.529/2011, art. 88) – não consigam captar dimensões relevantes das empresas objeto de aquisição, deixando sem escrutínio antitruste, por faturamento ou volume de negócios diminuto, empresas e operações que as envolvem de considerável impacto concorrencial.
Na mesma linha, segundo publicação do Departamento de Estudos Econômicos do Cade, autoridades concorrenciais têm buscado outras métricas, para além de faturamento, que sejam capazes de medir com maior precisão participação de mercado em mercados online. A autoridade francesa apontaria variáveis como (i) número de contas; (ii) número de usuários mensais e diários ativos; (iii) número de visitas para um website; (iv) número de usuários logados na plataforma; (vii) tempo dispendido na plataforma, dentre outros, enquanto critérios relevantes para além de faturamento no exercício de aferição de participação de mercado. De forma similar, a autoridade do Reino Unido, em análise de mercados de propaganda online, utilizaria, para além de faturamento, (i) número de buscas, (ii) número de page referrals; (iii) número de usuários e (iv) tempo dispendido na plataforma enquanto principais métricas (Concorrência em mercados digitais: uma revisão dos relatórios especializados, 2020, p. 20). O comportamento dessas autoridades europeias – associado à preocupação geral identificada pelo Cade acima, de subnotificação de atos de concentração com repercussões concorrenciais significativas, pelo não preenchimento de critérios de faturamento/volume de negócios – aponta como, relativamente a mercados digitais, uma dimensão importante dos agentes de mercado pode não estar sendo adequadamente capturada pelo critério de faturamento, o que tensiona pela expansão dos critérios considerados em análises antitruste, abarcado também outras variáveis.
O entendimento da ABRANET está em consonância com esse movimento. Para a Associação, o critério de faturamento não consegue captar minúcias dos agentes de mercado que vão além de questões de preço, o que é particularmente sensível no contexto dos mercados digitais, em que empresas de pequeno porte muitas vezes possuem ativos importantes e diversos serviços são oferecidos a preço zero, o que não quer dizer que os mesmos não gerem repercussões concorrenciais. Nesse sentido, mesmo agentes com faturamento ou volume de negócios diminuto podem deter ativos importantes ou possibilidades consideráveis de interferência no jogo das forças de mercado, o que demanda uma consideração de critérios mais abrangente por parte das autoridades regulatórias, que seja capaz de apreender essas minúcias.
Na visão da ABRANET, a noção de “valor de mercado” permitiria essa aferição menos estanque da dimensão das plataformas digitais, reconhecendo ativos que não se manifestam diretamente, ou desde já, em termos de faturamento/volume de negócios. Por este motivo, deve-se optar pelo critério de “valor de mercado” no que tange a mercados digitas, em detrimento da perspectiva restrita de faturamento. Em seu entender, seria importante observar, com especial atenção, a volumetria de usuários e de dados relacionados a essas plataformas. Tal se justifica porque, em sendo os dados cruciais para o poder de mercado de empresas digitais, a volumetria de usuários representaria a potencialidade de obtenção de novos dados, ao passo que o compêndio de dados já coletado indicaria estoque, a partir do qual a respectiva plataforma pode buscar refinar ou desenvolver novos produtos e serviços, a serem ofertados posteriormente no mercado. - Alex Camacho Castilho 06/07/2023 às 13:29Valor de mercado ou faturamento: O valor de mercado ou faturamento é um critério que considera a avaliação financeira da plataforma ou sua receita total. Ele pode refletir o tamanho e a importância econômica da plataforma digital. Plataformas com alto valor de mercado ou faturamento geralmente possuem recursos financeiros consideráveis e podem ter um impacto significativo em várias áreas, incluindo concorrência, inovação e economia como um todo.
- Guilherme Marques Ferri 22/06/2023 às 22:39Se daria um levantamento de dados relacionados ao faturamento para mensuração da dimensão do tamanho da plataforma, seu poder de influência, suas formas de obtenção de lucros e etc - (FGV/EBAPE)
- Jose Vieira 19/06/2023 às 13:43Pouco relevante
- Elaine marques 21/05/2023 às 16:46Não há razão para levar em conta valor de mercado ou faturamento uma vez que o objetivo das plataformas é ampliar seu alcance e a sua participação, consequentemente, seu valor. Esse ponto pode ser usado para critério de sancionamento ou tempo para implementação de indicadores de controle.
- Leonardo Tavares de Almeida 04/05/2023 às 08:23Sugiro que isso só seja usado apenas para pautar a quantificação de multas e sanções, visto que não deve limitar o entendimento sobre o que é ou não é plataforma
- Gabriel Capellari Santos 25/04/2023 às 13:54Este critério se refere ao valor de mercado da plataforma ou ao seu faturamento anual. Pode ser um indicador relevante para avaliar o tamanho da plataforma e sua capacidade de investir em tecnologias e expandir seus serviços.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:16[Contribuição do DiraCom - Direito à Comunicação e Democracia] Efeitos de rede são uma característica-chave em mercados digitais, sendo frequentemente associados também à dominância de poucas plataformas que concentram muitos usuários. Nesse sentido, o número de usuários do serviço deve ser considerado para atribuir a classificação de poder de mercado significante, do que devem decorrer mais atribuições e responsabilidades. Devem ser propostas medidas para evitar uma concentração artificial no número de usuários, por meio, por exemplo, da efetiva limitação de compartilhamento de dados, nos termos da LGPD, e da interoperabilidade dos sistemas.
- Filipe Saraiva 16/07/2023 às 21:28Esse critério não deveria impedir que a lei atue sobre plataformas de menor tamanho. Em muitas delas, como as notadamente relacionadas com a extrema direita, tem tamanho muito pequeno mas consegue reunir e mobilizar comunidades que trazem impacto para a vida social.
- Rodolfo Salema 16/07/2023 às 09:54Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Como foi adiantado na questão 2, volume de usuários está entre os critérios de identificação dos gatekeepers no Digital Markets Act, sendo uma combinação entre 45 milhões de usuários finais ativos mensalmente e 10 mil usuários profissionais ativos, ambos estabelecidos ou localizados na União Europeia no último ano.
Adicionalmente, existem outras métricas de usuários que podem ser utilizadas para além do “número de contas”, como número de acessos/visitas periódicos (diários, semanais, mensais, anuais), tempo dispendido na plataforma, número de buscas/cliques. Assim, podem ser medidas a relevância e essencialidade da plataforma para além de um número absoluto de contas, e descobrir nuances relacionadas a nichos e setores específicos. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 12:05O critério de quantidade de usuários também deve ser considerado durante a regulação, assim como está sendo utilizado em legislações europeias e no PL 2630. A depender de seu objetivo, deve-se separar os usuários não-comerciais e os usuários comerciais.
Esse critério pode ser utilizado dentro de diferentes períodos de tempo. Por exemplo, no Digital Markets Act da União Europeia o critério de "usuários ativos por mês".
Esse é um critério que repassa o ônus da prova para as plataformas, mas também exige um monitoramento por parte da autoridade em verificar a informação (i) com certa frequência, especialmente para plataformas com valores limítrofes e (ii) a veracidade das informações prestadas.
Ainda, a quantidade em si deve ser objeto de reflexão em termos de competitividade e assimetria regulatória: para alguns objetivos de regulação não parece fazer sentido abarcar plataformas que não tenham uma quantidade de usuários como as big techs, por exemplo. Isso deve ser analisado a depender do objetivo da regulação.
Por fim, é também importante ter alguma válvula de escape. Ou seja, ter uma possibilidade de incluir na regulação plataformas que não atinjam esse número de usuários, mas que por outros motivos possam necessitar ser objeto de maior escrutínio regulatório. Ressalta-se, porém, que esse critério deve garantir um mínimo de segurança jurídica, sendo necessário haver alguns parâmetros objetivos para a inclusão de plataformas que não atinjam esse critério. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 15:50É importante que a quantidade de usuários registrados na plataforma seja levado em consideração, principalmente quando se trata da aplicação de multas. Este critério está relacionado ao número de usuários presentes na plataforma.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 13/07/2023 às 11:03É importante considerar não apenas o número de pessoas que usam determinadas plataformas, mas também considerar a natureza desses acessos. Sendo que não nos interessa aqui qualquer mecanismo que venha a ferir a possibilidade de permanecerem anônimas. Ao mesmo tempo que é importante compreender quais perfis são geridos por robôs.
A contrapartida é a clientela que compra serviços e ações dentro dessas plataformas.
Essa relação precisa ser melhor compreendida e ser transparente para as pessoas que usam essas plataformas. As pessoas deveriam ser informadas de que ao serem expostas a um anúncio estão gerando lucros para as plataformas. - Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 16:30A quantidade de usuários é outro aspecto chave a ser considerado ao definir como regular plataformas. Mas não apenas o número em si, mas sim o número de usuários mensalmente ativos e nesta condição no país em questão. Assim, a regulação deve envolver a obrigatoridade da disponibilidade dessas informações por esses agentes. Além disso, devem ser diferenciados distintos tipos de usuários para mapear o poder de mercado em cada "lado" mediado pelas plataformas. No âmbito concorrencial, deve ser considerado também como cada plataform cria lógicas de "cercamento" de seus usuários entre um e outro serviço (o exemplo recente do serviço threads da Meta vinculado ao Instagram é um exemplo).
- Miguel Said Vieira 10/07/2023 às 16:51A quantidade de usuários e clientes da plataforma é critério adequado para sua classificação, analisado em conjunto aos demais. A definição de "usuários da plataforma" aqui deve ser ampla: no caso de plataformas de serviço de transporte, p.ex., não apenas os usuários consumidores desse serviço na plataforma, mas também os trabalhadores que o realizam na plataforma.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:27A ABRANET considera que a quantidade de usuários que utiliza uma plataforma digital é critério relevante para dimensionar sua relevância e permitir sua classificação. Esta abordagem também está presente em outras propostas, já existentes ou em debate, de regulação de plataformas digitais: é exemplo o Digital Markets Act europeu (“DMA”) e a atual redação do Projeto de Lei 2.630/2020. Para ambos os casos, o número de usuários opera enquanto uma das balizas definidoras de enquadramento no escopo da regulação; se abaixo dos índices previstos nestes diplomas legais, as plataformas digitais não se submetem à disciplina regulatória em questão. Para a Associação, a quantidade de usuários deve ser critério levado em conta para a definição de quais plataformas digitais se qualificam para o regime regulatório pretendido.
Três critérios devem ser atendidos pelo respectivo agente de mercado para que seja qualificado enquanto sujeito à regulação; a volumetria de usuários, considerando tanto usuários finais quanto usuários profissionais, em número absoluto ou proporcional à população localizada no país, é um deles. Usuários profissionais devem ser compreendidos como as pessoas físicas ou jurídicas que utilizam da respectiva plataforma para finalidades comerciais ou profissionais, com o propósito prover bens e/ou serviços a usuários finais – por exemplo, um varejista que tem uma conta Business para se comunicar com seus clientes. Por sua vez, os usuários finais seriam definidos de forma residual, como aqueles que não se enquadram enquanto usuários profissionais; são todos os demais casos de uso. A segmentação quanto ao tipo de usuário é importante para evidenciar aqueles que empregam a plataforma para fins de condução de atividades econômicas com usuários finais, tornando evidente a relevância da respectiva plataforma sobre demais agentes econômicos, efetivamente modelando seu acesso às oportunidades de mercado trazidas pela economia digital. Na compreensão da ABRANET, tais balizas devem ser definidas em número médio de: a) mais de quarenta e cinco milhões de usuários finais e de b) mais de vinte milhões de usuários profissionais, cumulativamente, nos últimos três exercícios financeiros. Alternativamente, 20% da população localizada no país, para usuários finais, conforme indicadores nacionais oficiais, e 10% da população localizada no país, para usuários profissionais, conforme indicadores nacionais oficiais, nos últimos três exercícios financeiros. - Alex Camacho Castilho 06/07/2023 às 13:30Quantidade de usuários e clientes (empresariais ou não): Esse critério se refere ao número de usuários ou clientes que a plataforma digital possui. Uma base de usuários ou clientes substancial pode indicar a relevância e a influência da plataforma no mercado. A quantidade de usuários também pode afetar questões como a disseminação de informações, o poder de negociação com anunciantes e o impacto na vida cotidiana das pessoas.
- Guilherme Marques Ferri 22/06/2023 às 22:41Serviria como fonte de dados assessória para cruzar com os dados anteriores e posteriores, como por exemplo, a questão do faturamento - e assim -, tentar criar um indicador para mensuração de quais são as plataformas mais utilizadas, com mais influência, e, também as que podem vir a causar mais impactos em casos de disseminação de conteúdos ilegais, antiético e correlatos. (FGV/EBAPE)
- Jose Vieira 19/06/2023 às 13:44Extremante importante. O número de usuários diferencia verdadeiramente a mídia, embora essa informação só é importante de acordo com seu objetivo
- Gabriel Capellari Santos 25/04/2023 às 13:54Este critério se refere ao número de usuários ou clientes que utilizam a plataforma, sejam eles pessoas físicas ou jurídicas. É um indicador importante para avaliar o alcance da plataforma e sua importância para os usuários e clientes.
- Jose Geraldo Leite Coura 25/04/2023 às 11:25Separar, classificar e quantificar os clientes reais (pessoas físicas ou pessoas jurídicas), excluindo usuários anônimos que geram um crescimento irreal da plataforma.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:17[Contribuição do DiraCom - Direito à Comunicação e Democracia]
O conceito de serviço essencial, nesta consulta, parece ter sido importado da União Europeia, mas há que se discutir sua aplicabilidade no Brasil, tendo em vista que aqui a essencialidade está associada, em geral, à prestação de serviços indispensáveis ao atendimento das necessidades inadiáveis da comunidade, o que pode resultar em obrigações como garantia do provimento e universalização do acesso. É importante que o conjunto da legislação brasileira seja observado na definição de conceitos, a fim de que a regulação espelhe efetivamente nossa realidade. - Rodolfo Salema 16/07/2023 às 09:55Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Como mencionado acima, trata-se de critério relevante por buscar identificar serviços que se tornaram essenciais a agentes, empresas, setores de mercado, entidades públicas e privadas, não existindo alternativas disponíveis minimamente equivalentes, existindo clara situação de dependência. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 12:37Serviços cuja finalidade esteja relacionada ao exercício da cidadania, que devem estar entre as prioridades da regulação. É necessário que os serviços prestados sejam orientados pelo melhor interesse dos usuários, sendo vedado que seus dados sejam utilizados para ganhos por parte das plataformas.
Ressalta-se que, ainda que tenha um escopo mais limitado, o Marco Civil da Internet já ressalta a centralidade da internet para o exercício da cidadania. De maneira semelhante, pode haver uma ampliação desse reconhecimento para a camada das aplicações, a depender de sua relevância para para a população.
Sobre a tipologia de quais seriam serviços essenciais de plataformas, novamente depende do objetivo da regulação. Um exemplo é encontrado no Digital Markets Act (DMA) na União Europeia, que caracteriza os "core platform services". - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 15:51Este critério é essencial para o entendimento do serviço fornecido pela plataforma, que pode ser de comunicação/mensageria privada, de compartilhamento de informações (mensagens, textos, áudio ou vídeo), de fornecimento de informação pública de maneira colaborativa, entre outros.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 13/07/2023 às 11:21O serviço essencial oferecido por uma plataforma deve ser comunicado de maneira explicita para as pessoas que dele fazem uso. Nesse sentido, é importante salientar que muitas vezes as empresas de tecnologia criam uma missão de fachada que mascara seu real modelo de negócios, que deveriam ser igualmente comunicados de forma transparente.
- CCOM- UnB (comentário inserido por: Murilo César Ramos) 12/07/2023 às 15:00Se se entende 'plataforma digital' no sentido dado pela ementa que abre a consulta - "Quase trinta anos após o surgimento da Internet comercial, verifica-se a necessidade de novas formas de se classificar os atores que atuam em suas diversas camadas. Uma das designações amplamente difundida é o termo “plataformas digitais”, adotado nesta consulta."-, está se falando de produtos e serviços localizados na camada de aplicativos, explorados por empresas comerciais. Logo, a menos que a oferta desses produtos e serviços estejam ao alcance de regimes administrativos derivados do direito público, não vejo como a essencialidade possa ser critério definidor do que aqui se convencionou chamar de plataforma digital.
- Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 16:33Como uma das características chave de plataformas digitais é sua capacidade de espraiamento para diferentes mercados, elas não devem ser reguladas somente em seus serviços essenciais. Isso envolve tanto a dimensão concorrencial dos grupos econômicos como a política e social no tocante a como cada conglomerado domina atividades na Internet e que influência gera a partir deste poder. Neste sentido, faz-se fundamental identificar os "pontos de controle" nos quais as plataformas operam como reguladores chave dos fluxos informacionais e econômicos e exercem seus papeis de "gatekeepers".
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:30Conforme apresentado em outras respostas da presente Consulta, o ecossistema digital é marcado por uma enorme diversidade de agentes, organizados para o oferecimento dos mais diferentes tipos de serviços. Existem desde as grandes empresas de tecnologia (Big Techs), sobre as quais recaem as principais preocupações relacionadas ao funcionamento do ecossistema digital, até sites de reclamação de consumidores e grandes enciclopédias online. No meio desses extremos se localizam vários outros tipos de atores, como provedores de acesso, de conteúdo, marketplaces e startups.
Não é toda essa diversidade de serviços que suscita preocupações. Nesse sentido, a ABRANET entende, em linha com outras iniciativas regulatórias voltadas às plataformas digitais – como o Digital Markets Act europeu – que apenas alguns tipos de serviços demandam escrutínio regulatório especial. No referido diploma legal da União Europeia, o artigo 2(2) elenca aquilo que entende por “core platform service”, apresentando rol de serviços de importância particular; apenas estes poderiam suscitar a aplicação da nova lei reguladora dos mercados digitais. Mesma postura se apresenta no atual Projeto de Lei 2.630/2020, que tramita no Congresso Nacional brasileiro: apenas alguns serviços específicos serão capazes de atrair o aparato regulatório que se elabora no referido PL.
Contudo, como apresentado também em outros questionamentos da presente Consulta, a ABRANET acredita que a regulação que ora se planeja deve ser assimétrica por essência, incidindo apenas sobre os agentes de mercado que detenham controle essencial de acesso – i.e, sejam gatekeepers. Nesse sentido, a prestação de “serviço essencial de plataforma”, por si só, não seria capaz de suscitar a aplicação do aparato regulatório aqui em construção e em debate.
Ainda que assim seja, a noção de “serviço essencial de plataforma” é de grande importância para o desenho regulatório que a ABRANET entende como sendo o mais adequado: em sua visão, três critérios devem ser atendidos pelo respectivo agente de mercado para que este seja qualificado enquanto gatekeeper, e a prestação de serviço essencial de plataforma é um deles.
Na composição do rol específico de serviços qualificados como “essenciais de plataforma”, a Associação julga pertinente a inclusão de três tipos, em linha com o atualmente previsto no PL 2.630/2020: a) redes sociais; b) ferramentas de busca; e c) serviços de mensageria instantânea. No Brasil, entende-se que o rol acima proposto já seria suficiente, por serem estratégicos e essenciais para comunicação e pesquisa pelos brasileiros.
O referido PL também apresenta definições instrutivas para estes termos, as quais podem ser aqui replicadas. Deste modo, fornecem o importante ponto de referência que toda boa regulação deve buscar, no sentido de definições claras e estritas, para delimitar suas hipóteses de incidência. Nesse sentido, “rede social” pode ser definida como: “aplicação de internet cuja principal finalidade seja o compartilhamento e a disseminação, pelos usuários, de criação, opiniões e informações, veiculados por textos ou arquivos de imagens, sonoros ou audiovisuais, em uma única plataforma, por meio de contas conectadas ou acessíveis de forma articulada, permitida a conexão entre usuários”. Por sua vez, “ferramenta de busca” deve ser entendida como “aplicação de internet que permite a busca por palavras-chave de conteúdos elaborados por terceiros e disponíveis na internet, agrupando, organizando e ordenando os resultados mediante critérios de relevância escolhidos pela plataforma, independentemente da criação de contas, perfis de usuários ou qualquer outro registro individual, incluído indexador de conteúdo e excetuadas aquelas que se destinem exclusivamente a funcionalidades de comércio eletrônico”. Por fim, “mensageria instantânea” é termo empregado no sentido de “aplicação de internet cuja principal finalidade seja o envio de mensagens instantâneas para destinatários certos e determinados, incluindo a oferta ou venda de produtos ou serviços e aquelas protegidas por criptografia de ponta-a-ponta, com exceção dos serviços de correio eletrônico”.
De outro lado, ao mesmo tempo em que se especifica quais tipos de serviço teriam o condão de, potencialmente, suscitar a aplicação da regulação ora em construção para as plataformas digitais, também seria possível apresentar rol de tipos de serviços oferecidos que, em si mesmos, afastam a possibilidade de incidência dessa mesma regulação.
É importante destacar que não há dúvida de que os serviços não listados no rol taxativo de “serviço essencial de plataforma” já não poderiam dar vazão a uma qualificação de incidência regulatória. Ainda que assim seja, a previsão de rol de serviços que afastam a aplicação de eventuais dispositivos regulatórios é bem-vinda, reconhecendo que determinadas atividades não apresentam riscos relevantes aos usuários.
Tal proposta está em sintonia com a atual redação do PL 2.630/2020, que lista como exceções de enquadramento para fins de regulação os provedores cuja atividade primordial seja a) o comércio eletrônico; b) a realização de reuniões fechadas por vídeo ou voz; c) enciclopédias online sem fins lucrativos; d) repositórios científicos e educativos; e) plataformas de desenvolvimento e compartilhamento de software de código aberto; f) a busca e disponibilização de dados obtidos do poder público; e g) plataformas de jogos e apostas online. Ademais, sugere-se também, como exceção à regulação, as plataformas financeiras e de pagamentos, por já estarem sujeitas a regulação setorial. - Alex Camacho Castilho 06/07/2023 às 13:30Serviço essencial de plataforma: Esse critério considera se a plataforma digital oferece serviços essenciais para a vida cotidiana das pessoas ou para o funcionamento de outros setores econômicos. Por exemplo, uma plataforma de comunicação usada por um grande número de pessoas ou uma plataforma de pagamento online amplamente utilizada podem ser consideradas serviços essenciais. O status de serviço essencial pode aumentar a responsabilidade e a necessidade de regulação.
- Guilherme Marques Ferri 22/06/2023 às 22:42Critério imprescindível para saber qual a missão e orientação da plataforma, para assim, ter uma noção de quais usuários utilizam a plataforma : Como também prévio monitoramento diante de uma conjuntura, agregada essa, com esse tópico.
- Jose Vieira 19/06/2023 às 13:46Esse sim é um filtro muito interessante.
Plataformas de comunicação em massa são de extrema utilidade e o criador de conteúdo é quem deve ser observado e ou penalizado.
Bloqueios a plataformas de comunicação por conta de erros de usuários causam desconforto e grandes problemas a um público inocente e até dependente do serviço. - Jose Geraldo Leite Coura 25/04/2023 às 14:56Quando o Estado, governos federais, estaduais e municipais utilizam as redes sociais e mensageiros web, esses passam a ser essenciais e devem ser regulados pelo Estado?
- Gabriel Capellari Santos 25/04/2023 às 13:54Este critério se refere à importância do serviço prestado pela plataforma para os usuários e clientes, especialmente se é considerado um serviço essencial para o funcionamento de suas atividades ou para a sociedade como um todo. Isso pode incluir, por exemplo, plataformas de transporte, serviços financeiros ou de saúde.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:18[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Parâmetros qualitativos e quantitativos devem ser desenvolvidos para identificar plataformas que funcionem como controladores de acesso ou que sejam fundamentais para que determinado agente alcance estabeleça relação com seu público (funcionem, portanto, como “gatekeepers”), especialmente em áreas que envolvam acesso a outras plataformas (como lojas de aplicativos) e produção e circulação de conteúdo informacional e cultural. Para evitar que haja esse tipo de controle, são cabíveis medidas que impeçam que um controlador de acesso adote tratamento diferenciado ou preferencial (como indexação) de produtos ou serviços que ele próprio ofereça ou que ofereça por meio de um utilizador que controle de forma direta ou indireta, bem como com o qual tenha acordo contratual. Isto é, a regulação deve evitar a consolidação de controladores de acesso, o que também pode ser desenvolvido por meio de políticas públicas de incentivo a outros agentes. - Rede de Pesquisa em Governança da Internet (comentário inserido por: Rede de Pesquisa em Governança da Internet) 16/07/2023 às 20:24Entendemos que o papel de gatekeeper deve ser avaliado à luz do poder infraestrutural das plataformas e não apenas na sua ação nas camadas da web. Uma vez que a participação de mercado e desenvolvimento de infraestrutura de certas plataformas colocam em risco a diversidade e a inovação, princípios da internet no Brasil (CGI.br, 1995), tornando mais difícil a entrada ou os custos de se manter no mercado como atores menores, a caracterização de gatekeeper é essencial para a subsequente definição de regras.
Importante dizer que uma empresa pode tornar-se gatekeeper mesmo em serviços paralelos, que aparentemente não são sua área de atuação, mas que fazem parte da cadeia de mercado na qual atua. Por exemplo, um provedor de conteúdo (ex. Google) pode tornar-se gatekeeper do desenvolvimento do mercado de pequenos provedores de internet caso priorize acordos comerciais com as grandes empresas de telecomunicações e opte por não hospedar conteúdo em pontos de troca de tráfego regionais (ex. no norte ou nordeste) (Rosa e Hauge, 2022).
Nesse sentido, concordamos com Jonas Valente no item “iv Serviço essencial de plataforma” no que se refere à necessidade de analisar os “pontos de controle” de uma plataforma para estabelecer sua regulação, e não apenas os serviços que dizem prestar.
- Rodolfo Salema 16/07/2023 às 09:56Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
A noção de gatekeeper é central na regulação assimétrica definida no Digital Markets Act da União Europeia (DMA). Contudo, o conceito de gatekeeper e controlador essencial de acesso não existe por si só, sendo sim o nome dado aos agentes que cumprem uma série de requisitos, como aqueles elencados na contribuição à questão 2.
Os agentes considerados “elegíveis” para serem designados como gatekeepers segundo o DMA são grandes empresas que prestam serviços essenciais de plataformas (core platform services) e que dispõem de considerável poder econômico – por exemplo, geralmente possuem capacidade de estabelecer conexão entre muitos usuários profissionais e muitos consumidores finais por meio de seus serviços, que lhes permite potencializar suas vantagens (como acesso a um grande volume de dados, de um domínio de atividade para outro); algumas dessas empresas exercem controle sobre ecossistemas inteiros de plataformas no âmbito da economia digital, sendo estruturalmente muito difícil para os concorrentes (atuais ou entrantes) desafiar ou disputar a posição destas plataformas dominantes, independentemente do nível de inovação ou eficiência que esses concorrentes possam ter. [Ver Considerando nº 3 do DMA]
Segundo o DMA, art. 3º, uma empresa é designada como um gatekeeper, quando:
a. Tiver um impacto significativo no mercado;
b. Prestar um serviço essencial de plataforma que constitui uma porta de acesso (gateway) importante para os usuários profissionais alcançarem os consumidores finais;
c. Se beneficiar de uma posição enraizada e duradoura nas suas operações ou, se for previsível, que possa a vir se beneficiar de tal posição em um futuro próximo.
Assim, presume-se que a empresa tem as características acima quando ela cumpre os seguintes requisitos:
1. O volume de negócios anual na União Europeia for superior a 7,5 bilhões de euros em cada um dos últimos 3 exercícios financeiros, ou se a capitalização média na bolsa (ou equivalente) for de 75 bilhões no último exercício financeiro,
2. Prestar o mesmo serviço essencial de plataforma em pelo menos 3 Estados-membros da EU. Serviços essenciais de plataforma – segundo a tradução oficial em português de Portugal do art. 2º do DMA – são os seguintes: a) Serviços de intermediação em linha; b) Motores de pesquisa em linha; c) Serviços de redes sociais em linha; d) Serviços de plataforma de partilha de vídeos; e) Serviços de comunicações interpessoais independentes do número; f) Sistemas operativos; g) Navegadores Web; h) Assistentes virtuais; i) Serviços de computação em nuvem; j) Serviços de publicidade em linha, incluindo qualquer rede de publicidade, trocas publicitárias ou outro serviço de intermediação publicitária, prestados por uma empresa que presta qualquer um dos serviços essenciais de plataforma enumerados nas alíneas a) a i).
3. Se prestar um serviço essencial de plataforma que tenha tido pelo menos 45 milhões de usuários finais ativos mensalmente, estabelecidos ou situados na EU e pelos menos 10 mil usuários profissionais ativos anualmente.
As plataformas designadas como gatekeepers deveriam notificar a Comissão Europeia até 3 de julho de 2023. Até o momento desta contribuição, segundo informações públicas, a Comissão Europeia recebeu notificações da Alphabet, Amazon, Apple, ByteDance, Meta, Microsoft e Samsung. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:16Esse critério é relevante porque a dinâmica de cada tipo de serviço pode acarretar diversas adaptações ao escopo regulatório.
1. TIPOLOGIA DA PLATAFORMA: É necessário considerar a tipologia da plataforma (a exemplo da classificação utilizada no DMA enquanto "core platform services", como os serviços de mensageria, serviços de nuvem, redes sociais, entre outros)
2. SETOR RELEVANTE PARA DIREITOS FUNDAMENTAIS: para alguns casos, é também necessário considerar o setor em que a plataforma atua. Isso porque, para além das características essenciais das plataformas digitais, é necessário considerar as características do setor e as dinâmicas e impactos relevantes para os direitos fundamentais.
No setor de saúde, por exemplo, é fundamental que as tecnologias sejam reguladas em conjunto ao próprio setor. Afinal, o principal impacto, diferente das plataformas clássicas, está relacionado ao acesso à saúde e ao próprio sistema de saúde. Portanto, nesse caso, as plataformas devem ser regidas pelos princípios do SUS, que regem a saúde no Brasil, e devem centralizar o usuário na prestação do serviço. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:14Esse critério (ou algum semelhante) é muito importante para que a legislação abarque plataformas que efetivamente suscitam maiores preocupações, quando estamos falando de regulação econômica.
Acreditamos que um critério que combine outros critérios na definição de plataformas digitais é a melhor alternativa. Nesse sentido, a definição de controladores de acesso deve relacionar os critérios anteriores, em especial a quantidade de usuários no território nacional (considerando a limitação dos critérios do faturamento e também a limitação do critério de participação de mercado sem se considerar o efeito de conglomerado), além do tipo de plataforma. Ainda, o conceito de controle de acesso deve ser flexível para considerar a essencialidade do serviço e os riscos aos direitos sociais e fundamentais.
A expressão surge a partir do Digital Markets Act (DMA) [1] [2], a regulação europeia de mercados digitais. Para tal legislação os gatekeepers são empresas que oferecem “serviços essenciais de plataforma”, como redes sociais, mecanismos de busca, sistemas operacionais e serviços de compartilhamento de vídeo. Para serem enquadrados, os serviços devem possuir impacto significativo no mercado interno europeu, operarem um ou mais gateways importantes para os clientes e desfrutarem (ou que ter a previsão para tanto) uma posição consolidada e durável em suas operações.
A determinação de uma empresa como gatekeeper é feita com base em critérios quantitativos (econômicos e referentes ao número de usuários) e qualitativos. Especificamente (i) se a empresa à qual pertence tiver um volume de negócios anual no Espaço Econômico Europeu (EEE) igual ou superior a 6 500 milhões de euros nos três últimos exercícios financeiros, ou se a capitalização bolsista média ou o valor justo de mercado equivalente da empresa à qual pertence tiver ascendido a, pelo menos, 65 mil milhões de euros no último exercício financeiro, e se prestar um serviço essencial de plataforma em, pelo menos, três Estados-Membros; (ii) se prestar um serviço essencial de plataforma com mais de 45 milhões de utilizadores finais ativos mensalmente, estabelecidos ou situados na União, e mais de 10 mil utilizadores profissionais ativos anualmente, estabelecidos na União, no último exercício financeiro.
Esses critérios, no entanto, são presunções: é possível que uma empresa que os atenda as refute, demonstrando por meio de indicadores suficientemente embasados o motivo pelo qual não se enquadra na categoria de gatekeeper. Igualmente, é possível que a Comissão Europeia fundamentadamente designe uma plataforma digital provedora de serviço essencial como um gatekeeper mesmo que esta não atinja os limites presumidos. Uma vez enquadrado como gatekeeper, no entanto, a plataforma está sujeita a uma série de obrigações. Essa válvula de escape também é importante para que se atinja o objetivo principal de reconhecer uma plataforma como gatekeeper: regular as plataformas que verdadeiramente suscitam preocupações.
[1] EUROPEAN COMMISSION. Remarks by Commissioner Breton: Here are the first 7 potential “Gatekeepers” under the EU Digital Markets Act. Disponível em: Acesso em: 07/07/2023.
[2] CONTRI, Camila Leite; SECAF, Helena e ZANATTA, Rafael A. F. Com o DMA, regulação de plataformas digitais já é realidade. Jota, 09 dez. 2021. Disponível em: Acesso em: 26/06/2023. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 15:55Este critério também é importante. Isso porque permitir o controle de serviços essenciais e estratégicos por um pequeno número de empresas privadas pode colocar em risco soberania de um país.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 13/07/2023 às 11:31Se considerarmos que o gatekeeper se relaciona com um conjunto de agentes, ferramentas e práticas que permite ou não o acesso aos ambientes das plataformas virtuais, precisamos avaliar sua atuação à luz da universalidade de acesso à cuidados digitais para que sejam protegidas em seus corpos e existências por racismo, transfobia, lesbofobia, entre outros.
E acima de tudo que tem garantido seu direito de livre expressão, que não pode jamais ser confundido com a liberdade de ofensa ou a permissão para infringir leis locais e internacionais. - CCOM- UnB (comentário inserido por: Murilo César Ramos) 12/07/2023 às 15:04Indicador fundamental, sim, para a classificação do que tem se entendido, nesta consulta, como plataforma digital.
- Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 16:36A condição de gatekeeping é fundamental para definir o poder de plataforma. O conceito colocado na consulta de controle essencial de acesso é importante, mas não encerra a condição de gatekeeping. O exercício do poder político, social e tecnológico se dá pelo acesso, mas também pelo controle da atuação dos demais agentes nos serviços ofertados e mediados. Mecanismos de busca não definem apenas o acesso, mas a visibilidade de conteúdos, assim como lojas de aplicações. Assim, o conceito precisa ser enriquecido para incorporar diferentes dimensões do controle e práticas anti-competitivas de prejuízo de concorrentes. É neste âmbito também que devem ser levadas em consideração as estruturas e estratégias de intgração vertical e horizontal destes agentes e como elas impactam não somente a dimensão concorrencial, mas o poder em diferentes dimensões.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:31No entendimento da ABRANET, a noção de controle essencial de acesso é o ponto basilar de toda a regulação de plataformas digitais que ora se debate. Como apresentado também em outros questionamentos da presente Consulta, a Associação acredita que a regulação que se planeja deve ser assimétrica por essência, tendo este conceito por eixo definidor de sua incidência ou não sobre as plataformas que povoam o ecossistema digital.
A noção de regulação assimétrica está presente também em outras iniciativas de regulação nesta seara, sejam elas internacionais ou nacionais: exemplo, o Digital Markets Act (“DMA”), aprovado pela União Europeia em 2022, volta sua atenção não a todas as plataformas do ecossistema digital, mas apenas àquelas que se qualificam enquanto gatekeepers, vistas como um pequeno grupo de grandes empresas que oferecem serviços centrais de plataforma, detentoras de considerável poder econômico. Na mesma linha, o Digital Services Act (“DSA”), também da União Europeia e aprovado no mesmo contexto, igualmente implementa um modelo de regulação assimétrica, prevendo obrigações de acordo com o tipo de atuação, tamanho e impacto dos diferentes agentes de mercado no ecossistema digital; o centro das atenções recai, contudo, nos agentes de maiores proporções, classificados como “plataformas digitais muito grandes” (“very large online platforms”). Por fim, nos esforços do Reino Unido para disciplinar a atuação dos mercados digitais, a autoridade regulatória que vem sendo estruturada – a Digital Markets Unit (“DMU”) – é modelada para ter uma atuação pontual relativamente ao ecossistema digital, incidindo apenas sobre as empresas que possuem condição estratégica de mercado (“strategic market status”), o que envolve, dentre outros critérios, poder de mercado substancial e duradouro e posição de importância estratégica. A unir essas iniciativas de regulação das plataformas digitais está, portanto, não apenas o modelo de regulação assimétrica em si, mas também uma concentração dos novos compromissos regulatórios nos principais agentes de mercado, aqueles com controle essencial de acesso às possibilidades da economia digital.
Na realidade brasileira, o Projeto de Lei 2.630/2020 também segmenta suas obrigações apenas a grandes agentes de mercado do ecossistema digital. Conforme redação atual de seu provável artigo 2º, a futura Lei será aplicável apenas a provedores que ofertem determinados serviços ao público brasileiro, para além de necessitarem ter elevado número médio de usuários mensais no país, o que direciona o escopo de aplicação da Lei apenas para grandes agentes de mercado. Neste sentido, a proposta da ABRANET, de condicionar a incidência da futura regulação de plataformas digitais à qualificação de determinada empresa enquanto gatekeeper, conta com respaldo de diversas outras iniciativas regulatórias, de cunho tanto nacional quanto internacional. - Alex Camacho Castilho 06/07/2023 às 13:31Controle essencial de acesso (gatekeeper): Esse critério se refere ao controle que uma plataforma digital exerce sobre o acesso e a distribuição de informações, produtos ou serviços. Uma plataforma que atua como um gatekeeper tem a capacidade de influenciar o conteúdo que os usuários veem, restringir o acesso a determinados recursos ou dominar o fluxo de informações. O controle essencial de acesso pode ter implicações significativas para a liberdade de expressão, a concorrência e a diversidade de opiniões.
- Gabriel Capellari Santos 25/04/2023 às 13:54Este critério se refere ao poder de uma plataforma de controlar o acesso de outros atores ao mercado ou ao serviço que oferece. Pode ser um indicador relevante para avaliar o potencial da plataforma de exercer poder de mercado e impor condições desfavoráveis aos usuários e concorrentes.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:18[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Os serviços devem ser diferenciados de forma específica. Ainda que haja relações entre eles, deve-se buscar identificar o serviço principal em relação ao qual a regulação deve incidir prioritariamente. A superposição dos serviços deve ser evitada, por exemplo por meio da separação funcional das empresas. - Rodolfo Salema 16/07/2023 às 09:57Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Segundo o Digital Markets Act da União Europeia, os seguintes serviços são considerados serviços essenciais de plataforma, conforme já indicado em comentários anteriores:
a) Serviços de intermediação em linha;
b) Motores de pesquisa em linha;
c) Serviços de redes sociais em linha;
d) Serviços de plataforma de partilha de vídeos;
e) Serviços de comunicações interpessoais independentes do número;
f) Sistemas operativos;
g) Navegadores Web;
h) Assistentes virtuais;
i) Serviços de computação em nuvem;
j) Serviços de publicidade em linha, incluindo qualquer rede de publicidade, trocas publicitárias ou outro serviço de intermediação publicitária, prestados por uma empresa que presta qualquer um dos serviços essenciais de plataforma enumerados nas alíneas a) a i).
Os projetos de lei em andamento no Brasil (como o PL 2.630/2020) trazem definições mais simples e específicas de agentes que são objeto da regulação, como “redes sociais”, “mecanismos de buscas” e “serviços de mensageria privada através da internet”. Contudo, isto pode deixar de fora plataformas relevantes e extremamente populares no Brasil, principalmente após a popularização do smartphone e da internet em banda larga (por exemplo, plataformas online de transporte de passageiros, relacionamentos, locação de imóveis ou reservas em hotéis, delivery de restaurantes e outros serviços, dentre outros). Nesse sentido, a definição do DMA parece ser uma boa referência para as iniciativas regulatórias no país. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:19Esse critério é relevante porque a dinâmica de cada tipo de serviço pode acarretar diversas adaptações ao escopo regulatório.
1. TIPOLOGIA DA PLATAFORMA: É necessário considerar a tipologia da plataforma (a exemplo da classificação utilizada no DMA enquanto "core platform services", como os serviços de mensageria, serviços de nuvem, redes sociais, entre outros)
2. SETOR RELEVANTE PARA DIREITOS FUNDAMENTAIS: para alguns casos, é também necessário considerar o setor em que a plataforma atua. Isso porque, para além das características essenciais das plataformas digitais, é necessário considerar as características do setor e as dinâmicas e impactos relevantes para os direitos fundamentais.
No setor de saúde, por exemplo, é fundamental que as tecnologias sejam reguladas em conjunto ao próprio setor. Afinal, o principal impacto, diferente das plataformas clássicas, está relacionado ao acesso à saúde e ao próprio sistema de saúde. Portanto, nesse caso, as plataformas devem ser regidas pelos princípios do SUS, que regem a saúde no Brasil, e devem centralizar o usuário na prestação do serviço.
(Essa resposta tinha sido originalmente submetida erroneamente na categoria v Controle essencial de acesso (gatekeeper). Considerem essa resposta neste atual item, de vi Tipos de serviços) - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 15:56Similar ao critério de serviço essencial da plataforma, porém, com mais detalhes sobre o tipo de serviço que a plataforma oferece ao usuário, não se detendo apenas ao serviço essencial fornecido por ela. Importante para entender a sua dimensão e alcance.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 13/07/2023 às 11:33Os serviços oferecidos devem ser comunicados de forma transparente, explicando como e por que são pagos ou não, por exemplo. E no caso de serem gratuitos, as pessoas precisam entender quem e como geram lucros para as empresas.
- CCOM- UnB (comentário inserido por: Murilo César Ramos) 12/07/2023 às 15:06Indicadores importantes, sim, para a classificação do que se tem convencionado chamar aqui de plataforma digital.
- Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 16:37Os tipos de serviços são indicadores muito importantes, uma vez que evidenciam como determinadas plataformas espraiam-se para diferentes mercados e atividades. Neste sentido, a abrangência de uma plataforma ou grupo econômico deve ser considerada para compreender seu poder e sua dominância nos mercados mais amplos (plataformas e aplicações de Internet).
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:33O ecossistema digital é marcado por uma enorme diversidade de agentes, organizados para o oferecimento dos mais diferentes tipos de serviços. Existem desde as grandes empresas de tecnologia (Big Techs), sobre as quais recaem as principais preocupações relacionadas ao funcionamento do ecossistema digital, até sites de reclamação de consumidores e grandes enciclopédias online. No meio desses extremos se localizam vários outros tipos de atores, como provedores de acesso, de conteúdo, marketplaces e startups.
Não é toda essa diversidade de serviços que suscita preocupações. Nesse sentido, a ABRANET entende, em linha com outras iniciativas regulatórias voltadas às plataformas digitais – como o Digital Markets Act europeu – que apenas alguns tipos de serviços demandam escrutínio regulatório especial. No referido diploma legal da União Europeia, o artigo 2(2) elenca aquilo que entende por “core platform service”, apresentando rol de serviços de importância particular; apenas estes poderiam suscitar a aplicação da nova lei reguladora dos mercados digitais. Mesma postura se apresenta no atual Projeto de Lei 2.630/2020, que tramita no Congresso Nacional brasileiro: apenas alguns serviços específicos serão capazes de atrair o aparato regulatório que se elabora no referido PL.
Contudo, como apresentado também em outros questionamentos da presente Consulta, a ABRANET acredita que a regulação que ora se planeja deve ser assimétrica por essência, incidindo apenas sobre os agentes de mercado que detenham controle essencial de acesso. Nesse sentido, os tipos de serviço de plataformas digitais elencados como “serviço essencial de plataforma”, por si só, não seriam capazes de suscitar a aplicação do aparato regulatório aqui em construção e em debate.
Não obstante, a identificação taxativa desses tipos de serviço de plataformas digitais é de extrema importância para o desenho regulatório que a ABRANET entende como sendo mais pertinente: em sua visão, três critérios devem ser atendidos pelo respectivo agente de mercado para que este seja qualificado enquanto gatekeeper – ou seja, tenha controle essencial de acesso; a prestação de “serviço essencial de plataforma” é um deles, e este requisito depende da especificação pormenorizada sobre quais tipos de serviço demandam atenção regulatória em especial. É pelo oferecimento de um tipo de serviço elencado neste rol que se preenche o critério da prestação de “serviço essencial de plataforma”.
Na composição do rol específico de serviços qualificados como “essenciais de plataforma”, a Associação julga pertinente uma abordagem comedida, prevendo a inclusão de três tipos, em linha com o atualmente previsto no PL 2.630/2020: a) redes sociais; b) ferramentas de busca; e c) serviços de mensageria instantânea. No Brasil, entende-se que o rol acima proposto já seria suficiente, por serem estratégicos e essenciais para comunicação e pesquisa pelos brasileiros.
O referido PL também apresenta definições instrutivas para estes termos, as quais podem ser aqui replicadas. Deste modo, fornecem o importante ponto de referência que toda boa regulação deve buscar, no sentido de definições claras e estritas, para delimitar suas hipóteses de incidência. Nesse sentido, “rede social” pode ser definida como: “aplicação de internet cuja principal finalidade seja o compartilhamento e a disseminação, pelos usuários, de criação, opiniões e informações, veiculados por textos ou arquivos de imagens, sonoros ou audiovisuais, em uma única plataforma, por meio de contas conectadas ou acessíveis de forma articulada, permitida a conexão entre usuários”. Por sua vez, “ferramenta de busca” deve ser entendida como “aplicação de internet que permite a busca por palavras-chave de conteúdos elaborados por terceiros e disponíveis na internet, agrupando, organizando e ordenando os resultados mediante critérios de relevância escolhidos pela plataforma, independentemente da criação de contas, perfis de usuários ou qualquer outro registro individual, incluído indexador de conteúdo e excetuadas aquelas que se destinem exclusivamente a funcionalidades de comércio eletrônico”. Por fim, “mensageria instantânea” é termo empregado no sentido de “aplicação de internet cuja principal finalidade seja o envio de mensagens instantâneas para destinatários certos e determinados, incluindo a oferta ou venda de produtos ou serviços e aquelas protegidas por criptografia de ponta-a-ponta, com exceção dos serviços de correio eletrônico”. - Alex Camacho Castilho 06/07/2023 às 13:31Tipos de serviços: Esse critério leva em consideração os diferentes tipos de serviços oferecidos pela plataforma digital. Isso pode incluir serviços de comércio eletrônico, redes sociais, compartilhamento de conteúdo, transporte, hospedagem, entre outros. Cada tipo de serviço pode apresentar desafios e características específicas que influenciam as implicações regulatórias e a importância para a sociedade.
- Rodrigo Melo 05/07/2023 às 15:20O funcionamento das Bigtechs no Brasil deve se enquadrar no critério de Serviço Público, sendo necessário a liberação de concessão onerosa pelo poder público para que elas se instalem, funcionem e operem no país, ficando vinculadas ao Ministério das Comunicação e fiscalizadas por um conselho formado por representantes de diversos setores da sociedade civil, como Universidades, Conselhos, Federações etc. e do poder público, desdobrando-se essa representação pelos três níveis de Estado: federal, estadual e municipal..
- ROSA VICARI 23/06/2023 às 15:24Considero o item vi o mais relevante
- Guilherme Marques Ferri 22/06/2023 às 22:44Imprescindível para definir a orientação, missão e valores das plataformas, assim, como compreender sua motivação, público-alvo, e, se necessário medidas de monitoramento prévio ao modo de levantar dados e produzir conhecimento sobre a mesma (FGV/EBAPE)
- Fernanda Hoffmann Lobato 01/06/2023 às 17:33Uma das coisas que me preocupa é que temos um problema conceito são plataformas digitais que tem como modelo de negócio redes sociais, certo? Ou vamos estender esse conceito a Fóruns (Chans), plataformas de jogos, MMORPG?
- Jose Geraldo Leite Coura 25/04/2023 às 14:54Uma questão que não aparece são as aplicações que estão na Internet, mas invisíveis ao ambiente aberto, como a deepweb e/ou darkweb, como tratar esses ambientes em relação aos crimes que acontecem neles
- Gabriel Capellari Santos 25/04/2023 às 13:54Este critério se refere ao tipo de serviço oferecido pela plataforma, que pode variar desde serviços de comércio eletrônico, redes sociais, serviços de mensagens, mecanismos de busca, entre outros. Cada tipo de serviço pode apresentar diferentes riscos e desafios regulatórios.
- Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:23Para estabelecer os critérios mais eficazes de regulação ou autorregulação, o Information Technology Industry Council (ITI) recomenda que o CGI se envolva em um diálogo colaborativo com representantes de diferentes negócios e serviços de plataformas digitais. Esse diálogo deve considerar fatores importantes como o nível de privacidade exigido para a prestação do serviço, bem como se a plataforma opera em sistema aberto ou fechado.
- Rede de Pesquisa em Governança da Internet (comentário inserido por: Rede de Pesquisa em Governança da Internet) 16/07/2023 às 20:25Devemos considerar o a) modelo de negócios para entender como dados de cidadãs/es/os brasileires são expropriados. Sugerimos também que hajam variáveis para definir a b) arquitetura da infraestrutura das plataformas, o que pode ser feito a partir de informações públicas, como por exemplo, o banco de dados DBPeering, para saber onde estão os pontos de interconexão públicos das plataformas que permitem aos provedores de internet se interconectarem, e normalmente localizados no norte global, além de informações atualmente sob poder somente das plataformas, as quais deveriam ser informadas de tempos em tempos ao órgão de regulação para uma compreensão ampla do seu poder de mercado (e.x. locais onde estão seus servidores por serviço, empresas com as quais mantém acordos bilaterais de interconexão, etc).
Salientamos que como cidadãs/es/os, nossos dados estão completamente à mercê das plataformas, enquanto informações fundamentais das mesmas para definição de regulação são mantidas em caixas pretas sob o argumento de colocar em risco sua posição de mercado diante da concorrência. Concordamos com as Blogueiras Negras no item “iv Serviço essencial de plataforma” que a necessidade de transparência, especialmente diante de agentes reguladores, é urgente. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:07Para a definição dos melhores critérios adotados em uma regulamentação ou autorregulamentação, sugere-se uma ampla discussão com os representantes dos diferentes negócios e serviços existentes em plataformas digitais.
Critérios como sua função, características de sistema e uso, necessidade de privacidade (ou grau de privacidade necessário para a prestação do serviço); se é um sistema aberto ou fechado; por exemplo, também poderiam ser usados para classificar plataformas. - Rodolfo Salema 16/07/2023 às 09:58Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Transparência e publicidade de dados e informações por país e jurisdição. Como as big techs recusam-se a divulgar informações e dados econômicos, mercadológicos e financeiros por país de atuação, o que vale para o Brasil, quanto mais transparentes forem eventualmente se poderia considerar este aspecto em termos de maior ou menor incidência de regulação.
Não obstante a ausência de divulgação de dados oficiais, sabe-se que os conteúdos pagos e a publicidade representam mais de 80% das receitas das plataformas.
Nesse sentido, é razoável defender que as plataformas deveriam deixar claro o que é conteúdo noticioso, impulsionado ou publicidade regular e abrangente; bem como que a comercialização da publicidade voltada para os brasileiros, inclusive por provedores com sede no exterior, deveria ser realizada por representante no Brasil e de acordo com a nossa legislação (o que evitaria a evasão fiscal de receitas sobre anúncios contratados fora do país direcionados ao mercado brasileiro e que hoje não recolhem impostos, além de identificar todas as empresas que participam da cadeia da publicidade digital).
Diferentemente do propagado por gigantes digitais, tais medidas não acabará com a publicidade digital; pelo contrário, aumentará a transparência sobre anúncios e impulsionamentos, que muitas vezes financiam a desinformação e discursos de ódio. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:19Efeitos conglomerados: é importante considerar não somente a atuação da plataforma isolada, mas também sua possível relevância intensificada na sua relação com outras plataformas, funcionalidades e serviços que são oferecidos dentro de um mesmo grupo econômico.
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:10Por forma de interação possibilitada:
O risco de uma plataforma pode ser aumentado de acordo com a possibilidade de ações e interações dadas por ela, especialmente pensando na aplicação de uma lente de riscos a partir da ótica de preservação de direitos de crianças e adolescentes. Ressaltamos, entretanto, a necessidade de verificação material de como as interações estão se dando e quais os riscos presentes.
Exemplos não exaustivos:
- Plataformas que não permitem interação (menor risco)
- Plataformas que só permitem interação por frases prontas, como funcionam alguns modelos de jogos online (menor risco)
- Plataformas que permitem interação livre por mensagens (risco aumentado)
- Plataformas que permitem interação livre por voz (risco aumentado)
- Plataformas que permitem interação livre por vídeo (risco aumentado)
- Plataforma que permite interação livre por ‘avatares’ (percepção de risco aumentado pela possível necessidade de moderação de comportamentos e ações e aplicação de medidas de mitigação específicas, evitando casos recentes como de estupros em ambientes imersivos (https://www.uol.com.br/universa/noticias/redacao/2022/06/03/estupro-no-metaverso-o-aconteceu-comigo-foi-real.htm);
- Plataforma que permite envio de links (risco aumentado);
- Plataforma que permite realização de downloads (risco aumentado);
- Plataforma que permite compras (risco aumentado). Cabe, aqui, destacar os inúmeros casos de compras não autorizadas realizadas por crianças e adolescentes (https://revistamarieclaire.globo.com/Noticias/noticia/2020/12/crianca-gasta-mais-de-r-80-mil-no-cartao-da-mae-em-compras-de-aplicativo-de-jogos.html)
Por formas de conexão com outras pessoas:
- Sem possibilidade de interação online (menor risco);
- Possibilidade de interagir apenas com pessoas convidadas/em círculo de amigos (apesar de, à priori, ser uma forma que possa ser de menor risco, notamos casos reais em que há a disseminação de links de grupos privados nos quais ocorrem o cometimento de crimes)
- Possibilidade de interagir e buscar ativamente por quaisquer pessoas na rede (nesse tipo de plataformas, caberia ponderar a facilidade de encontrar perfis de adolescentes nas buscas realizadas);
- Plataformas que ativamente te conectam com estranhos como parte do modelo de negócios (maior risco, a exemplo do Omegle e das denúncias recentes do aplicativo “Project Z”, a exemplo: https://www.instagram.com/reel/CuRpc_PtlHO/?igshid=MzRlODBiNWFlZA%3D%3D);
Cabe destacar que essa proposta de classificação não é estanque e pode variar a depender dos usos efetivos que são realizados dentro da plataforma.
Por necessidade de utilização da plataforma para gozo de direito fundamental ou participação em e acesso a elaboração de Políticas Públicas:
Exemplos: Gov.Br; plataformas de registro de denúncias e boletins de ocorrência online; plataformas para Cadastro Único para Programas Sociais e atualização de dados; plataformas que fazem controle de acesso a locais públicos e, portanto, agem sobre o direito fundamental de ir e vir e liberdade de locomoção; plataformas que permitem acesso a políticas públicas em situações emergenciais (a exemplo dos aplicativos para acesso ao Auxílio Emergencial); plataformas que reúnem indicadores que auxiliam na formação de políticas públicas sobre e para crianças e adolescentes
Necessidades: Acessibilidade e transparência, na medida em que são plataformas públicas necessárias para concretização de direitos fundamentais; reflexão de que essas plataformas podem vir a ser acessadas por crianças e adolescentes que, muitas vezes, apoiam seus familiares na navegação online; reflexões de que o risco de segurança da informação ou perda de controle de acesso desses tipos de plataformas pode gerar prejuízos sociais graves, sendo importante a sua segurança desde o design e a instrução clara de usuários sobre como utilizar (ex: famílias sem acesso ao auxílio emergencial na pandemia por terem caído em golpes de aplicativos falsos); reflexão sobre a importância de garantia desses serviços públicos também em meio não-digital, para garantir acesso de quem não possui conexão (seja por impedimento socioeconômico, regional ou por voluntariedade - “direito à desconexão”); alerta sobre transparência e rigor metodológico e da forma de exposição de dados em plataformas que produzem e disponibilizam dados sobre crianças e adolescentes, para impulsionar políticas públicas, a fim de evitar vieses e distorções, bem como preservar segurança e privacidade. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:01Para a definição dos melhores critérios adotados em uma regulação ou autorregulação, sugere-se uma ampla discussão com os representantes dos diferentes negócios e serviços existentes em plataformas digitais.
Critérios como necessidade de privacidade (ou grau de privacidade necessário para a prestação do serviço) e o fato de ser um sistema aberto ou fechado, por exemplo, também poderiam ser usados para classificar plataformas. - Kenzo Soares Seto 14/07/2023 às 16:12Devem ser considerados igualmente:
- o Regime de propriedade da plataforma, se pública, privada ou cooperativa.
Em sentido semelhante ao previsto na Constituição em relação a regulação da Comunicação Social e da Radiodifusão.
Plataformas cooperativas e públicas devem ter incentivos e não podem estar submetidas as mesmas obrigações que as privadas de grande escala, as quais podem constituir uma barreira de entrada no mercado. Inclusive é possível pensar em algum tipo de subsídio cruzado.
-O cumprimento da função social dos dados acumulados.
Plataformas que recolhem dados de utilidade pública, como de sistemas de transporte públicos ou dados sanitários da população, devem ser obrigadas a compartilhar-los, desde que anonimizados, com instituições públicas de pesquisa e de formulação de políticas públicas. Ex: Dados sanitários sobre pandemias coletados por plataformas privadas e instituições como a Fiocruz e o Min. de Saúde.
-O investimento local em P&D, infraestrutura e capacidade computacional instalada no Brasil.
Plataformas devem receber incentivos para desenvolver centros de tratamento de dados e desenvolvimento de IA's com a respectiva capacidade computacional necessária no Brasil, favorecendo o desenvolvimento do país no mercado digital e de IA.
-A prestação e concessão de serviços públicos.
Tratamento de dados e prestação de serviços digitais para instituições públicas devem prioritariamente ser atendidos por plataformas públicas ou cooperativas, especialmente na educação e saúde.
-O Grau de explicabilidade e transparência dos sistemas algorítmicos.
Devem haver incentivos para plataformas que aceitem auditorias algorítmicas para a análise e correção de possíveis vieses algorítmicos. - Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 16:44Outros aspectos devem ser considerados para classificar plataformas digitais:
- As consequências dos efeitos de rede.
- A capacidade de coleta, armazenamento e processamento de dados.
- Sua capacidade de "cercamento" dos usuários dentro de seus serviços e aplicações.
- A influência sobre o os fluxos informacionais.
- O poder sobre o debate púlico. - Alessandra Martins 11/07/2023 às 12:23Caso a Plataforma não presta um serviço essencial, deve ser avaliada a relevância da plataforma , considerando-se o numero de usuários inscritos, numero de usuários ativos, usuários que pagam por serviços diferenciados da plataforma, incluindo serviços de marketing como links patrocinados, publicações promovidas e etc, para poder se entender o quão impactante pode ser ou não um conteúdo vinculado em tal plataforma dada sua relevância.
Posto que uma plataforma pode ter 10 milhões de pessoas inscritas, mas apenas 100 mil usuários ainda ativos, e usuários pagantes 10 mil, o que significa que apesar dos 10 milhões, ela efetivamente só teria poder de engajar os no máximo 100 mil usuários ativos, o que diminui sua relevância, ou seja, o que restringe o impacto de seu conteúdo, já que o numero de pessoas que interage / consome os conteúdos da plataforma são reduzidos. - Miguel Said Vieira 10/07/2023 às 17:09Grau de intervenção algorítmica na intermediação realizada pela plataforma; quanto mais a plataforma intervem (por meio de algoritmos de recomendação, mecanismos de impulsionamento etc.) na intermediação que ela realiza entre seus usuários, e quanto mais essa intervenção seja opaca (use critérios não publicizados ou não verificáveis), mais intensa deve ser a regulação.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:33A ABRANET já indicou nos questionamentos anteriores que compõem a presente Consulta quais critérios entende como sendo adequados para a classificação de plataformas digitais em um esforço de regulação assimétrica. Tais são: (i) a oferta de um serviço essencial de plataforma, previsto em rol taxativo; (ii) o preenchimento de critérios de volumetria de usuários finais e profissionais, em números absolutos ou proporcionais à população localizada no país, por pelo menos os últimos três exercícios financeiros; e (iii) a detenção de posição dominante no mercado, também por pelo menos os últimos três exercícios financeiros. A Associação não considera necessária a previsão de outros critérios.
- Alex Camacho Castilho 06/07/2023 às 13:331. Impacto na concorrência: Além da participação de mercado, é importante considerar o impacto da plataforma na concorrência. Isso envolve analisar se a plataforma exerce influência significativa sobre a concorrência e se suas práticas podem prejudicar a entrada de novos concorrentes ou restringir a escolha dos usuários.
2. Efeitos sobre a economia local: Algumas plataformas digitais podem ter um impacto significativo na economia local devido a sua atividade comercial. Considerar os efeitos econômicos locais, como o suporte a pequenas empresas, a criação de empregos locais ou a geração de receita para a comunidade, pode ser relevante na classificação e regulamentação assimétrica.
3. Responsabilidade pela qualidade e segurança dos serviços: Plataformas que oferecem serviços que afetam a segurança ou qualidade de vida dos usuários podem ser classificadas com base em sua responsabilidade nesses aspectos. Por exemplo, uma plataforma que oferece serviços de transporte compartilhado deve ser avaliada em relação à segurança dos motoristas e passageiros.
4. Uso de algoritmos e inteligência artificial: O uso de algoritmos e inteligência artificial pelas plataformas digitais pode ter implicações significativas para a tomada de decisões automatizadas, personalização de conteúdo e possíveis efeitos discriminatórios. Considerar a transparência e a responsabilidade dos algoritmos pode ser um critério adicional na classificação e na definição das obrigações regulatórias.
5. Impacto ambiental: Plataformas digitais que têm um impacto relevante no meio ambiente podem ser classificadas com base em seu impacto ambiental. Por exemplo, plataformas de compartilhamento de carros elétricos podem ser consideradas positivamente em relação à sustentabilidade, enquanto outras plataformas que geram grande consumo de energia ou resíduos podem requerer regulamentação específica.
6. Proteção dos direitos do consumidor: Avaliar se a plataforma digital garante e protege os direitos dos consumidores é outro critério importante. Isso envolve considerar aspectos como transparência nas práticas comerciais, resolução de disputas, privacidade dos dados do usuário e políticas de reembolso.
7. Impacto social e cultural: Além dos aspectos econômicos, é importante considerar o impacto social e cultural das plataformas digitais. Isso pode incluir questões relacionadas à diversidade e inclusão, promoção de valores éticos, combate à discriminação e proteção da diversidade cultural.Miguel Said Vieira 10/07/2023 às 17:10Concordo com os critérios sugeridos pelo colega. - CEIIAS, Centro de Estudos Integrados, Infancia, Adolescencia e Saude (comentário inserido por: Evelyn Eisenstein) 03/07/2023 às 16:24Já descrevi acima critérios de regulamentação sobre conteudos adequados/apropriados OU NÂO para a pop de crianças e adolescentes até 18 anos segundo o ECA e segundo os critérios do # Melhor interesse da criança ver o comentario geral #24 das Nações Unidas sobre o uso das midias digitais p crianças e adolescentes e as recomendações
- IPOL-UnB (comentário inserido por: Isabela Rocha) 27/06/2023 às 11:20Mídias Sociais Digitais como espaço de convivência
As Mídias Sociais Digitais podem ser compreendidas como espaços imateriais onde indivíduos se encontram, interagem e compartilham informações, criando vínculos e comunidades. Nesse ambiente de convivência, indivíduos de diferentes origens, culturas e ideias podem se conectar, estabelecer relacionamentos e participar de discussões sobre diversos temas.
As plataformas, das mais populares como o Facebook, o Twitter, o Instagram, o WhatsApp e o TikTok, até as (relativamente) menos populares como o Reddit, o Discord, o Tumblr, o Medium, o Wattpad dentre outras, proporcionam um ambiente dinâmico, onde é possível compartilhar opiniões, experiencias, interesses, e até mesmo realizar atividades conjuntas, como jogos online e projetos colaborativos. Dentro destas plataformas, que são tão variadas quanto múltiplas, interações acontecem por meio de publicações, comentários, compartilhamentos e mensagens diretas, tomam a forma de texto, vídeos, imagens que podem ser fotos, montagens, memes, enfim.
O que é fato é que hoje, as plataformas são predominantemente aquiescentes na socialização humana , e tornaram-se, de fato, espaços de convivência.
Mídias Sociais Digitais como vetores disseminação de narrativas
Uma vez que são aquiescentes na socialização, as Mídias Sociais Digitais desempenham um papel significativo na propagação de narrativas, se tornando espaços onde as histórias são compartilhadas, disseminadas e amplificadas. Essas plataformas oferecem uma arena virtual para que indivíduos e grupos possam expressar suas ideias, opiniões e perspectivas de maneira rápida e acessível, e, de fato, narrativas podem disputar não apenas por destaque, mas também pela verdade, e funcionam bem dentro do panorama proposto pela Economia de Narrativas:
São as proposições de Shiller (2019) para a Economia de Narrativas:
I. as epidemias narrativas podem ser rápidas ou lentas, grandes ou pequenas, e seu impacto pode variar de uma atividade política temporária a uma grande mudança no cenário político (ibidem, p. 136);
II. nem todas as narrativas amplamente compartilhadas nas redes sociais são igualmente importantes, sendo necessário identificar e monitorar as narrativas verdadeiramente influentes, mesmo que representem uma pequena porcentagem do discurso popular (ibidem, p. 138-140);
III. as constelações narrativas, que são grupos de narrativas relacionadas compartilhadas entre diferentes grupos ou comunidades, têm um impacto maior na tomada de decisões do que uma única narrativa isolada (ibidem, p. 141-142);
IV. o impacto das narrativas pode mudar ao longo do tempo, sendo importante monitorar sua evolução e adaptação às circunstâncias políticas em constante mudança (ibidem, p. 143-144);
V. a verdade por si só nem sempre é suficiente para combater narrativas falsas, pois estas muitas vezes se baseiam em emoções e crenças que são resistentes a evidências factuais (ibidem, p. 145-147);
VI. a propagação das narrativas é impulsionada pela repetição, sendo necessário monitorar como as narrativas econômicas são repetidas e por quem (ibidem, p. 148-150);
VII. as narrativas que se conectam aos interesses humanos, identidade e patriotismo têm mais probabilidade de serem compartilhadas e influenciar a tomada de decisões econômicas (ibidem, p. 151-154).
Fonte:
SHILLER, Robert. Narrative Economics: How Stories Go Viral & Drive Major Economic Events. Princeton University Press, 2019. - Guilherme Alves 21/06/2023 às 13:13Uso ou não de ferramentas automatizadas de exibição dos conteúdos gerados por terceiros.
- Roberto Cardoso Freire da Silva 20/06/2023 às 12:171) Quanto à forma de monetização;
2) Quanto a sensibilidade dos dados pelos/com os quais opera;
3) Pela autonomia de seus algoritmos na produção de resultados que independem da ação humana (análise preditiva e IA generativa). - Anderson Nascimento Nunes 26/05/2023 às 13:33Se a plataforma usa hardware projetado no estrangeiro ela está vulnerável a ter seus dados silenciosamente alterados por quem controla o projeto dos processadores usados. Mesmo que a plataforma queira se adequar a legislação, terceiros podem obter influencia indevida e impedir o cumprimento da regulação.
- Gabriel Capellari Santos 25/04/2023 às 13:57Além dos critérios mencionados anteriormente, existem outros que também podem ser relevantes para classificar as plataformas digitais em uma regulação assimétrica:
Interdependência com outros mercados: Este critério se refere à interdependência da plataforma digital com outros mercados relevantes, como por exemplo, os mercados de publicidade digital ou de serviços de pagamentos. Uma plataforma que exerce grande poder em um mercado pode afetar significativamente outros mercados relacionados, o que pode ser um indicador relevante para avaliar o seu potencial impacto na economia.
Uso de dados pessoais: Este critério se refere ao uso de dados pessoais por parte da plataforma digital. As plataformas podem coletar e processar grandes quantidades de dados pessoais dos usuários, o que pode gerar preocupações com privacidade e segurança dos dados.
Capacidade de afetar a opinião pública: Este critério se refere à capacidade da plataforma digital de afetar a opinião pública e influenciar a disseminação de informações. Plataformas de redes sociais, por exemplo, podem exercer um grande impacto na disseminação de notícias e na formação de opinião pública, o que pode gerar preocupações com desinformação e propaganda política.
Impacto ambiental: Este critério se refere ao impacto ambiental da operação da plataforma digital, como por exemplo, o consumo de energia e emissões de gases de efeito estufa. Plataformas que operam em grande escala podem ter um impacto significativo no meio ambiente, o que pode gerar preocupações com sustentabilidade e responsabilidade social.Guilherme Marques Ferri 22/06/2023 às 22:44De acordo !Fernanda Hoffmann Lobato 01/06/2023 às 17:34São critérios relevantes.Symon Andrade 22/05/2023 às 12:18Não deve haver regulamentação de nenhum tipo, pois as plataformas digitais não são concessionárias do governo ou do CGI.BR - Departamento de Transformação Digital, Inovação e Novos Negócios (SDIC/MDIC) (comentário inserido por: Luiz Gondin) 17/07/2023 às 00:07Ao saudar a iniciativa do Comitê Gestor da Internet no Brasil (CGI.br), de abrir um processo de escuta da sociedade sobre tema tão candente e relevante para o desenvolvimento da Internet brasileira e mundial, esperamos que as contribuições recolhidas possam servir para os legisladores definirem marcos legais que passem a balizar as condutas e ações das plataformas digitais no Brasil.
Para fins desta consulta sobre regulação de plataformas desenvolvida pelo CGI.br, o Departamento de Transformação Digital, Inovação e Novos Negócios (DEIN), unidade que integra a Secretaria de Desenvolvimento Industrial, Inovação, Comércio e Serviços (SDIC) do Ministério do Desenvolvimento, Indústria, Comércio e Serviços (MDIC), optou por contribuir propositivamente com comentários, considerações e respostas a uma parcela dos questionamentos desta Consulta.
Nesse sentido, importante ainda salientar que os comentários ora submetidos pelo Departamento visam somar a um debate amplo e em construção, inclusive no âmbito do setor público, composto por outras numerosas instituições qualificadas e competentes na temática, direta ou indiretamente. Assim, as contribuições feitas nesta oportunidade não necessariamente refletem ou vinculam o posicionamento institucional ou a opinião da Secretaria que integra.
Contribuições às questões da consulta:
1. Quem regular
Quase trinta anos após o surgimento da Internet comercial, verifica-se a necessidade de novas formas de se classificar os atores que atuam em suas diversas camadas. Uma das designações amplamente difundida é o termo “plataformas digitais”, adotado nesta consulta.
1. Qual é a melhor definição de plataformas digitais considerando a necessidade de regular sua atuação?
A regulação das plataformas digitais precisa considerar a diversidade de tipos de serviços e modelos de negócios oferecidos por esses atores, como plataformas de redes sociais, comércio eletrônico, plataformas de notícias, mecanismos de busca, aplicativos de mensagem privada etc. Há uma variedade de dimensões possíveis, como o tipo de serviço oferecido, os mecanismos de remuneração, os padrões de relação com usuários, entre outros.
À luz deste primeiro questionamento, sugerimos considerar, para referência, a conceituação constante em trabalho de BELLEFLAMME e PEITZ (2021), nos quais plataformas digitais são caracterizadas por dois atributos básicos: conexão entre indivíduos ou empresas e efeitos de rede: "Uma plataforma é uma entidade (entity) que reúne agentes econômicos e gere ativamente os efeitos de rede entre eles" (BELLEFLAMME; PEITZ, 2021, p. 29, tradução nossa). Esta interpretação realça duas características essenciais. Primeiro, o objetivo de conectar e permitir interações e transações entre as partes (conectividade). Em segundo lugar, os efeitos de rede, que se relacionam com o valor de uma rede relacionada com a sua dimensão: o impacto que um usuário adicional de um produto ou serviço, ou um participante adicional a alguma interação, tem sobre o valor que outros usuários ou participantes atribuem a este produto, serviço ou interação (BELLEFLAMME; PEITZ, 2021). Os efeitos de rede são importantes porque impulsionam fenômenos fundamentais relacionados às plataformas digitais, tais como os loops de atração, dinâmicas dos vencedores (winner-takes-all dynamics) e estratégias de crescimento." (Chiarini et alli, no prelo)
2. Quais são as dimensões relevantes para descrever os diferentes tipos de plataformas digitais?
Buscando a proporcionalidade de medidas legais e regulatórias e a diversidade dos modelos e tamanhos de plataformas digitais, entende-se, a princípio, que essa regulação deve ser assimétrica. Há diversos critérios apontados como possíveis pela literatura e pela regulação internacional para identificar aquelas plataformas que oferecem maior risco à sociedade e, portanto, merecem maior atenção à definição de suas obrigações regulatórias.
Alguns dos critérios que podem ser usados para subsidiar o dimensionamento de eventual peso regulatório sobre plataformas, sem prejuízo a outras características, incluem: poder de mercado do conglomerado (na medida em que se verificasse risco de abuso de posição dominante); ameaças ao refreamento da inovação e do desenvolvimento tecnológico por eventual excesso de poder autorregulatório.
3. Comente e defina, se necessário, os critérios a seguir para classificar plataformas digitais:
i Participação de mercado (market share);
ii Valor de mercado ou faturamento;
iii Quantidade de usuários e de clientes (empresariais ou não);
iv Serviço essencial de plataforma1;
v Controle essencial de acesso (gatekeeper);
vi Tipos de serviços.
A classificação das plataformas digitais deve levar em conta uma cesta de critérios que componham um perfil específico do agente a ser regulado. A princípio, os mais importantes a serem incialmente considerados parecem-nos ser o faturamento em um dado mercado no País, o número de usuários, o controle essencial de acesso e a singularidade da entidade em um mercado determinado ou em vários segmentos econômicos. Conjugadas, estas características podem ser instrumentais para caracterização de uma assimetria regulatória equilibrada, que proteja os pequenos negócios sem deixar de lado a supervisão dos principais atores.
4. Caso haja outros critérios que devem ser utilizados para classificar as plataformas digitais em uma regulação assimétrica, descreva a seguir.
2. O que regular
2.1. GRUPO DE RISCOS - Riscos relacionados a ameaças à concorrência, ao consumo, ao abuso de poder econômico e à concentração econômica e de dados
As plataformas digitais desempenham funções relevantes na economia, conectando empresas e usuários (profissionais ou consumidores) e criando novas oportunidades de negócios. Contudo, algumas plataformas, de grandes dimensões e com fornecimento de serviços indispensáveis, podem explorar um conjunto de características e estratégias para garantir vantagens competitivas, incorrendo, muitas vezes, em distorções do mercado e abusos de posição dominante. Algumas plataformas gozam de enormes economias de escala, de efeitos de rede – aproveitando sua natureza multilateral -, de integração vertical e das vantagens decorrentes da concentração de dados nessa economia. Pode-se chegar ao controle sobre ecossistemas inteiros, sendo estruturalmente difícil que a posição dessas plataformas seja desafiada, disputada ou regulada. Essa combinação de estratégias, somada ao enorme poder econômico, tem a potencialidade de resultar em uma série de efeitos negativos sobre a economia, como desequilíbrios graves nas relações comerciais, em detrimento de preços, qualidade, lealdade na concorrência, escolha e inovação no setor digital. Uma diversidade de atores aponta, então, a insuficiência dos instrumentos regulatórios atuais, ex ante e de mecanismos do antitruste, para resolução desses novos problemas. Assim, com vistas ao enfrentamento destes e de outros desafios, faz-se necessário mapear os riscos ofertados pelas atividades das plataformas digitais para a concorrência, consumo, abuso de poder econômico e concentração econômica e de dados, bem como as medidas necessárias para mitigar tais riscos – como solicitaremos que você faça nesta seção.
5. Você concorda que os riscos elencados a seguir, relacionados a ameaças à concorrência, ao consumo, ao abuso de poder econômico e à concentração econômica e de dados devem ser considerados para a regulação de plataformas digitais? Comente cada risco.
i Riscos associados à concentração no tratamento (coleta, armazenamento, uso, análise etc.) de dados (pessoais ou não) e nas infraestruturas críticas de coleta, armazenamento, análise e processamento de dados (pessoais ou não);
Os riscos poderiam ser qualificados em níveis distintos (ex: excessivo, alto, médio ou baixo) e acompanhados por eventual entidade reguladora como forma de proteção de dados pessoais dos usuários e empresas. As infraestruturas físicas de coleta e armazenamento de dados podem ser consideradas como objeto de fiscalização por regulador apropriado de forma periódica ou sob demanda de autoridades competentes.
ii Riscos associados aos efeitos negativos da concentração de mercado e do abuso de poder econômico das plataformas sobre a promoção da concorrência;
Os riscos poderiam ser acompanhados por eventual autoridade regulatória como forma de prevenir abusos de posição dominante por parte das plataformas e evitando concentração de mercado, sem prejuízo e complementarmente à atuação do CADE, no exercício de sua missão institucional.
iii Riscos associados à inibição de modelos alternativos para a economia de plataformas digitais, envolvendo impactos negativos para a inovação;
Os riscos poderiam ser acompanhados por eventual órgão regulador como forma de não inibir a inovação ou impedir a entrada de novos agentes no mercado. Nesse sentido, pode ser importante também considerar os efeitos de concentração excessiva de poder em mercados autorregulados para os desenvolvedores de aplicações digitais nacionais, especialmente aqueles de menor porte.
Iv Riscos associados aos impactos negativos sobre oferta e qualidade de produtos e serviços digitais;
Estes riscos podem ser acompanhados por eventual órgão regulador, sem prejuízo da atuação regular por parte da Secretaria de Defesa do Consumidor e PROCONs, como forma de evitar a comercialização de produtos e prestação de serviços que vão de encontro aos direitos do consumidor em termos de qualidade e preço.
v Riscos associados à concentração na oferta de publicidade;
vi Riscos associados à ausência de modelo de tributação adequado às especificidades dos modelos de negócio das plataformas digitais.
6. Caso haja riscos relacionados a ameaças à concorrência, ao consumo, ao abuso de poder econômico e à concentração econômica e de dados que não tenham sido mencionados, descreva a seguir. Aponte as medidas de mitigação desses novos riscos.
7. Considerando os riscos associados à concentração no tratamento de dados (pessoais ou não) e nas infraestruturas críticas de coleta, armazenamento, análise e processamento, opine sobre as seguintes medidas de mitigação do risco:
i Definir regras de interoperabilidade de dados;
ii Prever a inibição ou proibição do compartilhamento de dados entre empresas pertencentes ao mesmo grupo.
8. Caso haja medidas de mitigação para os riscos associados à concentração no tratamento de dados (pessoais ou não) e nas infraestruturas críticas de coleta, armazenamento, análise e processamento que não tenham sido mencionadas, descreva a seguir.
9. Considerando os riscos associados à concentração de mercado e ao abuso de poder econômico, opine sobre as seguintes medidas de mitigação:
i) Considerar outros fatores, na avaliação de práticas anticoncorrenciais, como objetivos do Sistema Brasileiro de Defesa da Concorrência2 (por exemplo, a proteção à privacidade);
ii) Rever critérios para a análise de atos de concentração (previstos no Art. 88 da Lei no 12.5293) devido às especificidades de atribuição de valor e posição dominante na economia digital, inserindo, por exemplo, critérios de quantidade de usuários ou faturamento global;
iii) Vedar formas de auto referenciamento para grandes plataformas;
iv) Limitar verticalizações em certas infraestruturas-chave em que demais agentes e mercados dependem das condições estabelecidas pela plataforma dominante, determinando a separação de agentes por camadas ou atividades;
v) Definir regras que impeçam abuso de posição dominante de grandes plataformas nas negociações com desenvolvedores dependentes de sua estrutura (por exemplo, em lojas de aplicativos).
10. Caso haja medidas de mitigação para os riscos associados à concentração de mercado e ao abuso de poder econômico que não tenham sido mencionadas, descreva a seguir.
11. Considerando os riscos associados ao desestímulo a modelos alternativos para a economia de plataformas digitais, opine sobre possíveis medidas de mitigação:
I) Garantir prestação de assistência técnica e de incentivos creditórios especiais necessários à criação, ao desenvolvimento e à integração de modelos alternativos.
12. Caso haja medidas de mitigação para os riscos associados ao desestímulo a modelos alternativos para a economia de plataformas digitais que não tenham sido mencionadas, descreva a seguir.
13. Considerando os riscos associados à concentração na oferta de publicidade, proponha possíveis medidas de mitigação.
14. Considerando os riscos associados à ausência de modelo de tributação adequado às especificidades dos modelos de negócio das plataformas digitais, proponha possíveis medidas de mitigação.
2.2. GRUPO DE RISCOS - Riscos relacionados a ameaças à soberania digital e ao desenvolvimento tecnológico
No contexto da Internet, a soberania digital é um termo em disputa, mas, para a finalidade desta Consulta, refere-se à capacidade de o país proteger e desenvolver sua infraestrutura digital autonomamente e garantir a proteção de dados pessoais e estratégicos de seus cidadãos. Plataformas desenvolvem estratégias baseadas em infraestruturas para oferecer os mais variados serviços, com capacidade de configurar espaços e condições de interação de acordo com seus interesses. Alguns pesquisadores apontam, por exemplo, que uma série de serviços e mercados têm sofrido um processo de plataformização. As grandes plataformas, assim, emergem como lógica organizacional de mercados e áreas essenciais da vida em sociedade, podendo impactar capacidades estatais de desenvolvimento, atuação em políticas públicas e, em última instância, sua soberania. Um passo essencial para enfrentar esses desafios é mapear os riscos relacionados a ameaças soberania digital e ao desenvolvimento tecnológico, e as medidas necessárias para mitigar tais riscos – como solicitaremos que você faça nesta seção.
15. Você concorda que os riscos elencados a seguir, relacionados à soberania digital e ao desenvolvimento tecnológico, devem ser considerados para a regulação de plataformas digitais? Comente cada risco.
i Riscos associados a ameaças à soberania tecnológica brasileira sobre infraestruturas críticas (como comunicações, energia, educação, entre outros) e o consequente enfraquecimento da capacidade de o Estado definir políticas e estratégias que atendam a interesses nacionais;
Sim; na medida em que essas plataformas possam ter acesso e utilizar dados com origem em infraestruturas críticas, a falta de controle sobre os dados das infraestruturas pode levar a vulnerabilidades e a uma diminuição da capacidade estatal de definir políticas e estratégias que atendam aos interesses nacionais.
ii Riscos associados a ameaças relacionadas ao fluxo transfronteiriço de informações e dados, principalmente de cidadãos brasileiros;
Sim, na medida em que o fluxo transfronteiriço de informações e dados possa impor desafios à proteção da privacidade e segurança dos cidadãos brasileiros, a exemplo de potencial violação de privacidade e uso indevido de dados de brasileiros por parte de terceiros, especialmente à luz de arcabouço regulatório já estabelecido no país, como a Lei Geral de Proteção de Dados (LGPD).
iii Riscos associados a ameaças de espionagem, invasão de privacidade e operações de influência.
Da mesma forma que nos itens anteriores, são pertinentes na regulação de plataformas digitais na medida do risco de comprometimento de dados sensíveis de cidadãos e/ou de instituições brasileiras, inclusive em termos de segurança da informação e privacidade dos usuários.
16. Caso haja riscos relacionados à soberania digital e ao desenvolvimento tecnológico que não tenham sido mencionados, descreva a seguir. Indique as medidas de mitigação desses novos riscos.
Sem prejuízo a uma listagem mais ampla e completa, segue-se breve menção a três riscos não mencionados explicitamente nas perguntas, visando somar ao debate em andamento:
i) Dependência excessiva de tecnologias e produtos digitais estrangeiros pode comprometer a autonomia tecnológica e a capacidade do país de desenvolver soluções locais.
ii) Os algoritmos utilizados pelas plataformas digitais podem resultar em discriminação e/ou replicação de vieses.
iii) Concentração de poder em poucos atores (monopólios, oligopólios) pode levar a práticas anticompetitivas, falta de diversidade e limitação de escolhas para os usuários.
Em relação às medidas de mitigação para esses novos riscos, é fundamental adotar abordagens multissetoriais, envolvendo governo, setor empresarial, sociedade civil e academia. Pode-se destacar, por exemplo, incentivar a pesquisa e o desenvolvimento de tecnologias nacionais, investir em capacitação e promover parcerias estratégicas que fomentem a inovação nacional. Nesse sentido, destaca-se a retomada dos trabalhos do Conselho Nacional de Desenvolvimento Industrial, bem como sua Resolução nº 01/2023, por meio da qual foram estipuladas as missões e os objetivos específicos da política de neoindustrialização, destacando-se aqueles relacionados ao desenvolvimento nacional de tecnologias e à transformação digital do setor produtivo brasileiro.
17. Considerando os riscos associados a ameaças à soberania tecnológica brasileira sobre infraestruturas críticas de informação e comunicação, opine sobre as seguintes medidas de mitigação:
i Determinar preferência em contratações ou investimentos em tecnologias nacionais que sejam aderentes aos critérios de uma definição de soberania tecnológica;
ii Investir em infraestruturas críticas de comunicação pública. Em caso afirmativo, quais infraestruturas públicas deveriam ser desenvolvidas;
iii Incentivar o desenvolvimento, por empresas nacionais, de software de código aberto, de qualidade, seguro, auditável e aberto para adequação a interesses e necessidade do Estado.
18. Caso haja medidas de mitigação para riscos associados a ameaças à soberania tecnológica brasileira sobre infraestruturas críticas de informação e comunicação que não tenham sido mencionadas, descreva a seguir.
19. Considerando os riscos associados ao fluxo transfronteiriço de informações e dados, opine sobre as seguintes medidas de mitigação:
i Definir categorias de dados para classificá-los quanto à relevância estratégica para o Brasil, criando mecanismos para localização em território brasileiro;
Definir categorias de dados e estabelecer mecanismos para a localização desses dados em território brasileiro pode ser relevante para mitigar os riscos associados ao fluxo transfronteiriço de informações e dados, sem deixar de considerar questões técnicas, jurídicas e econômicas. Nesse sentido, é importante equilibrar a proteção dos dados sensíveis com a necessidade de promover a inovação, o fluxo de informações e o desenvolvimento econômico e tecnológico.
ii Construir redes federadas para transmissão de dados em território nacional e internacional.
20. Caso haja medidas de mitigação para os riscos associados ao fluxo transfronteiriço de informações e dados que não tenham sido mencionados, descreva a seguir.
21. Considerando os riscos associados a ameaças de espionagem, invasão de privacidade e operações de influência, proponha medidas de mitigação.
i) Promover programas de conscientização e treinamento em segurança cibernética e boas práticas de proteção de dados para funcionários, usuários finais e stakeholders. Implementar uma cultura de segurança no contexto da conscientização sobre os riscos associados à espionagem e invasão de privacidade.
Ii) Assegurar a conformidade com leis e regulamentações de proteção de dados, como a Lei Geral de Proteção de Dados (LGPD) no Brasil, e adotar medidas para proteger informações pessoais e sensíveis de usuários.
Iii) Desenvolver e implementar políticas claras de segurança e privacidade que definam as diretrizes e as responsabilidades de todas as partes envolvidas.
Iv) Promover boas práticas relacionadas a auditorias regulares para avaliar a conformidade com as políticas de segurança e privacidade estabelecidas.
v) Implementar medidas de segurança cibernética robustas para proteger os sistemas e redes contra ataques e acessos não autorizados.
3. Como regular
As plataformas digitais desenvolvem atividades de grande complexidade e transversalidade, de modo que estão sujeitas a diversas regulações e sob diversos entes regulatórios. Há uma gama de desafios e possibilidades de arranjos institucionais e mecanismos de autorregulação para a implementação da regulação de plataformas, os quais podem envolver distintos órgãos do governo, diversas agências reguladoras e autoridades, bem como diálogos com a sociedade civil, conselhos e associações privadas. Surgem, portanto, questões sobre competência, legitimidade e coordenação entre todos estes atores e possíveis novos organismos para plataformas digitais. Assim, com vistas ao enfrentamento destes e outros desafios, faz-se necessário formular os arranjos dessa arquitetura regulatória – como solicitaremos que você faça nesta seção.
39. Quais órgãos, agências ou autoridades públicas devem estar diretamente envolvidos com a implementação da regulação de plataformas digitais? Quais as principais atribuições que esses atores devem ter?
A possibilidade e as possíveis formas regulação de plataformas digitais é um tema multissetorial e multidisciplinar, envolvendo atores de governo, do setor empresarial, da sociedade civil e da academia, com alcance e impacto transversais. Por estes motivos, o exercício de listagem de atores diretamente envolvidos – ainda que apenas em relação ao setor público – não deve ser restritiva ou taxativa.
40. Quais outras entidades (públicas ou privadas) têm papéis a desempenhar?
41. Há a necessidade de criação de novas instituições para a implementação da regulação de plataformas digitais? Em caso afirmativo, quais principais atribuições deveriam ser delegadas a essa organização?
Posto que se trata de elemento central no amplo debate em que se insere a presente Consulta Pública, é importante atentar que a hipótese de eventual criação de novos arranjos institucionais deve ser considerada como consequente às definições quanto ao objeto, escopo e objetivos de eventual regulação direcionada a plataformas digitais, e não o seu ponto de partida.
Isso dito, considerando o estágio atual do debate, parece seguro argumentar pela importância de que o arranjo institucional brasileiro se atente à eventual necessidade de adaptar-se a fenômenos sociais e econômicos decorrentes do advento e crescente relevância de plataformas digitais. É nesse sentido que parece razoável arguir-se pela criação de entidade especializada com o objetivo de atuar na regulação e fiscalização deste domínio, ou, alternativamente, atribuir esta missão a entidade existente, respeitando-se as peculiaridades do desafio, considerando sua dimensão e complexidade.
Feita esta consideração, importa sopesar, à luz de outros debates em andamento, a conveniência e oportunidade de designar-se órgãos reguladores distintos para áreas correlatas, cujos objetos se entrecruzam e poderiam ser tratados por um mesmo corpo técnico especializado e mesma infraestrutura, com potenciais ganhos de escala e de sinergia. Nesse sentido, importante que seja considerada a possibilidade de a mesma entidade eventualmente criada ou designada para a regulação de plataformas digitais seja também incumbida de, por exemplo, definir diretrizes e acompanhar os mercados de inteligência artificial.
Neste cenário, a entidade especializada a que couber esta atribuição – seja esta uma nova instituição, seja uma instituição existente revestida de novas competências – deve dispor de ferramentas e recursos próprios condizentes para cumprir seus objetivos centrais, que pareceriam ser, neste estágio do debate: regular, economicamente e socialmente, as plataformas digitais e as empresas que desenvolvem e implementam sistemas de inteligência artificial; definir periodicamente a lista de riscos a serem mitigados pela atuação destas empresas; fiscalizar e sancionar abusos cometidos por estas empresas; além de outras atribuições.
Por fim, a existência de eventual entidade especializada não deveria afastar, nem excluir a atuação e o papel de outros atores e agências com competências regulatórias setoriais – pelo contrário, suas atuações deveriam ser harmônicas e complementares.
42. Quais arranjos institucionais para coordenar e articular essa diversidade de entidades (públicas e privadas) envolvidas (por exemplo, dividir competências, articular relações e cooperações interinstitucionais) devem ser estabelecidos (considerados)?
A agência nacional teria em sua composição a existência de um Comitê de Governança para coordenar e articular a atuação dos órgãos que tenham atuação direta na temática (a exemplo do exercício provocado na pergunta 40). Ele seria responsável por dividir as competências entre os diferentes entes e levar a cabo as interações necessárias de cooperação entre os mesmos.
43. Como devem ser implementadas medidas de reparação e sancionamento no caso de violação das obrigações definidas na regulação de plataformas digitais?
Tais medidas podem ser objeto de sopesamento e ponderação de acordo com o nível de risco, o abuso cometido pelo ente fiscalizado, sua área de atuação, poder de controle (gatekeeping) e seu porte. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:24As plataformas digitais oferecem diversos recursos, que incluem aplicativos que suportam as operações comerciais, aplicativos que facilitam a interação entre os usuários por meio de mensagens de texto e vídeos, aplicativos de monitoramento de tráfego, aplicativos e serviços de governo eletrônico, aplicativos de monitoramento de dados de saúde e muitos mais. Esses aplicativos trazem inúmeros benefícios aos usuários, facilitando as atividades diárias, além de alavancar o crescimento econômico, a geração de empregos, o aumento da produtividade e a inovação em escala global. As plataformas digitais também abrem as portas para novas empresas físicas e digitais em várias partes do mundo, permitindo a inovação e a visibilidade de produtos tanto localmente quanto globalmente. As pequenas e médias empresas, em particular, estão cada vez mais utilizando a Internet e as ferramentas digitais para crescer e impulsionar o crescimento econômico em suas comunidades, ajudando a superar as barreiras tradicionais de experiência e conhecimento limitados, e alavancando uma infinidade de opções on-line gratuitas ou de baixo custo para aumentar seus negócios. Por exemplo, pequenas e médias empresas usam a Internet para obter acesso direto à bilhões de clientes instantaneamente e estabelecer confiança e reconhecimento internacional de sua marca, o que lhes permite acessar mercados regionais e globais. Além disso, permitem que os modelos de negócios digitais evoluam e se adaptem para melhor atender às demandas e necessidades dos consumidores, inclusive melhorando a prestação de serviços aos cidadãos por meio de aplicativos.
Também é relevante ressaltar que os aplicativos alimentados por plataformas digitais são globais. Isso significa que os usuários normalmente podem acessar e usar aplicativos, independentemente de sua localização geográfica. Além disso, o uso de um aplicativo pelos usuários não é exclusivo. Em outras palavras, um internauta brasileiro pode usar qualquer aplicativo de sua preferência que esteja disponível globalmente e, imediatamente, optar por usar outro, ou vários outros aplicativos – ou seja, o uso de um aplicativo não exclui o uso de outro aplicativo. Esse fato ajuda a demonstrar que as plataformas digitais efetivamente competem entre si pelos usuários.
Os benefícios diretos e indiretos que uma internet próspera traz para o desenvolvimento socioeconômico de um país exigem uma abordagem de política pública que incentive esse ecossistema, ao invés de criar barreiras que desestimulam a inovação e privam os usuários dos benefícios gerados pelas plataformas digitais.
Além disso, o Brasil possui um sistema de regulação antitruste robusto e abrangente, equipado para lidar com questões de concorrência nos mercados digitais. Ademais, o Conselho Administrativo de Defesa Econômica (CADE) possui o conhecimento e a capacidade necessários para conduzir investigações antitruste rigorosas e baseadas em evidências. Ao longo dos anos, o CADE aplicou seus poderes regulatórios em todos os setores para promover a concorrência, inclusive nos mercados digitais, e investigou – ou está investigando ativamente – inúmeras grandes empresas de tecnologia. Embora seja apropriado que o governo brasileiro avalie a suficiência de seu sistema de regulação antitruste, na medida em que seja determinado que qualquer nova regulamentação em potencial é necessária para lidar com supostos novos riscos relacionados aos mercados digitais, isso não deve entrar em conflito com a competência do CADE e com as autoridades existentes. - Marcelo Cotta 16/07/2023 às 17:36A TELEFÔNICA BRASIL S.A., Prestadora de diversos serviços de telecomunicações, doravante denominada apenas TELEFÔNICA, parabeniza o Comitê Gestor da Internet no Brasil (CGI.br) pela promoção desta Consulta Pública.
Primeiramente, faz-se necessário pontuar que esta Prestadora sempre preza por ser propositiva nos temas sobre uso da internet. Nesse sentido, é importante destacar o relevante papel do CGI.br na articulação de medidas e ações para constituição de um arcabouço normativo e regulamentar que suporte o pleno desenvolvimento das atividades inerentes à Internet no Brasil.
A proposta da Consulta Pública sobre Regulação das Plataformas Digitais é de suma importância para dar continuidade à implementação de mecanismos de proteção aos usuários da internet. Entretanto, esta Consulta abre também a oportunidade de se debater mecanismo para além do estabelecimento da proteção da privacidade dos indivíduos e da utilização indevida de seus dados pessoais. Deve-se buscar igualmente a criação de medidas que protejam a livre concorrência e que evitem os riscos sistêmicos que as atividades das Plataformas Digitais podem acarretar à economia, alguns inclusive já identificados e que serão objeto da presente contribuição, e que, por consequência, alcançam a sociedade brasileira como um todo.
Nesse sentido, a TELEFÔNICA entende que, diante da necessária constituição de legislações e regulações sobre o modelo de negócio dos atores do ecossistema digital, especificamente as Plataformas Digitais, é de suma importância o processo de mapeamento das falhas de mercado, a identificação dos danos causados por elas e os riscos que afetam as estruturas de mercado nas quais estão inseridas as Prestadoras de serviços de Telecomunicações, as Plataformas Digitais e os usuários finais, de modo que seja possível a construção de normativos que mitiguem tais falhas e reequilibrem os mercados constantes do ecossistema digital.
I. Ecossistema Digital: mercado de dois lados e sua metodologia de precificação
O desenvolvimento da economia digital ocorreu sob a estrutura de mercado de plataformas, que, segundo a teoria econômica, pode ser compreendido como um mercado representado por empresas intermediadoras do relacionamento entre dois tipos de usuários distintos, isto é, um mercado de dois lados. Entretanto, com a evolução deste mercado, a partir da adoção de novas tecnologias, os parâmetros de negociação ampliaram-se ao ponto de que estas plataformas passaram a ofertar mais de um tipo de produto e/ou serviço, culminando em uma dinâmica de mercado multilateral.
Os mercados de dois lados são modelos econômicos nos quais há interação entre dois grupos distintos de agentes econômicos que se beneficiam mutuamente por meio de uma plataforma intermediária. Tais mercados são caracterizados pela presença de dois lados ou grupos de usuários interdependentes, em que cada um deles depende da presença do outro para obter valor da plataforma. Um lado é composto pelos fornecedores de um produto ou serviço, enquanto o outro lado é composto pelos consumidores ou usuários desse produto ou serviço.
Nesse sentido, vale destacar que a plataforma atua como um intermediário facilitador da interação entre esses dois grupos de usuários, gerando valor ao reunir os dois lados e permitir que eles se encontrem e realizem transações. Essa interdependência gera um efeito de rede, no qual quanto maior é a quantidade de usuários acessando, maior será a demanda e o valor agregado do produto ou serviço ofertado, o que acaba possibilitando maiores ganhos de escala.
Esse tipo de mercado pode ser encontrado em várias indústrias do ecossistema digital, como transporte (Uber, 99), hospedagem (Airbnb), e-commerce (Amazon), redes sociais (Facebook) e muitos outros mercados tradicionais como o de pagamentos (ex.: cartões de crédito) e, ainda, o caso do próprio mercado de telecomunicações, conforme será descrito nos parágrafos seguintes.
Contudo, segundo estudos recentes da TELEFÔNICA [1], mesmo o setor de telecomunicações estando em um mercado no qual há a intermediação de dois grupos por uma plataforma, a responsabilidade pela remuneração dos serviços da plataforma, historicamente e exclusivamente, se concentrou somente em um dos grupos, qual seja, no usuário final.
Dessa maneira, as Operadoras de telecomunicações atuam como intermediárias entre os produtores de conteúdo e os consumidores finais, gerenciando a infraestrutura e oferecendo serviços de telefonia, internet e televisão aos usuários. Entretanto, com o surgimento e o crescimento das Plataformas Digitais, a dinâmica mudou. Nos últimos anos, esta situação tem se tornado crítica, uma vez que, diferentemente do modelo tradicional de serviços baseados em voz, o crescimento no tráfego de dados vem sendo impulsionado principalmente por conteúdos gerados/distribuídos massivamente pelas Plataformas Digitais (aplicativos de mensagens, serviços de streaming de vídeo, redes sociais e lojas virtuais, dentre outros – conceito Over The Top - OTT). Isso resultou em uma interdependência entre as Operadoras de telecomunicações e as Plataformas Digitais. Por um lado, as Operadoras de telecomunicações precisam fornecer uma infraestrutura confiável e de alta velocidade para atender às demandas das Plataformas Digitais e seus usuários. Por outro lado, as Plataformas Digitais dependem das Operadoras de telecomunicações para garantir a conectividade e o acesso dos usuários aos seus serviços.
A existência, até o presente momento, de um modelo econômico de remuneração dos serviços de telecomunicações apenas pelos usuários não deve representar óbice para a evolução para uma precificação bilateral do tráfego de internet, pois os mercados não são estruturalmente unilaterais ou bilaterais.
A evolução da atuação das Plataformas Digitais mudou a forma com que as Operadoras de Telecomunicações gerenciam seus modelos de negócios. Hoje, elas dependem, principalmente, da receita gerada pelos serviços de telefonia e dados/acesso à internet. Porém, com a atual tendência de crescimento da economia digital, o modelo de precificação unilateral dos pacotes de dados, fixos e móveis, não é mais suficiente para arcar com os custos de investimentos e de manutenção da infraestrutura de rede necessários para suportar a elevada demanda pelo consumidor por conteúdos produzidos pelas Plataformas. Por outro lado, a maior parte da cadeia de valor do ecossistema digital está sendo gerada pelo tráfego de dados proveniente dessas Plataformas, que não pagam pelo acesso à internet e pelo uso das redes das Operadoras de Telecom – transporte do tráfego de dados que são gerados através da rede fixa ou móvel das Operadoras até os usuários finais.
Tal situação de aumento de tráfego deve continuar nos próximos anos segundo previsões de mercado, originadas principalmente pelo aumento da demanda da qualidade dos serviços de streaming (ex.: transmissão em 4K, 8K, etc) e também pelo surgimento de novas aplicações relacionadas a realidade virtual, Metaverso, entre outras de baixa latência que exigirão um volume maior de investimentos para aumento da capacidade em redes fixas e móveis.
É a partir desta ótica que serão desenvolvidas as demais contribuições à presente Consulta.
II. Modelos de negócios das Plataformas Digitais: Aspectos concorrenciais e falhas de mercado
A partir do que foi exposto no tópico anterior, é importante destacar que existe uma correlação direta entre o avanço das Plataformas Digitais, especialmente os serviços de streaming, e o aumento da demanda por infraestrutura de internet de alta capacidade, o que, em última análise, conforme será exposto, gera um cenário de falha de mercado que carece de atenção/regulação.
Contudo, antes de avaliarmos o impacto para o setor de telecomunicações, em específico sobre o desequilíbrio do mercado provocado pelas grandes Plataformas Digitais, vale destacar quais seriam estas falhas e os possíveis mecanismos de mitigação que estão sendo analisados no mundo.
Atualmente, ao considerarmos as regulações existentes sobre proteção contra condutas adversas produzidas pelas Plataformas Digitais, elas viabilizam o estímulo ao tratamento justo e não discriminatório no relacionamento com outras empresas. Para isto, a Comissão Europeia na Lei de Mercados Digitais (DMA) [3] estabeleceu como ações: regular o acesso das empresas, desenhar interfaces das apresentações dos produtos e serviços e dos sistemas de notas e reviews, determinar as APIs que podem ser acessadas, etc.
Tal regulação europeia também estabeleceu critérios rigorosos para classificar as grandes Plataformas Digitais como Gatekeepers (controladoras de acesso) com o objetivo de combater práticas anticoncorrenciais e de permitir a maior diversidade de escolha de produtos e serviços, a preços mais acessíveis, pelos consumidores.
Mesmo que o poder das Plataformas Digitais ocorra pela dificuldade em se aplicar remédios anticoncorrenciais, devido à dinâmica peculiar do mercado digital e a ineficiência da utilização de mecanismos aplicados ao mercado tradicional, a falta de transparência e a complexidade destas empresas normalmente impedem que tais condutas sejam efetivamente revistas por reguladores antitruste. Dessa forma, assim como observado no DMA da União Europeia, eventual regulação a ser criada no Brasil deveria impedir o abuso sobre empresas e consumidores por meio da adoção de práticas que:
a) Assegurem que o mercado digital permaneça competitivo;
b) Possibilitem o compartilhamento da base de dados com outras empresas;
c) Promovam a interoperabilidade;
d) Limitem a exploração de vieses e tendências comportamentais dos consumidores; e
e) Proíbam “self-preferencing”
Conforme estabelecido na União Europeia, as propostas que estão sendo discutidas sobre a regulação assimétrica das Plataformas Digitais se dão a partir da segmentação do objetivo da regulação, do tipo de serviço, do faturamento e da quantidade de usuários. Porém, sob o aspecto concorrencial, que atualmente está atrelado à criação de Bigdatas e mecanismos de retenção dos usuários, o DMA estabelece obrigações regulatórias somente aos Gatekeepers que detêm um poder significativo em um determinado mercado digital. Para ser considerada com Poder de Mercado Significativo (PMS), a empresa deverá:
a) Ter atividade econômica em mais de três países da União Europeia;
b) Ter uma posição econômica forte, isto é, possuir um volume de negócios anual de pelo menos 7,5 bilhões de Euros na União Europeia ou uma avaliação de mercado de, pelo menos, 75 bilhões de Euros;
c) Ter posição de intermediação forte, deverá ter, pelo menos, 10% da população da União Europeia como usuários finais mensais, o que representaria hoje 45 milhões de consumidores, e, pelo menos 10 mil usuários/empresas anuais;
d) Ter posição consolidada no mercado europeu, isto é, deter pelo menos, nos últimos três anos, os critérios de poder econômico e de intermediação.
Nesse sentido, vale ainda destacar que o elevado poder de mercado dessas empresas acaba por proporcionar uma alta capacidade de manipulação frente aos usuários, pois, para sustentar a geração de valor e a alta rentabilidade de seus negócios, desenvolvem soluções para manter o engajamento e o maior tempo de tela possível. O maior desafio para a regulação das atividades e dos conteúdos disponibilizados pelas Plataformas Digitais está no fato de que a utilização e o acesso das Plataformas estão conectados às relações sociais e despertam a dependência do uso pelos consumidores.
Tal perspectiva traz a reboque a necessidade de reduzir tais práticas deletérias das Plataformas Digitais e discussões públicas sobre o tema não são uma peculiaridade brasileira. Na União Europeia já há a Lei de Serviços Digitais (DSA) [4] que tem como objetivo: atenuar a manipulação e a desinformação, diminuir a exposição do consumidor a conteúdos ilegais, garantir a proteção dos direitos fundamentais e aumentar a transparência. Tal preocupação vai além da esfera anticoncorrencial, pois estas condutas afetam o bem-estar dos consumidores.
Por fim, junte-se a todo o anteriormente exposto, o fato de que as Operadoras, por força da regulamentação vigente, não podem degradar e nem negar o fornecimento do serviço de acesso à internet às Plataformas, o que as obriga a fazerem grandes investimentos para satisfazer a demanda, mantendo e, até mesmo, aumentando a qualidade, e seguir prestando o serviço de transporte de dados independentemente de não haver a devida remuneração por parte das Plataformas, limitando a capacidade negocial das Operadoras. Consequentemente, quanto melhor a qualidade do acesso à internet, maior será o incentivo para as Plataformas gerarem conteúdos, criando um ciclo de investimentos para ampliação da capacidade de rede que onera por demais as Operadoras devido não receberem receitas adicionais. Assim, o atual avanço das atividades das Plataformas compromete a qualidade e a estabilidade da internet, na medida em que utilizam a infraestrutura de rede de forma massiva e concentrada sem remunerar as Operadoras de telecomunicações.
Dessa maneira, pensando em um cenário agravado pelo uso cada vez mais ostensivo de recursos das redes de telecomunicações em que o mercado não consegue, naturalmente, superar tais externalidades, faz-se necessária uma atuação regulatória-concorrencial que as enderece. É o que traremos no próximo tópico.
III. Impacto das falhas de mercado na prestação de serviço de acesso à internet: Regulação para tratamento justo e não discriminatório (remuneração pelo uso da rede)
O crescente consumo de serviços de streaming, como vídeo, música e jogos online, requer capacidade de infraestrutura de rede significativa para transmitir os dados necessários aos usuários finais. Com o aumento da popularidade dos serviços de streaming, a quantidade de dados transmitidos pela internet aumentou substancialmente. O streaming de vídeo em alta definição (HD) e ultra alta definição (UHD), o maior número de usuários desses serviços e o incremento das horas de uso, por exemplo, requer uma capacidade considerável para entregar uma experiência de visualização de qualidade diferenciada. Além disso, o surgimento de novas tecnologias e serviços de streaming ao vivo, plataformas de jogos em nuvem, realidade virtual (VR/AR), Metaverso e IA também contribuirá para o crescimento do tráfego e aumento da demanda a médio prazo.
Essa demanda crescente por capacidade de rede tem pressionado as redes dos provedores de serviço de internet (ISPs ), que precisam expandir e atualizar suas infraestruturas para atender à demanda por velocidades de conexão mais altas e maior capacidade de dados.
É dizer, há uma necessidade exponencialmente progressiva por parte das Prestadoras de serviços de telecomunicações em investirem na expansão e aumento de capacidade de suas redes de modo a garantir que possam fornecer conexões estáveis e de alta velocidade aos usuários dos serviços ofertados pelas Plataformas.
Em resumo, o avanço das Plataformas Digitais, especialmente os serviços de streaming, tem gerado um aumento significativo na demanda por infraestrutura de internet de alta capacidade, o que, consequentemente, pressiona os provedores de serviço de internet a atualizarem as suas redes para atenderem i) a necessidade crescente de capacidade de rede, e ii) as normas, as quais as Prestadoras de telecomunicações estão sujeitas, que dispõem, principalmente, sobre qualidade de rede.
Nesse contexto, verifica-se também a ausência de justa contribuição das Plataformas Digitais pela utilização das redes de telecomunicações, tendo em vista que os custos da prestação do serviço são sensíveis, aumentando à medida que o tráfego de conteúdos na internet cresce, e, por outro lado, as receitas são restritas apenas ao aumento da base de assinantes.
Estudo da Oliver Wyman [5] considerando as 100 (cem) maiores operações de telecomunicações no mundo, indica que, entre os anos de 2012 e 2021, as receitas dessas empresas tiveram um crescimento abaixo da inflação, ao ponto de restringir a disponibilidade de recursos para investimentos em infraestrutura. No momento, as empresas buscam implantar soluções voltadas a incrementar sua eficiência operacional. Contudo, é notória a existência de fatores limitantes no que tange ao potencial de redução dos custos operacionais, como pressões de cunho competitivo, bem como a necessidade de atendimento às normas legais e regulamentações aplicáveis à sua operação.
A falha de mercado a que se remeteu no tópico anterior, resultante do desequilíbrio entre o aumento constante do uso das redes das Prestadoras de telecomunicações e as limitações para sustentabilidade de suas receitas, é um desafio significativo que requer uma solução equitativa, que permita a justa remuneração pelo uso da rede das Prestadoras de serviços de telecomunicações.
Defender mecanismos de contribuição para a sustentabilidade mediante o pagamento pelas Plataformas Digitais pelos serviços que recebem, com o fito de equilibrar o ônus financeiro das Prestadoras de serviços de telecomunicações com a geração de receitas justas e equivalente ao uso de suas redes pelas Plataformas Digitais, é dizer que, ao garantir uma compensação adequada, as Prestadoras teriam recursos para investir na expansão e atualização de suas redes, mantendo a infraestrutura necessária para atender à demanda crescente de serviços digitais.
Além disso, é necessário considerar as diferentes características do mercado digital e as especificidades dos diversos tipos de serviços online. Por exemplo, serviços de streaming de vídeo ou redes sociais consomem uma quantidade significativa de capacidade de rede, enquanto outros serviços, como streaming de música ou ferramentas de mensageria, podem não ter o mesmo impacto. Portanto, uma abordagem diferenciada pode ser necessária, levando em conta a natureza e o impacto do serviço online na infraestrutura de rede.
Tal processo deve ser conduzido com transparência, buscando um consenso sobre o alcance, os mecanismos e âmbito de implementação. É importante garantir que a solução adotada não desencoraje a inovação e a competição, mas sim promova um ambiente equilibrado e sustentável para todas as partes envolvidas.
Em resumo, trata-se de resposta necessária à falha de mercado anteriormente apontada, mediante atuação regulatória que potencialize diálogo colaborativo entre todas as partes interessadas, de modo a se alcançar solução que promova uma compensação justa e proporcional pelo uso da infraestrutura de rede, criando um ambiente saudável para o crescimento das Plataformas Digitais e das Prestadoras de serviços de telecomunicações e favorecendo o desenvolvimento dos mercados que constituem o ecossistema digital.
IV. Conclusões
Diante de todo o exposto, a TELEFÔNICA entende que a Consulta Pública em questão é de extrema importância para a construção de normativas que equilibrem o mercado digital, tendo em vista que o crescimento exponencial do uso das redes de telecomunicações pelas Plataformas Digitais tem pressionado as Prestadoras a lidar com necessidade de constantes e elevados investimentos em infraestrutura, em contrapartida a um cenário de limitação para captura de novas receitas, podendo afetar negativamente um dos elos essenciais da cadeia de valor do mercado digital e colocando em risco a sustentabilidade dos investimentos em infraestrutura de rede das Operadoras de telecomunicações.
Para lidar com essa disparidade, a implementação de um modelo que proporcione a negociação célere entre as Plataformas Digitais e as Operadoras de telecomunicações se mostra uma abordagem necessária no sentido de buscar garantir uma compensação justa pelo uso da infraestrutura de rede das Operadoras de telecomunicações pelas Plataformas Digitais. No entanto, a implementação desse modelo requer um diálogo colaborativo entre todas as partes interessadas, levando em consideração as características do mercado digital e buscando um equilíbrio entre inovação, crescimento das Plataformas Digitais e sustentabilidade das Prestadoras de serviços de telecomunicações. Dessa forma, é possível promover um ambiente saudável e equilibrado para o desenvolvimento do ecossistema digital como um todo, garantindo a livre concorrência e impedindo que a estrutura de modelo de negócio das Plataformas tenha impacto negativo na prestação do serviço das Operadoras de telecomunicações.
[1] TELEFÔNICA (2023), ¿Quién decide el número de caras del mercado?
https://www.telefonica.com/es/sala-comunicacion/blog/quien-decide-el-numero-de-caras-del-mercado/
[2] Silva, Guilherme (2022), Diversificação nas plataformas digitais: um estudo de caso para Google e Facebook
https://www.anpec.org.br/sul/2022/submissao/files_I/i7-48b8e715d6ba18b9e1738759439136fe.pdf
[3] Comissão Europeia (2022), Regulamento dos Mercados Digitais
https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-markets-act-ensuring-fair-and-open-digital-markets_pt
[4] Comissão Europeia (2022), Regulamentação dos Serviços Digitais
https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable-online-environment_pt
[5] OliverWyman (2023), Growth beyond connectivity - The six most valuable assets for telecom carriers
https://www.oliverwyman.com/our-expertise/insights/2023/jun/how-telcom-operators-can-rebuild-future.html?utm_campaign=organic-social&utm_content=1686927657&utm_medium=social&utm_source=linkedin - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:08Os mercados digitais são caracterizados por intensa inovação, forte concorrência e entrada bem-sucedida no mercado. A concorrência em serviços digitais depende de inovações rápidas e novos produtos e serviços. A diversidade de consumidores, a rápida evolução dos hábitos online e o multihoming generalizado oferecem inúmeras oportunidades de entrada no mercado.
Já existem regras específicas sobre normas de controle de concorrência e proteção ao consumidor que são aplicáveis às plataformas. No geral, as ferramentas antitruste já disponíveis no Brasil são suficientes para lidar com as preocupações antitruste nos chamados mercados digitais, e o CADE possui a experiência e os recursos necessários para conduzir investigações antitruste rigorosas e baseadas em evidências.
O CADE aplicou seus amplos poderes regulatórios em todos os setores – inclusive nos chamados mercados digitais – para promover os princípios fundamentais da política de concorrência (por exemplo, prevenir condutas anticompetitivas), o que abordaria todos os riscos listados abaixo. De fato, o CADE é um regulador eficaz das questões de concorrência nos mercados digitais e investigou – ou está investigando ativamente – várias grandes empresas de tecnologia.
Como tal, não há necessidade de regulamentação adicional para tratar dos supostos riscos mencionados abaixo.
Além disso, alguns dos problemas mencionados abaixo não são riscos reais. Por exemplo, o acesso a grandes volumes de dados não é necessário para entrar no mercado. Se uma empresa pode ou não desenvolver um produto de sucesso, não se baseia na quantidade de dados que uma empresa possui, mas se ela pode desenvolver um produto inovador e atraente, diferenciado das ofertas existentes e capaz de prender a atenção do usuário. Consistente com isso, as plataformas digitais mais populares de hoje não tinham quantidades significativas de dados do usuário antes do lançamento. Essas empresas obtiveram acesso aos dados do usuário porque oferecem serviços populares - elas não se tornaram serviços populares porque tiveram acesso aos dados do usuário.
Por outro lado, o mero acúmulo de dados ou maiores quantidades de dados não garante o sucesso competitivo. Existem muitos exemplos de plataformas que ganharam popularidade e acesso a quantidades significativas de dados do usuário, mas falharam em retê-los por carecerem de recursos atraentes. Estes incluem Orkut, AOL, Friendster, Myspace, Yahoo! e Flickr.
A atual legislação concorrencial já é capaz de abranger as preocupações descritas na consulta, e possui os recursos adequados para remediá-las. Os riscos associados a interoperabilidade, portabilidade de dados, processamento, uso, armazenamento e concentração de dados são abrangidos pelas teorias de dano de condutas exclusionárias e fechamento de mercado, e podem ser remediados de forma tempestiva a partir do arcabouço legal existente.
Verticalização: a atual legislação concorrencial e o recurso às melhores práticas internacionais dão às agências reguladoras o poder de remediar os problemas concorrenciais decorrentes da integração vertical. A criação de limitações arbitrárias sobre quais agentes poderão ofertar determinados serviços, e de qual maneira, dará à administração pública a capacidade de escolher os vencedores e perdedores e limitará sobremaneira a liberdade econômica em prol da concorrência, incluindo integrações empresariais que resultam em benefícios substanciais para os consumidores na forma de eficiências e de produtos e serviços complementares mais eficientes. Isso também diminuirá os incentivos para que as empresas inovem em favor dos consumidores.
Auto-preferenciamento (self-preferencing): Auto-preferenciamento é um termo vago. No contexto do direito concorrencial. As atuais proibições no que diz respeito a condutas exclusionárias já se aplicam a riscos associados ao denominado auto-preferenciamento, incluindo restrições de acesso a facilidades essenciais com o único objetivo de excluir concorrentes. Uma proibição generalizada ao “auto-preferenciamento” levará ao escrutínio de atividades empresariais altamente pró-competitivas e que beneficiam os consumidores, incluindo a comercialização, promoção e publicidade que dão aos consumidores visibilidade sobre produtos e serviços inovadores. Isso também desincentivaria novas entradas que promovem a concorrência, na medida em que os agentes privados estariam impedidos de promover produtos próprios. Por fim, isso forneceria incentivos contrários para que agentes privados que alcançaram economias de escala em, p. ex., entregas e outros serviços, passem a ofertar tais serviços a outros agentes do mercado, na medida em que qualquer uso desses serviços poderia ser considerado “auto-preferenciamento”. Nesse caso seria preferível manter os serviços e as economias de escala a eles associados apenas para uso próprio, de forma a evitar escrutínio regulatório.
Práticas Anticompetitivas e Preocupações de Privacidade: a atual legislação concorrencial e o recurso às melhores práticas internacionais de sua aplicação já são capazes de remediar riscos associados à concentração de mercado e ao abuso de poder econômico. A aplicação de legislação concorrencial não deve ser ampliada para englobar questões tangenciais, incluindo a proteção da privacidade, devendo tais questões serem tratadas em legislação de proteção de dados específica e abrangente. Há riscos substanciais à resiliência da legislação concorrencial caso autoridades e agências comecem a considerar fatores externos ao escopo do direito concorrencial ao avaliar danos competitivos e exercer suas competências para remediá-los.
Avaliação de Fatores de “Posição Dominante”: Faturamento global e número de usuários não são indicativos de concentração de mercado e posição dominante. Esses são critérios arbitrários que, caso adotados, incentivariam os agentes privados a estagnar sua inovação e êxito a fim de evitar escrutínio regulatório. Em vez disso, a avaliação de posição dominante deve focar na análise de poder de mercado, indicado pela sua capacidade de controlar resultados competitivos e ditar preços. Essa análise leva em consideração o mercado relevante do produto ou serviço em que o agente opera, assim como a dinâmica competitiva desse mercado. O uso de quaisquer fatores arbitrários, como faturamento ou número de usuários, resultará em distorções na análise, e diminuirá os incentivos à inovação em prol dos consumidores por receio de captura regulatória. Agentes privados devem ser autorizados e encorajados a competirem no mérito e, portanto, devem ser avaliados de acordo com seus méritos.
Vantagens Competitivas Decorrentes de Dados: No contexto concorrencial, a atual legislação concorrencial e a aderência às melhores práticas internacionais permitem sua aplicação rigorosa contra as preocupações concorrenciais envolvendo vantagens competitivas decorrentes de dados.
Formuladores de políticas e reguladores estão trabalhando para proteger a privacidade e, ao mesmo tempo, considerando argumentos daqueles que afirmam que a disponibilização de mais dados entre concorrentes aumentaria a competição. Essas discussões complexas envolvem a definição dos tipos de dados em questão, bem como identificar os tipos de serviços que usam dados e os dados necessários para tornar esses serviços úteis.
É importante que reguladores de privacidade e concorrência discutam mais formalmente para contribuir com suas experiências relevantes para as questões importantes que estão sendo consideradas, por exemplo, quando uma prática que incrementa a privacidade é avaliada em um contexto concorrencial.
Concentração e Modelos de Negócios de Publicidade: A atual legislação concorrencial e a aplicação de melhores práticas internacionais criam o equilíbrio ideal entre o combate a práticas anticompetitivas privadas e o incentivo à evolução de setores econômicos, especialmente aqueles altamente inovadores e com crescimento acelerado. A legislação concorrencial permite sua aplicação rigorosa contra essas preocupações, o que se pode verificar em múltiplos casos bem-sucedidos em outras jurisdições, que aderiram às melhores práticas internacionais na aplicação da legislação concorrencial, contra condutas anticompetitivas no setor de publicidade.
Impacto Negativo na Oferta e Qualidade de Produtos e Serviços Digitais e na Inovação: A atual legislação permite sua aplicação rigorosa contra tais preocupações.
Nesse contexto, a política concorrencial atual é mais adaptável do que o que tem sido representado por determinados críticos. A legislação concorrencial possui ferramentas bem estabelecidas para compreender mercados e proteger consumidores que se provaram adaptáveis ao longo do tempo – inclusive em mercados afetados por “plataformas digitais”. Essas ferramentas já disponíveis a autoridades concorrenciais são suficientes para identificar e remediar preocupações concorrenciais na chamada economia digital. A legislação concorrencial deve se basear em evidências e análises econômicas para garantir que a intervenção governamental esteja remediando danos efetivos à concorrência e não condutas legítimas e pró-competitivas que são mal vistas por concorrentes menos eficientes, mas que beneficiam os consumidores, a inovação e a economia como um todo.
Por fim, existem riscos substanciais associados à regulação das chamadas “plataformas digitais”. Esses riscos vão desde a super regulação, que conduzirá a um arrefecimento do crescimento econômico e à paralisação da inovação tecnológica e do investimento estrangeiro, até ao aumento dos riscos para a segurança e privacidade dos dados nacionais e dos consumidores. Qualquer legislação/regulação futura deve ser abordada com extrema cautela.
Formuladores de políticas e reguladores estão trabalhando para proteger a privacidade e, ao mesmo tempo, considerando argumentos daqueles que afirmam que a disponibilização de mais dados entre concorrentes aumentaria a competição. Essas discussões complexas envolvem a definição dos tipos de dados em questão, bem como identificar os tipos de serviços que usam dados e os dados necessários para tornar esses serviços úteis.
É importante que reguladores de privacidade e concorrência discutam mais formalmente para contribuir com suas experiências relevantes para as questões importantes que estão sendo consideradas, por exemplo, quando uma prática que incrementa a privacidade é avaliada em um contexto concorrencial.
A ALAI continuará a participar de discussões com formuladores de políticas públicas e reguladores, bem como outras partes interessadas, para colaborar com normas que incentivem a inovação e protejam os usuários e consumidores. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:21- Poder econômico desproporcional,
(I) em prejuízo à (1) concorrência, (2) consumidores, (3) inovação e (4) à proteção de outros direitos, incluindo direitos fundamentais;
(II) exercidas por meio de (1) abuso de posição dominante por meio de condutas exclusionárias (de exclusão de concorrentes atuais e potenciais), (2) condutas exploratórias (sem necessariamente excluir concorrentes, mas prejudicando a concorrência e consumidores) e (3) aquisição de atuais e potenciais concorrentes
- Aquisição de potenciais concorrentes antes que exerçam concorrência efetiva, ed maneira a (1) prejudicar a inovação (inclusive uma inovação que poderia ser mais benéfica em termos de privacidade e proteção de dados, por exemplo) e (2) diminuir a possibilidade de escolha
- Efeitos/externalidades de rede e lock-in;
Concentração de dados sobre usuários e capacidade de perfilamento, inclusive com potencial discriminatório;
- Reforço de poder de mercado via atuação em ecossistemas: o que por si só não é um problema, mas a integração de plataformas, em especial aquelas integrantes de um mesmo grupo econômico, pode acabar gerando preferenciamentos e abusos;
- Self-preferencing (auto-preferenciamento de produtos e serviços integrantes de conglomerados).
- Assimetria de informação (tanto em comparação com outros agentes do mercado e em especial com consumidores, incluindo em termos de tratamento de dados)
- Falta de escolha (decorrente da concentração de mercado e das externalidades de rede)
- Barreiras de entrada ao surgimento de concorrentes;
- Discriminação e práticas exploratórias (inclusive de consumidores).
- “Venda casada” (Bundling) entre diferentes tipos de serviço - por exemplo, entre hospedagem e curadoria de conteúdo - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:14Riscos de perfilamento de crianças e adolescentes são ampliados quando há concentração no tratamento de dados pessoais em poucas empresas, bem como compartilhamento de dados entre atores de um mesmo grupo econômico, ampliando os riscos a direitos e liberdades fundamentais de crianças e adolescentes:
O perfilamento é uma técnica que consiste em utilizar os dados pessoais de determinada pessoa para traçar, a partir de previsões e inferências feitas quase sempre por meio da inteligência artificial, um perfil de sua personalidade, incluindo gostos, preferências, opiniões, tendências, comportamentos, etc. O perfilamento viabiliza diversas formas de exploração das crianças no ambiente digital, inclusive a exploração econômica na forma de técnicas de microssegmentação publicitária e publicidade comportamental. Mais do que isso, esses perfis comportamentais podem vir a ser utilizados para privar as crianças de oportunidades futuras, como a aquisição de um emprego ou a contratação de uma linha de crédito.
Fonte: Glossário oficial do Comentário Geral n° 25
Para ver mais: LIEVENS, Eva et al. O direito da criança à proteção contra a exploração econômica no mundo digital
Fonte do Trecho: CG25 Comentado, Instituto Alana, p. 45 - https://criancaeconsumo.org.br/wp-content/uploads/2022/04/comentario-geral-n25-comentado.pdf
Ressaltamos, ainda, que os desafios em relação à Inteligência Artificial também possuem relação com a concentração de bases de dados e com a concentração de poder de utilização dessas bases.
O modelo de negócios atual de grandes plataformas digitais com a concentração de dados em poucos atores gera riscos futuros, impactando, ainda, a possibilidade de desenho de novos serviços e modelos de negócios que atendam aos públicos de crianças e adolescentes:
Para além de terem muito mais dados coletados do que gerações anteriores, crianças e adolescentes são especialmente afetados pelo modelo de negócio persuasivo das grandes plataformas e suas técnicas de datificação, na medida em que são pessoas em desenvolvimento e que passam por uma fase de maior experimentação e suscetibilidade a influências externas. A quantidade e os tipos de dados, bem como a forma como são coletados e agrupados gera um impacto não só em sua privacidade, mas também em diversos outros direitos fundamentais, prejudicando o livre desenvolvimento de sua personalidade. De fato, o futuro ainda é incerto e ainda não se sabe exatamente de quais maneiras os milhões de rastros digitais deixados por eles poderão impactar em seu futuro. Todavia, a partir de experiências atuais, já se sabe que os dados tratados neste ambiente são essenciais no acesso a oportunidades de emprego, ao crédito estudantil, a vagas em universidades, ao crédito para compra de veículos e imóveis, a seguros de saúde, dentre outras situações.
O acesso à internet de forma precoce por crianças e adolescentes, portanto, trará como consequência a entrega de perfis ainda mais assertivos sobre percepções, emoções, interesses, hábitos e comportamentos do que o perfilamento de adultos, muitos dos quais tiveram o primeiro contato com as referidas tecnologias quando em um estágio mais avançado de desenvolvimento físico, psíquico e social.
Fonte: Dados e direitos na infância e adolescência no ambiente digital: caminhos para a proteção jurídica no Brasil e Argentina. Link: https://www.dataprivacybr.org/wp-content/uploads/2022/07/Dados-e-direitos-na-infancia-e-adolescencia-no-ambiente-digital_VF-ACES.pdf. - Flávia Lefèvre Guimarães 15/07/2023 às 13:22Sim, concordo, merecendo destaques os riscos relacionados aos danos profundos e que já vêm ocorrendo desde o início dos anos 2000, no campo da defesa da concorrência, no Brasil e no mundo, especialmente por conta de que a concentração dos mercados se dá nas mãos das denominadas Bigtechs, sendo as 10 principais delas empresas estadunidenses, cujas atividades afetam diretamente direitos humanos, direitos fundamentais garantidos pela Constituição Federal, assim como a vulnerabilidade dos consumidores, reconhecida nos termos do inc. I, do art. 4º, do Código de Proteção e Defesa do Consumidor, que estabelece sobre os objetivos e princípios da Política Nacional das Relações de Consumo, que tem como foco o “atendimento das necessidades dos consumidores, o respeito à sua dignidade, saúde e segurança, a proteção de seus interesses econômicos, a melhoria da sua qualidade de vida, bem como a transparência e harmonia das relações de consumo”.
Nessa esteira, a regulação que vier a ser estabelecida no Brasil deve ser construída sobre pilares institucionais e legais que já temos: as garantias fundamentais que reconhecem a proteção dos dados pessoais em virtude da recente Emenda Constitucional nº 115/2022, a Lei Geral de Proteção de Dados Pessoais (LGPD), o Marco Civil da Internet (MCI) e seu Decreto regulamentador 8.771/2016, o Código de Proteção e Defesa do Consumidor (CDC), o Estatuto da Criança e do Adolescente (ECA), além de outras leis e normas que compõem nosso arcabouço legal.
A despeito de as perguntas apresentadas por esta Consulta Pública não fazerem referências especificamente à transparência, ao direito à informação ampla e segurança, na linha do que já nos garante o CDC, quando trata dos direitos básicos do consumidor (art. 6º), entendo que estes são pilares preciosos para orientar um próximo passo para a regulação das práticas comerciais adotadas pelas plataformas, que têm causado danos em larga escala para a dignidade da pessoa humana e segurança dos cidadãos/consumidores individual e coletivamente e para as instituições democráticas de forma difusa.
Por essas razões apoio as disposições do PL 2630/2020 sobre estes aspectos, em tramitação no Congresso Nacional, pois entendo que, especialmente depois dos aperfeiçoamentos apresentados pelo Governo Lula no texto, estão em harmonia com a legislação já existente ao tratarem das obrigações de transparência sobre o funcionamento dos sistemas algorítmicos utilizados pelas plataformas para moderação de conteúdos e rotulagem, impondo também a obrigação de apresentação de relatórios periódicos informando sobre suas práticas, sendo estes instrumentos eficientes para o enfrentamento à desinformação e disseminação de discursos de ódio e cometimento de crimes na Internet.
Portanto, entre os riscos a serem abordados para a regulação, para além daqueles já indicados pela Consulta Pública, especialmente riscos concorrenciais e ausência de modelo de tributação adequados aos modelos de negócios praticados no mercado, devem merecer muita atenção o estabelecimento de obrigações de transparência sobre práticas de moderação de conteúdos, como impulsionamento, recomendação, redução ou ampliação de alcance de conteúdos, critérios para remoção e suspensão de conteúdos e contas, sistemas de remuneração por publicidade e propaganda eleitoral, monetização, entre outras. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:06Os chamados "mercados digitais" são caracterizados pela intensa inovação, forte concorrência e entrada bem-sucedida no mercado. A concorrência nos serviços digitais é baseada em constante inovação e no surgimento de novos produtos e serviços. A diversidade de consumidores, a rápida evolução dos hábitos online e o multihoming oferecem inúmeras oportunidades de entrada no mercado.
Em relação às preocupações concorrenciais nos mercados digitais, descritas na consulta, deve-se reconhecer que o Brasil possui um sistema robusto e abrangente de defesa da concorrência, que está bem equipado para endereçá-las: (i) a legislação atual possui ferramentas de combate às condutas anticompetitivas bem estabelecidas para compreender mercados e proteger consumidores, que se provaram adaptáveis ao longo do tempo – inclusive em mercados afetados por “plataformas digitais” - e suficientes para identificar e remediar preocupações concorrenciais na economia digital; e (ii) o Conselho Administrativo de Defesa Econômica (CADE) tem a experiência e expertise necessárias para conduzir rigorosas investigações - baseadas em evidências e análises econômicas.
Aliás, o CADE já exerce seus amplos poderes regulatórios em todos os setores, inclusive nos mercados digitais, de modo a promover os princípios fundamentais da política de concorrência (por exemplo, para evitar condutas anticompetitivas), que contemplam todos os riscos listados na consulta. De fato, o CADE é um regulador eficaz das questões de concorrência nos mercados digitais e já investigou - e está investigando - ativamente inúmeras grandes empresas de tecnologia.
Assim, evidencia-se que não há necessidade de regulação adicional para abordar os supostos riscos mencionados e que a política concorrencial atual é mais adaptável do que o que tem sido defendido por determinados críticos. A legislação concorrencial deve se basear em evidências e análises econômicas para garantir que a intervenção governamental esteja remediando danos efetivos à concorrência e não condutas legítimas e pró-competitivas que são malvistas por concorrentes menos eficientes, mas que beneficiam os consumidores, a inovação e a economia como um todo.
Por fim, existem riscos substanciais associados à regulação das chamadas “plataformas digitais”. Esses riscos vão desde a super regulação, que conduzirá a um arrefecimento do crescimento econômico e à paralisação da inovação tecnológica e do investimento estrangeiro, até ao aumento dos riscos para a segurança e privacidade dos dados nacionais e dos consumidores. Qualquer legislação/regulação futura deve, portanto, ser abordada com extrema cautela. - Guilherme Marques Ferri 15/07/2023 às 11:36Sim, e, isso deveria ser competência do CADE. Só que deveria ter um grupo de trabalho entre CADE e outras instituições públicas, e, talvez privadas.
- IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 19:06Participaram da elaboração da presente resposta os seguintes integrantes da Coordenação de Mercados Digitais do Comitê de Concorrência do IBRAC: Alessandra Ungria, Ana Valéria Fernandes, Bruna Barros, Gabriela Leão Ferreira Alves de Oliveira, João Pedro Ortiz de Camargo, Júlia Krein, Manuela Braga, Marcela Mattiuzzo, Marcelo Rizzo Napolitano, Maurício Carotenuto, Paula Farani, Paulo Henrique de Oliveira, Pedro Simon, Ricardo Motta, Sílvia Fagá de Almeida e Verônica Hoe.
- Sarah Martins 14/07/2023 às 18:53- Benefícios econômicos e sociais do ecossistema digital (Item 5):
O Item 2.1. da consulta pública traz as premissas de que as plataformas digitais têm a potencialidade de gerar abusos de poder econômico, com ameaças à concorrência e ao consumo. No entanto, essa abordagem não considera - em sua concepção - todos os benefícios socioeconômicos atrelados ao ecossistema digital para uma contextualização de potenciais riscos, de modo a permitir uma qualificada instrução de escolhas de políticas públicas que se venha a construir.
O rápido desenvolvimento das tecnologias de informação e comunicação permitiu o florescimento de uma variedade de serviços digitais inovadores. Para além de inúmeros serviços digitais, aplicações disponibilizadas no ambiente da Internet, comumente chamados de “plataformas digitais”, oferecem as mais diversas funcionalidades, desde a interação entre usuários por meio de mensagens de texto e vídeos, até aplicativos para monitoramento de tráfego, oferta de serviços e aplicativos de governo eletrônico, monitoramento de dados de saúde, entre muitos outros. Essas soluções trazem inúmeros benefícios aos usuários, facilitando as atividades diárias, além de alavancar o crescimento econômico, a geração de empregos, o aumento da produtividade e a inovação em escala local e global.
Uma das características dessa nova realidade conectada é o intenso tráfego de dados transfronteiriços, permitindo que a sociedade colha os benefícios do processo de inovação. Vale ressaltar que a massificação do acesso à Internet, as plataformas digitais e este livre fluxo de dados, suportados pela infraestrutura de redes de telecomunicações, têm desempenhado papel fundamental como componentes de impacto socioeconômico, pois abrem as portas para novas empresas físicas e digitais em diversas partes do mundo, permitindo a inovação e a visibilidade de produtos tanto local quanto globalmente.
As pequenas e médias empresas, em particular, estão cada vez mais utilizando tais serviços para crescer e impulsionar o desenvolvimento econômico em suas comunidades, superando as barreiras tradicionais de conhecimento e experiência limitados, e aproveitando uma infinidade de opções para expandir seus negócios (1). Por exemplo, pequenas e médias empresas utilizam a Internet para se conectar e obter acesso direto a bilhões de clientes, estabelecer confiança e reconhecimento de marca internacional, o que lhes permite ampliar seu acesso a mercados regionais e globais. O livro publicado pela OCDE em 2021, intitulado “The Digital Transformation of SMEs”, corrobora com esse entendimento e conclui que o acesso à Internet e às plataformas digitais trazem diversos benefícios às PMEs, inclusive com efeitos de rede indiretos positivos, acesso a mercados (incluindo global), análise avançada/IA (por exemplo, para direcionamento/segmentação de mercado, análise de impacto), custos de transação mais baixos (por exemplo, pagamento, remessa, logística), maior confiança do cliente (ou seja, sistema de avaliações, seguro de plataforma) (2).
Os consumidores também se beneficiam, já que têm amplo acesso à informação e a mais ofertas de produtos e serviços, podendo facilmente compará-las e assim pagar preços mais baixos por determinado produto ou serviço, incrementando a competitividade em quase todos os setores da economia. Além disso, os setores atuantes em vertentes de habilitação, inovação e disponibilização de tecnologias ao público, tem continuamente gerado milhares empregos (3) diretos de alto valor agregado para a economia (4) , bem como viabilizar a ampliação de modelos de negócios (consequentemente, um maior volume de empregos) em empresas que operam com serviços digitais nas áreas de logística, backoffice e gerenciamento, por exemplo. Com efeito, estudos notaram a correlação entre a presença de soluções tecnológicas e o aumento de produtividade (5).
Do ponto de vista social, plataformas, em especial as plataformas de redes sociais, oferecem possibilidades de comunicação entre os usuários para o compartilhamento de experiências e opiniões, estreitando os contatos do mundo real e possibilitando o estabelecimento de comunidades e redes de apoio, em especial para grupos, eventualmente vulneráveis, que podem enfrentar dificuldades de se reunir presencialmente. Ainda, em paralelo aos contatos dos círculos sociais mais próximos, as plataformas servem como catalisadores de informações, com destaque para fontes reconhecidas, fortalecem o debate público e a fiscalização de agentes públicos por meio do estabelecimento de espaço propício para a expressão e discussão de ideias.
Esses benefícios, que hoje atingem milhões de usuários em todo o país, inclusive aqueles que oferecem seus produtos e serviços nas plataformas, podem sofrer recuos em um cenário restritivo de liberdade e de intervenção excessiva, com potenciais prejuízos tanto para a condição social e econômica daqueles que delas se utilizam, quanto para direitos fundamentais, em especial os direitos à liberdade de expressão e à livre associação, previstos na Constituição Federal.
(1) As pequenas empresas que vendem online têm maior probabilidade de vender em plataformas online (35%) do que as médias (29%) e grandes empresas (23%) na UE28. Disponível em: https://dx.doi.org/10.1787/23561431-en
(2) https://www.oecd-ilibrary.org/sites/bdb9256a-en/index.html?itemId=/content/publication/bdb9256a-en
(3) Em nosso estudo publicado em março deste ano, identificamos que o setor de TIC emprega 2,02 milhões de profissionais, correspondendo a 4% dos empregos nacionais, com incremento de 117 mil novos postos de trabalho em 2022. Disponível em: https://brasscom.org.br/wp-content/uploads/2023/05/BRI2-2023-008-001-Relatorio-Setorial-v32-versao-resumida-SITE_compressed.pdf
(4) Neste mesmo estudo, detectamos que a média salarial do setor de TIC é 2,2 vezes maior que a média salarial nacional.
(5) v. Rivares, A. B., Gal, P., Millot, V., & Sorbe, S. “Like it or not? The impact of online platforms on the productivity of incumbent service providers”. OECD Working Paper, 2019. - Blogueiras Negras (comentário inserido por: Blogueiras Negras) 13/07/2023 às 12:20Concordamos completamente.
- Celso Santos 10/07/2023 às 17:51Riscos existem até mais que foram não elencados , mas apoio que precise ser internacional.....
Se não não vai adiantar ... - Celso Santos 10/07/2023 às 17:48Todos correm riscos ....não vejo que seja feita apenas uma lista pois , se colocam graus de riscos ...poderiam já impondo uma censura ...
- Autoridade Nacional de Proteção de Dados (comentário inserido por: Caroline Kappel) 07/07/2023 às 10:24Inicialmente, reconhece-se a necessidade e a importância da construção de um arcabouço regulatório baseado na regulação responsiva e em boas práticas regulatórias que considere os impactos e os riscos envolvidos, a fim de estabelecer as condições necessárias para a garantia de direitos no ambiente digital, em especial quanto à privacidade, à proteção de dados pessoais, à liberdade de expressão e ao direito à informação, levando em conta parâmetros objetivos e as melhores experiências internacionais.
Ademais, entende-se que a regulação de plataformas digitais envolve diversos aspectos, como por exemplo, concorrência, consumo, abuso de poder econômico, concentração econômica e, em particular, a proteção de dados pessoais.
Sob o aspecto de regulação de temas relativos à proteção de dados pessoais, entende-se que não deveriam ser regulados em eventual lei sobre plataformas digitais, tendo em vista se tratar de questões já disciplinadas pela LGPD.
Entre essas questões, destacam-se: (i) hipóteses legais para o tratamento de dados pessoais, como o consentimento; (ii) utilização de dados para perfilamento de usuários e decisões automatizadas – incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade; (iii) proteção de dados pessoais de crianças e adolescentes; (iv) acesso a dados pessoais para fins de estudos e pesquisas; e (v) avaliação de impacto sobre dados pessoais no ambiente digital. Todas essas são matérias já disciplinadas pela LGPD e sujeitas à regulamentação e fiscalização pela ANPD.
Nesse sentido, cumpre esclarecer que, embora a moderação de conteúdo e o perfilamento estejam correlacionados, cada um desses conceitos está inserido no modelo de negócio dos provedores de maneira distinta. O perfilamento é método de categorização que pode ser utilizado para diversas finalidades, como o impulsionamento de conteúdos e o auxílio nos processos de moderação de conteúdo.
De acordo com o art. 12, §2º, da LGPD, dados utilizados para formação do perfil comportamental de pessoas naturais também são considerados dados pessoais, devendo ser tratados em conformidade com os parâmetros legais. Assim, conforme estabelece a LGPD, as questões relativas ao perfilamento envolvem, entre outras, a de garantir a autodeterminação informativa, o maior controle dos titulares sobre seus dados, especialmente conferindo a possibilidade de revisão de decisões automatizadas, e a proteção contra discriminações ilícitas ou abusivas.
Cuida-se, portanto, de aspectos relacionados ao tratamento de dados para a construção de perfis. As regras da LGPD não incidem diretamente e não estabelecem parâmetros para a avaliação de conteúdos produzidos e publicados na Internet, mas são diretamente aplicáveis às situações que envolvem o perfilamento.
No que diz respeito à gestão dos riscos sistêmicos, é importante observar que eventual proposta de regulamentação, ao incluir aspectos referentes ao tratamento de dados pessoais, leva a avaliação dos riscos sistêmicos a atrair para o seu escopo elementos relativos ao Relatório de Impacto à Proteção de Dados Pessoais (RIPD), previsto no artigo 5º, inciso XVII, da LGPD, que tem como objetivo avaliar os riscos que o tratamento de dados pessoais pode gerar às liberdades civis e aos direitos fundamentais, incluindo os efeitos de discriminação decorrentes do uso desses dados. Deste modo, de forma a se preservar as competências atribuídas pela LGPD à ANPD, quanto à regulação do RIPD, é importante que eventual ato normativo esclareça que a análise de efeitos dos riscos decorrentes do uso de dados pessoais deve ser realizada pela ANPD.
Por fim, vale salientar que a observância das normas de proteção de dados pessoais por parte das plataformas digitais traz efeitos positivos para o ecossistema digital como um todo, mitigando eventuais impactos sociais, políticos e econômicos nocivos que podem decorrer de seu modelo de negócios. Assim, a atuação da ANPD na proteção do direito fundamental à proteção de dados pessoais, estabelecendo limites aos usos abusivos de dados pessoais, tem papel fundamental no combate à desinformação, na defesa da democracia e na limitação do abuso de poder econômico. - Alex Camacho Castilho 06/07/2023 às 13:39Sim, concordo que os riscos elencados a seguir devem ser considerados para a regulação de plataformas digitais, pois estão relacionados a ameaças à concorrência, ao consumo, ao abuso de poder econômico e à concentração econômica e de dados.
- Casa de Cultura Tainã / Rede Mocambos (comentário inserido por: Vincenzo Tozzi\) 06/07/2023 às 09:02100%
- Edson Andrade 26/06/2023 às 20:33Concordo totalmente.
- Eduardo Soares Bezerra 20/06/2023 às 19:20Sim
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 13:43O único risco que não concordo é sobre distorções na competitividade, pois atualmente quem paga mais terá mais publicidade e aparições em primeiro. Mas isso já é corriqueiro, quem pode anunciar em uma rede de televisão maior, paga mais e terá seus anúncios veiculados para um público maior, isso é livre concorrência nada anormal. Quanto a concentração de dados, chega a ser impraticável esta não concentração, pois não há como termos milhares de dados espalhados nas mais diversas empresas não é gerenciável e com as estatísticas atuais de geração de informação é praticamente impossível desconcentrar de forma lógica estes dados.
- Rodrigo Pereira 25/04/2023 às 19:19Concordo na plenitude da lista que estes critérios devem ser considerados.
- Everton Benedikt 25/04/2023 às 15:25Há um grupo que não foi avaliado e que obviamente é muito relevante, a concentração de poder político que a CGI parece estar se engajando. É notória a diferença da gestão culta, plural e inteligentíssima do Demi Getschko para atual gestão, Eu estou com MEDO da CGI dentro do projeto que ela pareceu estar enveredando.Gustavo Paiva 07/06/2023 às 10:02Com todo o devido respeito discordo de seu comentário.
O CGI através desta consulta está oferecendo uma oportunidade de participação direta e imediata para toda a sociedade brasileira. Aqui nossa participação é democrática em um sentido ainda mais profundo e palpável do que em eleições típicas, e esse modelo de participação foi extremamente bem sucedido em ocasiões anteriores (como o MCI.) Essa consulta é inerentemente plural e diversa.
Sobre a matéria que estamos discutindo -- regulação de plataformas -- acho importante levantar o longo, gradual e sofrido processo no qual plataformas digitais contribuíram para danos irreparáveis, tal como o massacre da população Rohingya em Myanmar, disseminação de discurso de ódio em uma escala antes impossível, dano psicológico em populações vulneráveis (verifique, por exemplo, que o Instagram teve um relatório interno no qual sabiam que a plataforma causava prejuízos a usuários jovens, e sua escolha de não fazer nada a respeito), entre outros. Nisso sequer toco no mérito das eleições, nas fake news, na radicalização política.
O que hoje vemos como uma tentativa de regular plataformas é apenas um passo adiante e necessário diante do fracasso dessas próprias plataformas em se auto-regularem, de seu histórico danoso a nossas sociedades em nível transnacional, e de um longo processo de tentativas para que uma solução alternativa fosse encontrada. Veja, por exemplo, que a Chistchurch Call foi uma tentativa de resolver essa situação de maneira não-impositiva, e que ainda estamos em uma situação complicadíssima.
A regulação de plataformas é necessária, e apenas a evolução natural da continuada falha das próprias plataformas em enfrentarem os problemas fundamentais de seus produtos de maneira eficaz.Gustavo Paiva 07/06/2023 às 10:26Concordo com a inclusão desse item, e é importante adicionar que a precarização do trabalho NÃO É UM MERO EFEITO COLATERAL da atuação dessas plataformas. A redução de custos trabalhistas em escala, e o desmantelo de estruturas trabalhistas anteriores para acabar com a competição, são partes essenciais de sua estratégia. Podemos chegar tão longe a ponto de classificá-las como "plataformas de precarização do trabalho" -- o nome em si já ajudaria a esclarecer do que se tratam, que a disrupção que trazem não é apenas tecnológica, é social e nociva também.
Não podemos cair na ilusão de que essas plataformas existem por outro motivo. Não podemos permitir que inovações tecnológicas se tornem o véu atrás do qual se escondem retrocessos sociais e trabalhistas que exigiram séculos de construção.
E antes que se argumente em favor da livre iniciativa, acho relevante lembrar que muitas dessas empresas como a Uber e companhia são empresas de capital aberto e dezenas de milhares de acionistas. Não são empresinhas normais. Elas não precisam gerar LUCRO, pois a estrutura de incentivo por trás delas é construída em favor dos acionistas, que buscam crescimento do valor de suas ações, e caso suas reservas estejam próximas de acabar eles podem abrir um novo round de investimentos. Em outras palavras, essas empresas contam com reservas QUASE INEXAURÍVEIS, e usam isso para competir de uma maneira imbatível com todo o mercado que temos hoje. Não há empresa média, de capital fechado, que sobreviva a esse tipo de concorrência. Podemos chegar a dizer que é uma concorrência desleal e maliciosa, e sabemos que a meta final dessas empresas é conseguir controle sobre o mercado para que depois possam cobrar muito mais caro -- o mais caro possível -- para maximizar lucro. Em outras palavras, essas plataformas destruirão nossas estruturas trabalhistas e, ao final de tudo, os preços baixos que as tornaram tão amigáveis e acessíveis serão uma coisa do passado.Gustavo Paiva 07/06/2023 às 10:51Riscos a minorias étnicas, religiosas, de gênero e orientação sexual, com previsão de que a lista de minorias é não-exaustiva.
Ao longo dos últimos anos vimos diversas minorias — populações nativas e quilombolas, praticantes de religiões de matriz africana, pessoas LGBT+, entre outras — se tornando uma peça no jogo do radicalismo político possibilitado pelas grandes plataformas.
Precisamos reconhecer que a identificação de minorias como "inimigos", a atribuição de diversos males sociais à sua existência, ganhou nova vida com as plataformas de mídia social. Preconceitos anteriores agora viralizam rápido, causando prejuízo a milhares, se não milhões. Não é apenas uma remoção de conteúdo longo após o dano acontecer que resolverá isso, precisamos reconhecer que esse efeito manada que vitimiza minorias é um problema crônico, que precisa ser apontado numa regulação de plataformas.
E acho importante que a lista de minorias seja não-exaustiva. Podemos reconhecer hoje que alguns grupos provavelmente permanecerão minoritários devido a suas dinâmicas (pessoas LGBT+, por exemplo, não se tornarão uma maioria na sociedade, porém grupos religiosos podem crescer e diminuir drasticamente ao longo de décadas), porém as minorias de hoje não necessariamente serão as de amanhã. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:18[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Os riscos devem ser considerados e enfrentados, tendo como premissa a busca por efetivar o interesse público e garantir direitos na internet em geral.
A coleta, o armazenamento, o processamento e a análise dos dados representam diferentes etapas em uma cadeia produtiva que, no conjunto, compõem essa infraestrutura crítica, por vezes reduzida à noção de “nuvem”. Na medida em que os dados digitalizados, pessoais ou não, se caracterizam como importante recurso no processo de produção, distribuição e consumo de bens e serviços, a concentração privada sobre o tratamento e sua infraestrutura crítica significa a sujeição da capacidade de desenvolvimento, comercial ou social, de bens e serviços à lógica de mercado.
Considerando que há, de fato, uma concentração privada sobre essas questões é importante a instituição de mecanismos regulatórios que assegurem/incentivem a distribuição de acesso à uma infraestrutura pública de coleta, armazenamento, análise e processamento de dados, assegurando, evidentemente, condições para proteção de dados e à privacidade das pessoas.
A concentração existente significa ainda riscos de vazamento e de violação dos direitos à privacidade e à proteção de dados pessoais. O problema é da maior relevância para a sociedade, pois trata-se da soberania da população e do país, por isso é importante ter medidas que evitem a concentração dessa infraestrutura e apontem para a guarda de dados no território brasileiro. O mesmo entendimento cabe na abordagem sobre o controle dos cabos submarinos e outros elementos de infraestrutura fundamentais ao funcionamento da internet. - Instituto da Hora 16/07/2023 às 22:28A concentração no tratamento de dados, especialmente quando se trata de dados pessoais, pode apresentar vários riscos significativos. Uma infraestrutura crítica de coleta, armazenamento, análise e processamento de dados pode estar sujeita a falhas técnicas ou interrupções. Se um sistema centralizado falhar, pode levar à perda de dados, interrupção dos serviços, tudo isos sem transparência na vida digital e nao digital dos individuos. Quando a concentração de dados ocorre em um único fornecedor ou provedor de serviços, isso cria uma dependência significativa. Se esse fornecedor enfrentar problemas financeiros, encerrar suas operações ou decidir interromper o serviço, pode ter um impacto prejudicial nas organizações que confiavam nessa infraestrutura. Que já aconteceu com o Google Drive em algumas instituições de ensino
- Filipe Saraiva 16/07/2023 às 21:39Ponto de alto risco dado o capitalismo de vigilância atualmente empregado pelas principais big techs.
- Rede de Pesquisa em Governança da Internet (comentário inserido por: Rede de Pesquisa em Governança da Internet) 16/07/2023 às 20:26Abaixo elencamos o que foi discutido no Encontro da REDE 2023 em linha com a questão acima:
As plataformas precisam ser reguladas porque seus atributos e arquitetura exercem papel fundamental nos processos de comunicação, inclusive os que têm atualmente efeitos negativos na sociedade como distribuição de fakenews, censura baseada em gênero e questões raciais pouco compreendidas, etc. Isso coloca em questão o princípio da "inimputabilidade da rede" do CGI, definido para responder os desafios de outrora, mas que deve ser problematizado a luz dos problemas atuais.
Acreditamos ser necessária uma discussão ampla sobre esse princípio à luz da literatura que a "agência híbrida" existente entre humanos e não humanos, nesse caso, as plataformas digitais (Bruno, 2012, Abbate, 2012, http://redegovernanca.net.br/index.php/encontro-anual/vi-encontro-da-rede/schedConf/cfp).
A regulação de plataformas que tem sido discutida de maneira mais aberta no Brasil se refere principalmente à ilegalidade da mediação de aplicativos em trabalho considerado autônomo (e.x. aplicativos de comida, etc). Essa discussão deve avançar para outras possíveis áreas de exploração e uso não ético de dados sensíveis da população brasileira, incluindo crianças e adolescentes. Entre as áreas de maior preocupação estão saúde e educação, conforme enfatizado por Renata Mielli.
Além disso, a monetização como modelo de negócio das big tech afeta as relações sociais, impõe a lógica da espetacularização e, na falta de lei, desrespeita a pessoa humana na medida em que explora os dados pessoais sem limites éticos e morais.
Devemos criar leis que proíbam a coleta de certos dados, inclusive os que permitem a exploração de sentimentos e emoções. Como disse o Sérgio Amadeu no Encontro da REDE 2023, é preciso definir quais dados podem ou não sair do Brasil, os que podem ou não ser coletados e os que não devem nem ser criados.
Ao mesmo tempo, a regulação das plataformas não deve enfraquecer a criptografia. É um erro e uma questão ideológica imposta por atores pouco afeitos aos valores democráticos, opor criptografia à segurança nacional. Criptografia significa segurança e também respeito à privacidade e à pessoa humana.
Por fim, em outro âmbito, especificamente no que diz respeito à moderação de conteúdos, esta não deve ser delegada à AI. Foi discutida a necessidade de pensar com a lógica democrática para instituir um modelo geral nesse campo, ex. oversight board para definir questões de regulação mais amplas, e moderação de conteúdo no dia-a-dia. - INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:48Sim estes ricos precisam e devem ser regulados. Atualmente as grandes corporações se utilizam de base de dados já constituídas para implementar novos produtos e garantir sua hegemonia no mercado. O caso recente da vinculação entre Threads e Instagram, ambos produtos pertencentes ao grupo Meta, mostra como a concentração no tratamento (coleta, armazenamento, uso, análise, etc.) de dados (pessoais ou não) impacta no posicionamento do produto no mercado de plataformas e aplicações. Com a vinculação dos dados, a nova rede social da Meta entra no mercado em patamares (número de usuários e capacidade de engajamento) exponencialmente superiores em relação a qualquer outra plataforma ou aplicação que queira adentrar no mesmo mercado. Trata-se, portanto, de uma concorrência desleal, que impede o ingresso de novos players, para falar de aspectos concorrências e econômicos. A falta de diversidade de players impacta diretamente na liberdade de expressão, visto que a vinculação da base de dados entre os produtos e o perfilamento de usuários, comprometem o pluralismo e a diversidade na circulação de informações. Uma possível medida mitigatória (veja também item 7, ponto II) para este problema/risco seria a segregação das bases de dados dos produtos que pertencem a mesma empresa ou grupo econômico, com o uso do chamado silos de dados (data silos). A ideia é que os dados de aplicações como o whatsapp não possam ser vinculados ou compartilhados ao Instagram (como acontece hoje), mantendo de forma isolada a base de dados/usuários das duas plataformas.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 19:48Conforme apontado pelo Laboratório de Políticas de Comunicação da Universidade de Brasília, a concentração econômica e de dados desempenha um papel crucial na dinâmica das plataformas digitais, e um aspecto central no funcionamento das plataformas é a coleta e o tratamento de dados para a oferta de serviços personalizados para diferentes grupos de usuários. Por isso, existem riscos associados à concentração econômica e aos direitos de privacidade e proteção de dados pessoais.
Dessa forma, o arcabouço legal brasileiro sobre proteção de dados é elemento central a ser considerado na regulação de plataformas, de modo a mitigar tais riscos, assim como as demais normas de regulação da Internet. Também como apontado pelo Laboratório de Políticas de Comunicação da UnB, é prudente que tal regulação considere diferentes etapas do tratamento de dados e seus respectivos desdobramentos, bem como mostra-se fundamental considerar aspectos coletivos para a devida gestão de dados. - Laboratório de Estudos Sociotécnicos da Universidade Federal do Pará (comentário inserido por: Leonardo Ribeiro da Cruz) 16/07/2023 às 18:41Sim. A concentração no tratamento de dados e de sua infraestrutura é um risco para a segurança desses dados influi negativamente na estrutura do mercado tecnológico pois altera a diversificação dos preços, dos serviços e do próprio modelo de negócio que valoriza o desenvolvimento tecnológico. No caso da relação com a prestação de serviços públicos, faz com que o funcionamento das instituições públicas dependa de uma quantidade muito pequena de empresas.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 17:09É preciso que as pessoas sejam convenientemente informadas sobre o destino e uso de suas informações, para além do formato que os termos de uso e privacidade tem atualmente. Seria importante que fossem sempre lembradas das regras do jogo a cada vez que algum dado pessoal está em jogo e não fossem obrigadas a aceitar esses contratos sem realmente refletir sobre eles ou saber se o que está escrito é verdade ou não.
Concordamos que de qualquer forma seus dados pessoais não devem ser comercializados ou compartilhados com parceiros comerciais. - Rafael Evangelista 16/07/2023 às 14:56Sim, a concentração dados dos usuários permite abuso de poder econômico. Sugiro que os dados relativos a cada tipo de serviço ou plataforma sejam isolados. Não pode ser permitido às companhias que usem dados de um serviço em benefício de outro
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:08No que diz respeito aos riscos associados à concentração de dados para fins concorrenciais, é importante destacar alguns pontos.
Existem opções consideráveis para o tratamento de dados com segurança, responsabilidade e protegendo a privacidade de usuários com protocolos rígidos e tecnologias de privacidade inovadoras, incluindo ferramentas e recursos já disponibilizados por membros da ALAI,
Portabilidade de dados e concorrência
A portabilidade de dados beneficia tanto os consumidores quanto a concorrência. Oferecer aos usuários controle sobre seus dados por meio de ferramentas de exposição de dados fáceis de usar aumenta a concorrência ao reduzir a carga de troca de serviços. Ele abre caminho para oportunidades e inovação para provedores de serviços de todos os tamanhos e empodera as pessoas a experimentarem novos serviços e a escolherem as ofertas que melhor se adaptam às suas necessidades.
Por meio do projeto Data Transfer (https://dtinit.org/), do qual participam diversas empresas que fazem parte da ALAI, empresas de todos os tamanhos fornecem ferramentas que permitem aos usuários mover dados entre serviços online. O projeto Data Transfer, uma parceria entre Google, Apple, Facebook, Twitter, Microsoft e Smugmug, apoia a transferência direta de dados entre provedores, permitindo que os consumidores transfiram seus dados de forma direta e segura de um provedor para outro, em vez de baixar e recarregar seu conteúdo. O código disponível através do projeto Data Transfer reduz o trabalho de engenharia que qualquer empresa individual teria que fazer para oferecer portabilidade aos seus usuários.
iii) Dados e a oferta de melhores produtos para os consumidores
Os consumidores têm muitas opções sobre onde compartilhar seus dados – e eles podem e escolhem compartilhar os mesmos dados com vários provedores. Dados, por si só, não garantem produtos melhores ou mais bem-sucedidos. É o investimento, a inovação e o método que mais importam.
Tecnologia de ponta ou novas ideias permitem que novas empresas tenham sucesso, às vezes sem nenhum dado. Novos participantes como Zoom, Snapchat, Spotify ou Pinterest tiveram sucesso porque fornecem um produto inovador, não porque têm acesso a dados de empresas estabelecidas.
Extrair insights de dados brutos ou agregados, incluindo dados disponíveis publicamente, é onde uma empresa pode agregar valor específico para consumidores e empresas. O processo de usar informações e feedback para melhorar produtos e serviços não é exclusivo de plataformas de internet ou do mundo on-line – ocorre em todos os setores de nossa economia, onde os dados ajudam as empresas a melhorar e inovar e a melhor atender aos consumidores. É o que uma empresa faz com os dados, não quantos dados ela possui ou usa, que determina sua capacidade de inovar, ter sucesso e atender melhor seus usuários. - Rodolfo Salema 16/07/2023 às 09:59Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Dados são centrais nas economias de plataformas digitais. Nas plataformas de uso em massa e com preço zero para um dos grupos de “usuários” ou “clientes”, dados geralmente consubstanciam o preço e a qualidade dos serviços prestados: a coleta abusiva de dados para fornecimento de um serviço de plataforma digital pode ser equivalente a um sobrepreço monetário ou à prestação de serviços de má qualidade nos mercados comuns.
Adicionalmente, para além da dinâmica de “precificação” e “medidas de qualidade” via dados, vimos que dados se tornaram insumo essencial para o desenvolvimento de determinadas atividades online, de forma que a concentração de dados em massa conferem grande poder econômico às plataformas, permitindo-lhes inclusive utilizá-los para monetizar esse poder em outros mercados (uma vez que a coleta em massa é realizada em mercados de preço zero) ou vendê-los, de forma indireta (armazenados, tratados, processados e analisados) a quem interessar ter informações mais precisas sobre usuários – majoritariamente, anunciantes e agências que desejam direcionar a publicidade digital de forma mais eficiente.
Casos concretos que ilustram a dinâmica descrita acima são: (i) o TikTok, plataforma gratuita que mistura a dinâmica de redes sociais e compartilhamento de vídeos que passou a ter mais de 1 bilhão de usuários em alguns anos, enfrenta diversas acusações e processos ao redor do mundo por abusividade em sua política de privacidade e coleta de dados; (ii) o Google, plataforma originalmente que oferecia apenas motor de buscas gratuito nos anos 90-2000, atualmente é dominante não apenas em seu mercado de origem, mas em quase todos os setores relacionados (publicidade digital/ad tech tools, servidores de e-mail, servidores de mapas, plataformas de compartilhamento de vídeos, computação em nuvem, tradução, sistemas operacionais, softwares de utilidades profissionais, navegadores da web, lojas de aplicativos).
Portanto, na realidade, quando se consideram as big techs já consolidadas e conhecidas, são no mínimo ingênuas afirmações alegando que dados são bens não rivais que, portanto, não caracterizam vantagem competitiva ou barreiras à entrada.
Tais afirmações são claramente contestadas por fatos e pela realidade e contrariam as preocupações urgentes dos governos, legisladores e autoridades concorrenciais ao redor do mundo, que têm dedicado enormes esforços na busca por frear ou limitar a alavancagem por parte das plataformas monopolistas em prejuízo da coletividade e da livre concorrência. Governos e autoridades regulatórias em diversas partes do mundo já se atentaram para os diversos riscos relacionados e decorrentes da concentração de dados, principalmente nas plataformas digitais, o que se pode notar a partir de alguns exemplos:
- Investigação sobre concorrência nos mercados digitais, elaborado pelo subcomitê de Direito Antitruste, Comercial e Administrativo da Câmara dos Deputados dos Estados Unidos em 2020: “The persistent collection and misuse of consumer data is an indicator of market power in the digital economy […] Scholars and market participants have noted that even as online platforms rarely charge consumers a monetary price – products appear to be “free” but are monetized through people’s attention of with their data – traditional assessments of market power are more difficult to play to digital markets […] In the absence of genuine competitive threats, a firm offer fewer privacy protections than it otherwise would. In the process, it extracts more data, further entrenching its dominance […] To the extent that consumers are aware of data collection practices, it is often in the wake of scandals involving large scale data breaches or privacy incidents such as Cambridge Analytica. […] The opacity of data collection and use contributes to consumer confusion and the misperception that consumers do not care about their privacy – the so-called privacy paradox – simply because they use services that have become essential” (US House of Representatives. Investigation of competition in Digital Markets (2020), pp. 51-52, 54);
- Estudo de mercado sobre as plataformas online e publicidade digital, elaborado pela autoridade concorrencial do Reino Unido, CMA: “The collection and use of personal data by Google and Facebook for personalized advertising, in many cases with no or limited controls available to consumers, is another indication that these platforms do not face a strong enough competitive constraint” (UK Competition & Markets Authority. Online platforms and digital advertising – market study final report (2020), p. 318).
Para ilustrar com um caso concreto a questão da concentração de dados nas infraestruturas das plataformas digitais, a Comissão Europeia e a autoridade concorrencial do Reino Unido investigaram a política de privacidade do Google Chrome chamada Privacy Sandbox. O Google, sob alegação de estar protegendo a privacidade dos usuários, removeu os cookies de terceiros do seu navegador, assim, ainda que dados sejam bens não rivais e não excludentes, conseguiu-se impedir o acesso de terceiros interessados nos dados dos usuários do Chrome. Logo, os dados não estariam “mais protegidos” (uma vez que foram coletados pelo próprio Google e seriam usados de qualquer forma), mas o Google estaria utilizando esta estratégia para aumentar a dependência de terceiros em relação ao ecossistema ad tech do Google para direcionar melhor a publicidade digital. Foi firmado um acordo entre o Google e o CMA e este acordo está em monitoramento pela autoridade.
Outros casos serão detalhados nas contribuições abaixo, quando pertinentes. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:22Sim. Há diversos riscos envolvidos no tratamento de dados pessoais, especialmente dos dados sensíveis, sendo insatisfatória a regulação sem fiscalização ou regulamentação que a acompanhe. Isso se torna evidente a partir do poder de mercado das plataformas e da quantidade de dados coletados e tratados, o que nem sempre é correspondido em termos de faturamento, motivo pelo qual é relevante considerar outros elementos como justamente a capacidade de tratamento de dados e o poder decorrente disto.
Nesse sentido, é importante que a REGULAÇÃO VEDE A UTILIZAÇÃO DE (1) dados pessoais sensíveis e (2) dados de crianças e adolescentes para fins de perfilização. Ressalta-se que isso não inviabilizaria modelos de negócios de plataformas, visto que não se trata uma vedação ampla da utilização de dados pessoais, mas somente a vedação da utilização daquele que têm potencial discriminatório e a direitos fundamentais, nos termos da legislação vigente de proteção de dados.
Para além da proteção de dados na esfera individual da privacidade e consentimento informado, a regulação econômica deve se atentar ao contexto mais amplo da economia política. Incluindo fatores relacionados à justiça social, à responsabilidade, ao fortalecimento do espaço democrático, ao interesse público e à soberania de dados. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:08Os riscos associados a interoperabilidade, portabilidade de dados, processamento, uso, armazenamento e concentração de dados são abrangidos pelas teorias de dano de condutas exclusionárias e fechamento de mercado, e podem ser remediados de forma tempestiva a partir do arcabouço legal existente.
No contexto concorrencial, a atual legislação concorrencial e a aderência às melhores práticas internacionais permitem sua aplicação rigorosa contra as preocupações concorrenciais envolvendo vantagens competitivas decorrentes de dados.
Além disso, algumas das questões mencionadas na consulta não constituem riscos reais. Por exemplo, o acesso a grandes volumes de dados não é necessário para a entrada no mercado - a possibilidade de uma empresa desenvolver ou não um produto de sucesso não depende da quantidade de dados que ela detém, mas, sim, de sua capacidade de desenvolver um produto inovador e atrativo, que ofereça um diferencial em relação ao que já é oferecido e seja capaz de atrair a atenção do usuário. Tanto é assim que as plataformas digitais mais populares atualmente (como Meta, Apple, Google, Amazon, Microsoft, TikTok) não tinham quantidades significativas de dados antes de seu lançamento - nem outros serviços que chegaram mais tarde como Snapchat, Twitter, Pinterest, Zoom e etc. Essas empresas obtiveram acesso aos dados do usuário porque ofereceram serviços populares - não se tornaram serviços populares porque tiveram acesso aos dados do usuário.
Por outro lado, a mera acumulação de quantidades maiores de dados não garante o sucesso no mercado. Existem muitos exemplos de plataformas que ganharam popularidade e acesso a quantidades significativas de dados de usuários, mas falharam em manter seus usuários porque não possuíam recursos atraentes suficientes para tanto - é o caso do Orkut, AOL, Friendster, Myspace, Yahoo! e Flickr. - Tarcizio Silva 15/07/2023 às 11:17Sim. A concentração no tratamento, coleta, armazenamento, uso e análise dos dados e nas infraestruturas aprofunda desigualdades econômicas, tecnológicas e políticas entre as grandes empresas de tecnologia e as populações de países subordinados aos fluxos de capital e dados. A coleta excessiva de dados sobre cidadãos brasileiros é realizada por todos tipos de negócios de tecnologia em escala, gerando acúmulo de valor desproporcional.
Na maioria das vezes, o usuário não tem o conhecimento necessário para entender como os dados e rastros coletados são operacionalizados - ou ainda não possui opções suficientes de optar pela recusa da coleta e tratamento sem perder a possibilidade de usar o serviço ou ambiente. O enquadramento da LGPD ao permitir uma miríade de usos na combinação de “finalidade informada” e “consentimento individual” não resolve os usos coletivos dos dados que podem vulnerabilizar o próprio usuário, como na produção de modelos psico-demográficos de persuasão com apoio de recomendação de conteúdo. - IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:51Dados são efetivamente um insumo central para a atividade econômica Não obstante existam argumentos de que dados podem trazer grandes benefícios para as empresas que os coletam, há, por outro lado, estudos que concluem que, em determinados casos, o simples fato de acumular dados não confere necessariamente uma vantagem competitiva a longo prazo. Desse modo, alguns autores ponderam que para que a grande coleta de dados seja exclusiva e configure uma vantagem, nenhuma outra empresa deve ser capaz de replicar facilmente essa coleta.
É importante entender, pois, as peculiaridades de cada mercado, de modo a avaliar se dados configuram bens não-rivais, o que significa que o consumo do bem não diminui sua disponibilidade para outros agentes (Tucker e Lambrecht, 2015). Adicionalmente, as empresas precisam atrair analistas de dados que tenham a capacidade de desenvolver e treinar algoritmos ou de projetar e/ou montar e executar experimentos significativos (Tucker e Lambrecht, 2015). Um segundo ponto diz respeito à existência de custos marginais de produção e distribuição próximos a zero (Shapiro e Varian, 1999). De acordo com tais autores, essas características permitiriam que novos entrantes obtenham percepções semelhantes às disponíveis para as empresas que possuem dados sobre um grande número de clientes, o que deve ser analisado, no entanto, casuisticamente.
Sendo assim, considerando que, em determinados cenários, a natureza não-rival dos dados e, como consequência, a impossibilidade de que uma única plataforma controle por completo toda a coleta e processamento de dados, pode não haver um controle exclusivo por nenhuma plataforma (Lerner, 2016), o que reduziria a possibilidade de o insumo ser considerado como uma barreira à entrada per se.
Ademais, ganhos de eficiência na coleta e processamento podem permitir a empresas melhorar o nível de customização e a qualidade de seus produtos ou serviços.
De todo modo, como já indicado acima, a análise deve ser feita levando-se em consideração as peculiaridades de cada mercado e das plataformas digitais em operação em tais segmentos. - IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:35Dados são efetivamente um insumo central para a atividade econômica Não obstante existam argumentos de que dados podem trazer grandes benefícios para as empresas que os coletam, há, por outro lado, estudos que concluem que, em determinados casos, o simples fato de acumular dados não confere necessariamente uma vantagem competitiva a longo prazo. Desse modo, alguns autores ponderam que para que a grande coleta de dados seja exclusiva e configure uma vantagem, nenhuma outra empresa deve ser capaz de replicar facilmente essa coleta.
É importante entender, pois, as peculiaridades de cada mercado, de modo a avaliar se dados configuram bens não-rivais, o que significa que o consumo do bem não diminui sua disponibilidade para outros agentes (Tucker e Lambrecht, 2015). Adicionalmente, as empresas precisam atrair analistas de dados que tenham a capacidade de desenvolver e treinar algoritmos ou de projetar e/ou montar e executar experimentos significativos (Tucker e Lambrecht, 2015). Um segundo ponto diz respeito à existência de custos marginais de produção e distribuição próximos a zero (Shapiro e Varian, 1999). De acordo com tais autores, essas características permitiriam que novos entrantes obtenham percepções semelhantes às disponíveis para as empresas que possuem dados sobre um grande número de clientes, o que deve ser analisado, no entanto, casuisticamente.
Sendo assim, considerando que, em determinados cenários, a natureza não-rival dos dados e, como consequência, a impossibilidade de que uma única plataforma controle por completo toda a coleta e processamento de dados, pode não haver um controle exclusivo por nenhuma plataforma (Lerner, 2016), o que reduziria a possibilidade de o insumo ser considerado como uma barreira à entrada per se.
Ademais, ganhos de eficiência na coleta e processamento podem permitir a empresas melhorar o nível de customização e a qualidade de seus produtos ou serviços.
De todo modo, como já indicado acima, a análise deve ser feita levando-se em consideração as peculiaridades de cada mercado e das plataformas digitais em operação em tais segmentos. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:19Os riscos relacionados à concentração na no tratamento e infraestrutura crítica de coleta, armazenamento, análise e processamento de dados estão relacionados a concentração excessiva de sistemas operacionalizados em poucos atores. Sistemas inteiros estarem completamente estruturados na infraestrutura de poucas empresas de tecnologia trazem uma série de riscos sistêmicos relacionados a alta concentração, assim como a possibilidade de falha no serviço desestruturar sistemas nacionais inteiros. Para exemplificar o crescimento, o mercado de serviço de infraestrutura em nuvem cresceu 300% de 2016 a 2019 (Statista, fev. 2022)
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 15:59Para uma regulação eficiente, deve-se ter em mente o modelo de negócios das plataformas digitais que utilizam dados como insumo principal. Além disso, deve-se atentar para a atualização de práticas coloniais e imperialistas. Como muitos autores têm defendido, o colonialismo de dados surge como uma nova fase do capitalismo, que se atualiza para continuar reproduzindo desigualdades históricas, afetando especialmente países do Sul global, como o Brasil.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 14/07/2023 às 11:44De forma geral, não há riscos de concentração no tratamento de dados. Isso ocorre porque dados são “non rivalrous goods”. “Bens não rivais,” também conhecidos como “bens não excludentes,” são produtos ou recursos que podem ser consumidos ou usados por vários indivíduos simultaneamente sem diminuir sua disponibilidade ou usabilidade para outros. Non rivalrous goods possuem duas propriedades principais:
• non excludability in supply: o usuário pode suprir uma plataforma com dados e isso não irá esgotá-los. Além disso, o usuário pode replicar os dados em outras plataformas; e
• non rivalry in consumption: o consumo de dados por uma plataforma não afeta o nível de consumo de outras plataformas.
Sendo assim, não há riscos associados à concentração de tratamento de dados, uma vez que o mesmo dado pode ser replicado e utilizado por várias empresas ao mesmo tempo. O fato de cada empresa poder, a partir de sua inteligência própria, derivar insights únicos por métodos próprios não altera a natureza não-rival dos dados.
Ocorre que, se poucos atores atuarem de forma anticompetitiva, de forma a impedir que atores emergentes realizem os mesmos processos, a prática já seria regulamentada em outra seara, qual seja, a defesa da concorrência via Conselho Administrativo da Defesa Econômica (“CADE”). Não haveria, portanto, necessidade de regulação específica para plataformas digitais. - Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 17:14A concentração no tratamento é elemento extremamente relevante em diversos aspectos. Ela impacta diretamente o poder de mercado dos agentes econômicos, que podem a partir destes mapear demandas, desenvolver novos produtos e serviços e reforçar sua dominância tanto em mercados específicos quanto em mercados mais amplos (de plataformas digitais e aplicações de Internet).
A coleta e tratamento de dados é insumo essencial para o funcionamento das plataformas e para a oferta de serviços personalizados para diferentes grupos de usuários.
Diferentes momentos do tratamento devem ser considerados especificamente, pois impactam de forma distinta e combinada. A coleta de dados, já amparada pela LGPD, deve ser vista em combinação com outras dimensões da atuação das plataformas, em especial pelas brechas permitidas por hipóteses como o legítimo interesse. A obtenção de dados por meio de compartilhamento de outros agentes (como corretores de dados) também deve ser consideradas, assim como a coleta não diretamente pelo uso e navegação na plataforma (como por meio de acordos com terceiros para a obtenção de dados de usuários em sites e aplicações, a exemplo de táticas empregadas por grandes conglomerados como Alphabet e Meta).
Uma vez que a legislação atual brasileira de proteção de dados tem como foco dados pessoais, a coleta e tratamento de dados não pessoais deve ser observada com atenção e considerada nas propostas regulatórias, uma vez que estas também reforçam o poder das plataformas. Uma visão coletiva sobre a gestão dos dados, assim. faz-se fundamental na definição das respostas regulatórias.
Agentes podem, por exemplo, potencializar os dados em suas bases não apenas pel - Aliança Étnica (comentário inserido por: Gabriel Javé) 10/07/2023 às 19:59O risco é de acúmulo de poder... São dados extremamente detalhados do comportamento humano que nem a academia científica ou as pesquisas universitárias conseguem obter de forma simples para fins de estudos... Agora imagine isso tudo nas mãos de empresas baseado na lógica exclusiva do consumo e da manipulação política.
Não existe nenhuma delicadeza ou ética no manuseio desses dados centralizados, é extremamente necessário regulamentar e SETORIZAR os dados, de forma que o armazenamento dos dados mais críticos fique num outro servidor que não tenha ligação com as empresas diretamente... - Jorge Machado 07/07/2023 às 17:59Sim, há grandes riscos aí, que devem ser objetos de regulação em todas suas etapas.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:35Os dados são insumos essenciais para as plataformas digitais. Segundo o relatório do Stigler Center, as economias de escala e escopo são ainda mais importantes em mercados digitais – quanto mais produtos oferecidos em uma plataforma, maior é o número de dados coletados/processados e maior será a qualidade e personalização desses produtos (Stigler Committee on Digital Platforms, 2019, p. 41). Sendo assim, considerando as economias de escala e escopo, as grandes empresas que coletam e processam mais dados conseguem melhorar seus produtos a custos mais baixos do que empresas menores. Assim, grandes plataformas conseguem adentrar em mercados adjacentes e desenvolver novos produtos a custos baixos.
A concentração na coleta, armazenamento, análise e processamento de dados em um ambiente pouco competitivo privilegia poucos agentes econômicos que passam a deter valiosas informações que podem impactar a capacidade de personalização de serviços oferecidos por determinada empresa. Nesse sentido, os riscos decorrentes dessa concentração são caracterizados por importantes barreiras às entradas em termos de (i) efeitos de rede e economias de escala; (ii) comportamento do consumidor e o poder de defaults; (iii) acesso desigual a dados dos consumidores; (iv) falta de transparência; (v) crescente papel dos ecossistemas digitais; e (vi) integração vertical e conflito de interesses (Competition and Markets Authority. Online Platforms and Digital Advertisement – Market Study Final Report, 2020, p. 11; Autorité de la Concurrence. Opinion No. 18-A-03 of March 2018 on Data Processing in the Online Advertising Sector, 2018, p. 7).
Para o relatório da Competition and Markets Authority, os players que detêm uma estrutura verticalizada possuem uma vantagem ainda maior na coleta de dados tanto de forma vertical, via interação com seus próprios serviços ou produtos, como na oferta de funcionalidades para serviços terceiros em troca de coleta de dados - Google Analytics, like button, etc (Online Platforms and Digital Advertisement – Market Study Final Report, 2020, p. 93-4; 116-8). - Alex Camacho Castilho 06/07/2023 às 13:40Riscos associados à concentração no tratamento de dados: A concentração do poder de coleta, armazenamento, uso e análise de dados por algumas plataformas pode gerar preocupações relacionadas à privacidade, à segurança dos dados e ao potencial abuso dessas informações. É necessário garantir que os dados, sejam eles pessoais ou não, sejam tratados de maneira responsável e de acordo com as regulamentações de proteção de dados existentes.
- GOLBERY de Oliveira Chagas Aguiar RODRIGUES 01/07/2023 às 09:13Concordo plenamente com a inclusão desse critério no rol de itens a serem regulados. Como não existe transparência por parte das big techs, sobre as liberdades de usos desses dados cruciais, fica fácil entender as possibilidades de manipulação.
- Edson Andrade 26/06/2023 às 20:37Falta esclarecer de forma fácil sobre os uso dos dados adquiridos. Como, se e com quem eles são compartilhados. Citando os nomes dos parceiros empresariais que adquirem esses dados.
- Antônio José Abrantes Chaves 20/06/2023 às 17:20Não apenas concordo que devem ser considerados na regulação, mas devem oferecer mais clareza sobre usos e potenciais usos ao contratante / participante da plataforma.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 13:47Um dos principais ativos das "Plataformas Digitais" é o dado (informação), pois é através dele que a maioria das ações são direcionadas. Quanto aos dados "pessoais", estes já foram devidamente tratados na LGPD. O que é importante separar é que os dados "não pessoais": localização, instrumento de acesso (telefone, tablet, etc), rede de acesso (wi-fi, 3g/5g/5g), localização, termos de busca (pesquisa), etc, não devem estar sujeitos às jurisdições, porque privam o maior ativo destas empresas, e são dados "não pessoais", com os quais as empresas não conseguem identificar unicamente uma pessoa ou empresa.
- Roberto Cardoso Freire da Silva 20/06/2023 às 12:21É preciso haver regras mais claras envolvendo as possibilidades preditivas a partir dos dados e cruzamentos destes quando consideradas diferentes bases. O aceite dos termos por exemplo, não se sustenta, considerando o desconhecimento do funcionamento da plataformas e eventuais usos futuros.
- Jose Vieira 19/06/2023 às 13:49Acredito que já tenhamos regulamentos para coleta, armazenamento e uso de dados coletados.
Devemos fazer com os regulamentos já existem funcionem - Leonardo Tavares de Almeida 04/05/2023 às 08:40Deve ser totalmente considerado, visto que é a atividade principal das plataformas
- Ivelise Fortim 28/04/2023 às 16:10concordo que há riscos, em especial com impacto na saúde mental de usuários
- Rodrigo Pereira 25/04/2023 às 19:21Mesmo com a LGPD em vigor ainda vem sendo necessário notificar algumas plataformas, sinal de que a questão da transparência no tratamento dos dados ainda está aquém dos anseios da sociedade.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:19[Contribuição do DiraCom - Direito à Comunicação e Democracia]
As plataformas têm desenvolvido um modelo de negócios que busca concentrar diversas operações, o que, ao contrário do discurso entusiasta do poder de autorregulação do mercado, tem imposto limites à atuação de outros agentes, especialmente aqueles sem fins lucrativos e mesmo agentes privados menores. Essa dinâmica limita a inovação nos mais diversos setores, resumindo-os à lógica da exploração privada de serviços que interessam às grandes plataformas.
A consolidação da concentração traz diversos outros impactos, como limitação do acesso (como exemplificam os acordos de zero rating), e ampliação do potencial de violação da privacidade e da proteção de dados. Há ainda a apropriação privada do que é produzido por terceiros, como jornalistas e outros profissionais, com impactos para a vida das e dos trabalhadores.
Tendo em vista a origem e as características dessas empresas, há um padrão no tratamento de determinados setores da sociedade de forma estereotipada, a partir do que tem sido chamado de vieses, que recaem especialmente sobre pessoas negras. Esse conjunto de questões está associado a problemas visíveis hoje na esfera pública, pois há a submissão do debate público à dinâmica das plataformas, inclusive aos seus vieses. Com isso temos o encerramento de públicos calculados em bolhas, tornando as pessoas menos expostas a ideias e expressões culturais diferentes; além de haver o predomínio de uma estética e ética empresariais.
Por fim, além das medidas ex-ante, devem ser avaliadas frequentemente possíveis estratégias predatórias, em relação às quais o Estado deve atuar
- Filipe Saraiva 16/07/2023 às 21:41Vimos o quanto isso é de fato relevante dados os movimentos de concentração do mercado de mídias sociais empregados pela Meta ao comprar o Instagram e o Whatsapp. Também é importante pontuar os movimentos da Meta de clonar funcionalidades de outros apps, como ao implementar Stories no Instagram, algo que praticamente limou o Snapchat, que primeiro trouxe essa funcionalidade, do grupo de mídias com muitos usuários.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:49Sim estes ricos precisam e devem ser regulados. Da forma como o mercado está estruturado atualmente, as plataformas se desenvolvem a partir de ferramentas e aplicações já consolidadas, formando uma espécie de concentração de propriedade cruzada. Desde o debate da concentração na radiodifusão, a propriedade cruzada tem sido entendida como prejudicial à própria democracia. Em alguns países, este tipo de concentração de mídia é regulada, não podendo exceder alguns limites em alcance (mercado/território) e audiência. No Brasil, este é um fenômeno comum, basta olhar para as cadeias de mídia que operam com televisão, rádio, jornais impressos e se consolidam como hegemônicas num mesmo mercado/território ou em termos de audiência. Os impactos disso são extremamente ruins para a liberdade de expressão. Uma alternativa, portanto, seria expandir o entendimento sobre propriedade cruzada e impedir o cruzamento de propriedade também das empresas de mídia e tecnologia, as chamadas Big Techs. Na prática, isso significaria criar regras para impedir que o mesmo conglomerado opere, por exemplo, serviços de mensageria, redes sociais, buscadores, serviços de e-mail, etc. Cada serviço deste seria, portanto, ofertado por empresas diferentes, que ficariam impedidas de formar grandes holdings para compartilhamento de capital e de base de dados/usuários.
- ITS Rio (comentário inserido por: Carlos Affonso Souza) 16/07/2023 às 19:04É preciso levar em consideração o componente de proteção à concorrência no desenho mais amplo da regulação de plataformas. Na Europa, a regulação dos serviços digitais (Digital Services Act) veio acompanhada de uma regulação dos mercados digitais (Digital Markets Act) – isso é consequência de uma agenda escalonada e complementar de regulação de plataformas pela União Europeia. No Brasil, o PL 2630 só representa uma parte do esforço que é necessário para dar conta das principais externalidades negativas que enfrentamos no espaço digital. Seria importante, seguindo o modelo europeu, que uma regulação de plataformas no país também considerasse os riscos associados à concentração de mercado e ao abuso de posição dominante em diferentes mercados digitais. Isso não significa, entretanto, que o DMA é o modelo a ser implementado, mas tão somente que essa é uma discussão igualmente importante para endereçar certos desafios. O Decreto 8771/2016, que regulamenta o Marco Civil da Internet, reforça esse entendimento ao destacar, no desenho das atribuições de fiscalização e de transparência para regulação da rede, o papel do Sistema Brasileira de Defesa da Concorrência na "apuração de infrações à ordem econômica" (art.19).
- Laboratório de Estudos Sociotécnicos da Universidade Federal do Pará (comentário inserido por: Leonardo Ribeiro da Cruz) 16/07/2023 às 18:44A concentração de mercado impede o surgimento de uma concorrência e interfere negativamente no valor e na diversidade de serviços prestados. Se a centralização é realizada por empresas não brasileiras, ela impede o surgimento e o crescimento de um desenvolvimento tecnológico nacional, que possa gerar renda e empregos dentro do país.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 17:16A concentração de mercado gera o abuso de poder tanto econômico, quanto comercial e ideológico. Veja por exemplo o fato de que isso faz inclusive que as pessoas deixei de navegar livremente na rede pois acabam indo de uma plataforma para outra sem ver o que existe para além desses ambientes e sem se encontrarem livres da influência de algoritmos de recomendação. Isso tem inclusive efeitos sobre o modo como a política acontece nas sociedades aprisionadas por essas plataformas. É importante que as grandes e pequenas empresas de tecnologia responsáveis por esses produtos sejam reguladas e obedeçam a legislação local nesse sentido.
- Rafael Evangelista 16/07/2023 às 14:57Sim, os serviços e negócios precisam ser diferenciados e isolados, de forma a impedir o uso do poder de uma empresa para alavancar vários empreendimentos diferentes
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:09Concentração de mercado / Abuso de Poder Econômico: a atual legislação concorrencial e o recurso às melhores práticas internacionais de sua aplicação já são capazes de remediar riscos associados à concentração de mercado e ao abuso de poder econômico, enquanto fomentam a concorrência, a inovação e o crescimento dos mercados.
- Rodolfo Salema 16/07/2023 às 10:00Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Conforme o estado da arte da literatura sobre plataformas digitais, existem características econômicas das plataformas que contribuem e tendem à concentração de mercado, com formação consolidada e estável de poder de monopólio e, consequentemente, o seu abuso. Geralmente são mencionadas economias de escala e de escopo, além dos fortes efeitos de rede, e, justamente, as vantagens comparativas dos agentes que detêm grandes quantidades de dados (big data). Do ponto de vista da concorrência, são inúmeros os exemplos de players econômicos que foram excluídos dos seus mercados originais ou foram/são explorados pelas plataformas digitais monopolistas.
O relatório sobre serviços de plataformas digitais da autoridade concorrencial australiana de 2022 alerta para o ponto que grandes quantidades de dados são necessárias para “treinar” os algoritmos e oferecer produtos de melhor qualidade (e personalizados) relacionados a estes dados, como por exemplo, publicidade direcionada. Assim, as plataformas já estabelecidas detêm vantagem competitiva justamente por terem acesso a grandes quantidades de dados (user feedback loop ou data driven network effects), representando barreiras à entrada e expansão dos potenciais concorrentes intransponíveis que possibilitam a imposição de danos exclusionarios ou exploratórios.
Consequentemente, as posições de poder de mercado substancial das grandes plataformas digitais fornecem a elas a capacidade, mas também incentivos de engatar em estratégias anticompetitivas para expandir e reforçar/proteger este poder de mercado monopolista ou mesmo adquirir todos os potenciais rivais que apareçam no horizonte. A autoridade australiana lista as seguintes estratégias como decorrentes desta concentração excessiva e desregulada: self preferencing, venda casada, acordos de exclusividade, recusa de interoperabilidade e impedimento de acesso a hardware/software/dados analisados. Outra preocupação mencionada pelo relatório australiano foi a falta de transparência e diminuição da qualidade dos serviços como consequências diretas da formação de poder de mercado (Australian Competition & Consumer Commission. Digital platform services inquiry, 2022).
Assim, embora em principio se possa sustentar que a concentração de mercado ou mesmo a existência de poder de mercado, por si sós, não sejam um mal inexorável quando se pensa em mercados ou indústrias comuns tradicionais, a estrutura da economia digital globalmente alcançou tal concentração e poder de monopólio que as autoridades antitruste mais respeitadas e reconhecidas do mundo desenvolvido passaram a publicizar a hipótese de se adotar as medidas mais drásticas já adotadas historicamente (casos Standard Oil ou AT&T), consistentes na determinação de divisão compulsória de eventuais gigantes, com a proibição de que atuem de maneira integrada verticalmente em múltiplos mercados relacionados ou adjacentes e a obrigação de sair de determinados mercados ou alienar seus ativos.
Note-se que a situação de tais plataformas digitais alcançou patamares extravagantes e é, portanto, extrema e atípica, exigindo urgentes medidas setoriais. Não à toa autoridades globais, que possuem legislação e disciplinas antitruste historicamente consolidadas que inclusive serviram de inspiração para o ordenamento jurídico brasileiro, estão buscando instrumentos e regulação específicos para lidar com tais players e mercados - hoje se reconhece que a legislação antitruste tradicional, também adotada no Brasil, é claramente insuficiente para lidar com os desafios impostos pelas grandes plataformas, sendo necessário um olhar cuidadoso e dedicado a tais players para que se possa conter os efeitos prejudiciais que sua atuação desregrada vem gerando sobre as democracias e sobre os direitos fundamentais dos cidadãos. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:24O abuso de poder econômico deve ser central na regulação econômica de plataformas digitais.
A tendência à rápida concentração é uma característica dos mercados digitais, em especial em decorrência das externalidades de rede [1]. As externalidades (ou efeitos) de rede, tanto diretos (de um mesmo lado da plataforma) quanto indiretos (entre diferentes lados da plataforma, como o incentivo a ter mais anunciantes em decorrência do número de usuários), não são um problema por si só e, inclusive, surgem como uma característica desses mercados. O problema é que, no limite, temos dois efeitos relevantes: (i) do ponto de vista da dinâmica concorrencial, winner-takes-all (o vencedor de atrair mais usuários ganha o mercado quase por completo), a ponto da concorrência não ocorrer no mercado (entre agentes do mercado), mas PELO mercado como um todo e (ii) do ponto de vista dos consumidores, há um efeito de lock-in (aprisionamento) nas plataformas já dominantes, intensificado pela pouca possibilidade de escolha que tem nesses mercados e pela alta assimetria informacional.
Na prática, O ABUSO DE PODER ECONÔMICO PODE SER EXERCIDO DE DIVERSAS MANEIRAS: (1) abuso de posição dominante por meio de condutas exclusionárias (de exclusão de concorrentes atuais e potenciais), (2) condutas exploratórias (sem necessariamente excluir concorrentes, mas prejudicando a concorrência e consumidores) e (3) aquisição de atuais e potenciais concorrentes. O RESULTADO é o prejuízo à (1) concorrência, (2) consumidores, (3) inovação e (4) à proteção de outros direitos, incluindo direitos fundamentais.
Os efeitos negativos da concentração e o abuso de poder econômico realizado pelos mercados digitais podem ser contidos pelo direito da concorrência, mas também devem ser objeto central da regulação econômica. Ressalta-se que a autoridade concorrencial brasileira, o Conselho Administrativo de Defesa Econômica (CADE), até o momento não tem priorizado esses mercados. Enquanto isso, outras autoridades do mundo tem conhecido sua relevância - e não só autoridades já mais consolidadas como a Comissão Europeia, mas a COFECE, no México, já definiu explicitamente que "os mercados digitais são uma prioridade para a Cofece, pois contribuem para o crescimento econômico do México e seus produtos são altamente consumidos por uma proporção maior de famílias e indivíduos." [2]
Entretanto, também se reconhece que O DIREITO DA CONCORRÊNCIA NÃO VAI RESOLVER TODOS OS CASOS porque (1) apesar de possuir ferramentas para coibição do abuso de poder econômico, ainda precisa de aprimoramentos para um enforcement efetivo em mercados digitais, (2) alguns temas são mais afeitos a serem analisados por outras autoridades, como a consumerista e a de proteção de dados (3) e até por motivos de prioridade institucional.
Desta maneira, EM TERMOS DE CONCENTRAÇÃO ECONÔMICA, É IMPORTANTE QUE SE RECONHEÇA: (1) a importância de que o CADE esteja cada vez mais atento a problemas concorrenciais em mercados digitais, (2) que o CADE coopere cada vez mais com autoridades com atribuições em temas complementares à concorrência em mercados digitais, como a ANPD (em proteção de dados) e a Senacon (em direito do consumidor) e (3) que a regulação auxilie na complementação com regras mais claras ex ante e também facilite a interação entre esses temas de proteção jurídica (consumidor, dados e concorrência) e entre essas autoridades (ANPD, Senacon e CADE).
[1] CONTRI, Camila Leite. Aspectos concorrenciais de regulação de plataformas: inovação e características de mercados digitais. In: ZANATTA, Rafael; CONTRI, Camila Leite e SECAF, Helena. Dados, Mercados Digitais e Concorrência. Belo Horizonte, MG: Letramento, 2022. Disponível em: Acesso em: 15 jun. 2023.
[2] COFECE. Cofece investiga la existencia de prácticas ilegales en el mercado de bienes y/o servicios digitales
. 03 jul. 2023. Disponível em: https://www.cofece.mx/cofece-investiga-la-existencia-de-practicas-ilegales-en-el-mercado-de-bienes-y-o-servicios-digitales/. - Flávia Lefèvre Guimarães 15/07/2023 às 13:28Destaco aqui o fato de que não há no histórico de decisões proferidas pelo Conselho Administrativo de Defesa Econômica (CADE), em processos relativos à denúncias de abuso de poder econômico e violações das regras Sistema Brasileiro da Concorrência pelas grandes plataformas, precedentes de reconhecimento de práticas anticoncorrenciais cometidas pelas Bigtechs, sob a justificativa apresentada reiteradamente em diversos eventos públicos de que a legislação nesse campo é muito específica e que os modelos de negócios dessas empresas não podem ser examinados sob os parâmetros brasileiros.
Sendo assim e considerando o inegável poder de mercado dessas empresas que atuam como oligopólios transnacionais, que a regulação se debruce com urgência e empenho para esta realidade, de modo a conter mais avanços que virão por conta do desenvolvimento da Inteligência Artificial e Internet das Coisas.
Destaco também, a despeito das justificativas que têm sido apresentadas pelo CADE para deixar de impor penalidades para as plataformas com as quais não concordo, a necessidade de as autoridades brasileiras, com poderes atribuídos pelo Marco Civil da Internet e pelo Decreto 8.771/2016, por meio dos arts. 17 a 21, no Capítulo IV, que dispõe sobre a fiscalização e transparência – Secretaria Nacional do Consumidor (SENACON), Agência Nacional de Telecomunicações (ANATEL) e CADE, atuem de forma colaborativa com o Comitê Gestor da Internet no Brasil e suas diretrizes quanto a segurança no tratamento de dados e garantia da neutralidade da rede, para “zelar pelo cumprimento da legislação brasileira, inclusive quanto à aplicação das sanções cabíveis, mesmo que as atividades sejam realizadas por pessoa jurídica sediada no exterior, nos termos do art. 11 da Lei nº 12.965, de 2014”.
Nesse sentido, é inadmissível que predominem no Brasil os acessos a Internet pela rede móvel, comercializados com base em planos com franquias associadas à prática do zero rating, com violações às garantias de neutralidade da rede e ao direito de prestação contínua do serviço de conexão a Internet, que reforçam o poder de mercado da Meta com efeitos deletérios e reiterados para a concorrência, uma vez que essa posição privilegiada confere a Meta a possibilidade de coleta e tratamento de dados em escala volumosa e incomparável com outros agentes econômicos, bem como para a democracia brasileira, com estímulo à desinformação e disseminação de discursos de ódio, tendo em vista resultados de pesquisas mostrando que a maior parte dos brasileiros se informa politicamente pelo Facebook e que as campanhas de desinformação inundam os usuários das redes principalmente pelo Facebook e pelo WhatsApp – justamente as duas aplicações ofertadas no sistema de zero rating para mais de 80 milhões de brasileiros.
É lamentável, portanto, que esta prática, já rechaçada pela Corte de Justiça Europeia e pelo Body of European Regulators for Eletronic Communications (BEREC) desde 2021, continue preponderando no Brasil, com o aval reiterado justamente do CADE, ANATEL e SENACON, que mesmo quando provocadas por iniciativas do Ministério Público Federal e entidades da sociedade civil quanto ao tema, como é o caso do IDEC, Intervozes, NUPEF, IRIS, Educadigital, IBEB, Aqualtunelab, reunidos na Coalização Direitos na Rede (CDR), que apresentaram processo administrativo em janeiro de 2023 ao Ministério da Justiça por meio da Coordenadoria de Assuntos Digitais e SENACON, permanecem inertes e insensíveis à situação de milhões de brasileiros sujeitos a um acesso precário a Internet. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:09A atual legislação concorrencial e o recurso às melhores práticas internacionais em sua aplicação já são capazes de remediar riscos associados à concentração de mercado e ao abuso de poder econômico, ao mesmo tempo em que fomentam a concorrência, a inovação e o crescimento dos mercados.
- IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:53No âmbito do ordenamento jurídico brasileiro, a concentração de mercado não é um problema capaz de justificar, por si só, a necessidade de regulação dos mercados em questão. Mesmo mercados concentrados podem ser competitivos a depender de suas características. Em alguns casos, entes privados podem conquistar participações de mercado mais elevadas em virtude de sua maior eficiência ou inovação, que lhes permitiram superar seus rivais. Assim, mesmo que o resultado seja de maior concentração de mercado, pode haver ganhos, de forma que os efeitos líquidos podem ser positivos (em decorrência dos novos produtos/serviços ou da maior eficiência). O parágrafo 1º do art. 36 da Lei n.º 12.529/11 estabelece, nessa linha, que a “conquista de mercado resultante de processo natural fundado na maior eficiência de agente econômico em relação a seus competidores não caracteriza [...] ilícito”.
Nesse contexto, considerar a concentração de mercado por si só como um fundamento para a regulação pode ter efeitos negativos sobre a inovação e concorrência no mérito, uma vez que entes privados podem ser desincentivados a inovar para diferenciar seus produtos ou operar de forma mais eficiente por receio de consequências regulatórias. Por esse motivo, a legislação concorrencial já existente somente sujeita os abusos de poder econômico à intervenção governamental.
Destaca-se principalmente que os abusos de poder econômico já estão sujeitos a regulação transversal e multissetorial nos termos da Lei n.º 12.529/11, que estabelece parâmetros amplos o suficiente para permitir a intervenção sobre diferentes tipos de condutas e setores. Neste sentido, o Conselho Administrativo de Defesa Econômica (Cade) vem construindo uma prática sólida baseada em análises econômicas com o objetivo de identificar danos efetivos ou potenciais à concorrência e diferenciá-los de condutas legítimas e pró-competitivas que podem prejudicar rivais menos eficientes, mas que são benéficas aos consumidores, à inovação, e à economia como um todo.
Uma regulação voltada a “abusos de poder econômico”, assim, não pode ser cogitada em abstrato, uma vez que isso resultaria em sobreposições com as previsões da Lei n.º 12.529/11 e com as competências do Cade. A abordagem brasileira à regulação tem envolvido estudos extensos para identificar falhas de mercado específicas em setores determinados, concebendo remédios individualizados para essas preocupações.
Qualquer solução regulatória, portanto, deverá ser precedida de um estudo detalhado, focado na identificação de cada preocupação que ela se propõe a remediar, listando diferentes abordagens possíveis e considerando seus custos e o princípio da proporcionalidade. Ela deverá, também, indicar os motivos pelos quais a legislação concorrencial transetorial existente é insuficiente para remediar tais preocupações. - IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:36No âmbito do ordenamento jurídico brasileiro, a concentração de mercado não é um problema capaz de justificar, por si só, a necessidade de regulação dos mercados em questão. Mesmo mercados concentrados podem ser competitivos a depender de suas características. Em alguns casos, entes privados podem conquistar participações de mercado mais elevadas em virtude de sua maior eficiência ou inovação, que lhes permitiram superar seus rivais. Assim, mesmo que o resultado seja de maior concentração de mercado, pode haver ganhos, de forma que os efeitos líquidos podem ser positivos (em decorrência dos novos produtos/serviços ou da maior eficiência). O parágrafo 1º do art. 36 da Lei n.º 12.529/11 estabelece, nessa linha, que a “conquista de mercado resultante de processo natural fundado na maior eficiência de agente econômico em relação a seus competidores não caracteriza [...] ilícito”.
Nesse contexto, considerar a concentração de mercado por si só como um fundamento para a regulação pode ter efeitos negativos sobre a inovação e concorrência no mérito, uma vez que entes privados podem ser desincentivados a inovar para diferenciar seus produtos ou operar de forma mais eficiente por receio de consequências regulatórias. Por esse motivo, a legislação concorrencial já existente somente sujeita os abusos de poder econômico à intervenção governamental.
Destaca-se principalmente que os abusos de poder econômico já estão sujeitos a regulação transversal e multissetorial nos termos da Lei n.º 12.529/11, que estabelece parâmetros amplos o suficiente para permitir a intervenção sobre diferentes tipos de condutas e setores. Neste sentido, o Conselho Administrativo de Defesa Econômica (Cade) vem construindo uma prática sólida baseada em análises econômicas com o objetivo de identificar danos efetivos ou potenciais à concorrência e diferenciá-los de condutas legítimas e pró-competitivas que podem prejudicar rivais menos eficientes, mas que são benéficas aos consumidores, à inovação, e à economia como um todo.
Uma regulação voltada a “abusos de poder econômico”, assim, não pode ser cogitada em abstrato, uma vez que isso resultaria em sobreposições com as previsões da Lei n.º 12.529/11 e com as competências do Cade. A abordagem brasileira à regulação tem envolvido estudos extensos para identificar falhas de mercado específicas em setores determinados, concebendo remédios individualizados para essas preocupações que não podem ser sanados de forma eficiente e adequada pela simples aplicação da legislação antitruste.
Qualquer solução regulatória, portanto, deverá ser precedida de um estudo detalhado, focado na identificação de cada preocupação que ela se propõe a remediar, listando diferentes abordagens possíveis e considerando seus custos e o princípio da proporcionalidade. Ela deverá, também, indicar os motivos pelos quais a legislação concorrencial transetorial existente é insuficiente para remediar tais preocupações. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:20A excessiva concentração de poder de mercado e o abuso de poder econômico possuem riscos relacionados a alteração da dinâmica do mercado, que se torna restrita e concentrada, reunindo poderes econômicos e, consequentemente, políticos, sob o poder de um pequeno grupo de empresas. Além disso, a oferta de serviços que vieram a se tornar essenciais para a sociedade (ex: plataformas de entrega de comida durante a pandemia) ficou segmentada em poucos atores e o acesso a esses serviços ficou condicionado a poucos agentes. O acesso restrito impacta diretamente o exercício de direitos humanos, como a liberdade de expressão e acesso à informação, nos ambientes digitais. Isso faz com que as grandes plataformas atuem como controladoras de acesso (gatekeepers) econômicos e de direitos humanos.
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 16:02Mesmo que a regulação dos mercados digitais demande uma legislação específica, esta questão não pode ser deixada de fora do debate. A questão do zero-rating é um exemplo disso, além de ferir a neutralidade da rede, é uma prática anticompetitiva associada com a intensificação do fenômeno da desinformação.
- Tarcizio Silva 14/07/2023 às 13:33Sim. O efeito de rede é uma dinâmica reconhecida em diversos campos da economia e da comunicação. O modelo de negócio das plataformas digitais tem tendência oligopolista devido ao efeito de rede e a uma série de características vinculadas. Podemos citar que as plataformas digitais líderes no Brasil conseguem: a) estabelecer uma miríade de pontos de contato com clientes, funcionários e fornecedores, utilizada para oferecer novos serviços, aplicativos ou condições; b) usar capital para gerar dumping em determinadas áreas ou atividades até seu estabelecimento no mercado; c) usufruir de vantagens desproporcionais devido a práticas de zero rating, que fere a neutralidade da rede.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 14/07/2023 às 11:45Os dois principais riscos supostamente relacionados à promoção da concorrência nesses mercados são: (i) aquisição de concorrentes emergentes; e (ii) alto custo de barreira à entrada. Não necessariamente, porém, correspondem à realidade.
Quanto ao primeiro ponto, o relatório do CADE indicou que foram analisados 143 atos de concentração (fusões e aquisições) voltados para plataformas digitais, entre 1995 e 2020, sendo que 20% (aproximadamente 29 atos) são referentes ao varejo online, ao passo que apenas 5% (aproximadamente 7 atos) se refere às redes sociais. Esses números indicam que, no Brasil, a aquisição de concorrentes emergentes não representa um grande risco.
Por outro lado, o alto custo de barreira à entrada é real, e afeta todas as empresas que queiram entrar nos mercados de plataformas digitais. No entanto, como mencionado acima, os dados empíricos mostram que, no Brasil, esta questão é subsidiária — por mais que haja debate intenso sobre este tipo de regulamentação nos EUA e na União Europeia. Ocorre que é justamente nestas regiões que estão baseadas as grandes empresas do setor, objetos de debates sobre este tipo de regulação. O cenário brasileiro é distinto e emergente e, por isso, eventual regulamentação sobre o tema precisa refletir a realidade do país.
A depender da regulamentação proposta, esta barreira de entrada pode aumentar, dificultando ainda mais a existência de novos players brasileiros e sedimentando a posição dos incumbentes. Por exemplo, regulamentações que imponham alto custo operacional (contratação de times de moderação etc.) ou tecnológico (criação de filtros automatizados próprios para remoção de conteúdo infringente) podem ser custosas demais para os negócios emergentes no país, porém de simples cumprimento por grandes empresas que já possuam esses recursos internalizados ou poder econômico para implementá-los. - Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 17:18Como tem sido ressaltado na literatura acadêmica, a concentração na coleta e tratamento de dados tem impactos diretos sobre a concorrência e pode ser utilizada para práticas anti-competitivas. Entre os pontos de controle e condição de gatekeeping das plataformas, devem ser considerados os problemas e riscos advindos deste fenômeno, com respostas regulatórias para impedi-los e mitigá-los.
- Aliança Étnica (comentário inserido por: Gabriel Javé) 10/07/2023 às 20:05É impossível de se concorrer com alguém que possui o monopólio dos dados dos usuários (ou clientes baseado na lógica comum deles)...
Pode-se fazer uma analogia ao que acontece no ramo dos Mercados/Supermercados/Varejistas, onde nenhum pequeno negócio consegue sobreviver ou competir preço com os "Atacadões" que surgem pela cidade onde geralmente pertencem a poucas pessoas que inclusive tem ligação direta com políticos. - Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:37Nos últimos anos, a estrutura da economia mundial passou por diversas mudanças estruturais. Essas mudanças ocasionaram o surgimento e fortalecimento das chamadas Big Techs, frequentemente associadas às empresas do acrônimo “GAFAM”, que se beneficiaram desse novo cenário desregulado para reduzirem custos de transação, aumentarem suas economias de escala e escopo e potencializarem seus efeitos de rede – características intrínsecas à economia digital. Esse movimento ensejou uma maior atenção a possíveis elaborações de políticas públicas e legislações concorrenciais ao redor do mundo. Nesse sentido, grande parte dos problemas concorrenciais têm surgido quando as plataformas são, ao mesmo tempo, plataformas que controlam determinados mercados e também competidores de outros agentes econômicos que operam nestes mesmos mercados.
A consequência desse fortalecimento foi a concentração de mercado entre pouquíssimos players. Assim como em qualquer mercado, seja digital ou físico, a concentração econômica não é um problema em si, mas pode ser nociva ao ambiente concorrencial e, principalmente, aos consumidores. As autoridades antitruste ao redor do mundo estão atentas às condutas destes agentes econômicos, uma vez que esses ecossistemas digitais podem abusar do seu poder de mercado não apenas nos seus mercados principais de atuação, mas também estendê-lo aos mercados adjacentes.
A identificação de práticas discriminatórias é um dos tópicos mais desafiadores para as autoridades antitruste, uma vez que podem gerar efeitos benéficos para os consumidores. Essas condutas não são novas, mas ganharam visibilidade nos últimos anos em decorrência da crescente concentração de mercado, privatizações e desregulamentações de setores importantes da economia mundial (Motta, Massimo. Competition Policy: theory and practice. Cambridge University Press, 2004, p. 411). Nesse sentido, o elevado market share nos mercados principais facilita a prática de condutas unilaterais exclusionárias como a chamada auto preferência (self-preferencing), preço predatório, venda casada, recusa de contratar, entre outras.
A prática de self-preferencing começou a ser amplamente discutida após 2015, com os desdobramentos da investigação da Comissão Europeia contra o Google, em decorrência do abuso de posição dominante no mercado de serviço de comparação de preços online – o caso “Google Shopping”. A investigação culminou na decisão condenatória de 2017, que impôs uma multa superior a EUR 2,42 bilhões e obrigação de adoção de remédios comportamentais. De acordo com a Comissão Europeia, o favorecimento dado pelo Google ao seu serviço de comparação de preços em detrimento do serviço de concorrentes teria gerado diversos efeitos anticompetitivos. A prática de self-preferencing orquestrada por empresas dominantes pode causar diversos danos à competição, como a exclusão de concorrentes, redução de incentivos à inovação, aumento de preços e redução da qualidade e variedade dos produtos.
Nesse sentido, uma das grandes preocupações das autoridades antitruste se fundamenta na possibilidade das empresas dominantes não apenas consolidarem seu poder de mercado nos mercados principais, mas também nos mercados adjacentes – ao controlar seus ecossistemas verticalmente integrados, há a possibilidade desses players privilegiarem seus próprios produtos e serviços em detrimento dos concorrentes. Conforme pontuado, o efeito dessa conduta é o fechamento de mercado para novos entrantes ou redução da competitividade dentro do ecossistema.
Por causa disso, o Artigo 6(5) do DMA prevê expressamente a proibição da prática de self-preferencing por gatekeepers, a partir de uma regulação ex ante. Em outros casos, como o da recente alteração na legislação concorrencial alemã, a prática recebe uma presunção de ilicitude quando adotada por agentes com poder de mercado transversal (i.e., em mais de um mercado relacionado). Autoridades de defesa da concorrência no Japão, Coreia, Australia, e outros também cogitam regulações sobre o tema (Peitz, Martin. The Prohibition of Self-Preferencing in the DMA. Centre on Regulation in Europe, 2022, p. 6).
Por fim, um enforcement voltado para a não discriminação/tratamento justo em plataformas digitais é essencial, uma vez que o design de muitos mercados internos impacta negativamente a competição entre empresas que precisam utilizar a plataforma do ecossistema de um player dominante – em muitos casos, essas plataformas podem ser caracterizadas como essential facilites. Esses gatekeepers têm o poder de regular as regras de acesso, desenhar interfaces para apresentação de produtos e serviços, determinar o processador de pagamento que será utilizado, determinar os termos de acesso a dados, coletar dados sensíveis de concorrentes, entre outros (Crémer, Jacques; de Montjoye, Yves-Alexandre; Schweitzer, Heike. Competition Policy for the Digital Era, 2019, p. 60-1). - Alex Camacho Castilho 06/07/2023 às 13:40Riscos associados aos efeitos negativos da concentração de mercado e abuso de poder econômico: A concentração de mercado e o abuso de poder econômico por parte das plataformas digitais podem resultar em distorções da concorrência, prejudicando a entrada de novos concorrentes, restringindo a escolha dos usuários e dificultando a inovação no setor. É importante regular e monitorar essas práticas a fim de garantir um ambiente de mercado mais justo e competitivo.
- Andressa de Bittencourt Siqueira da Silva 20/06/2023 às 10:42É certo que o zero-rating favore a concentração de mercado. Em que pese o CADE já tenha se manifestado, 2017, sobre a prática de zero-rating à luz do direito concorrencial, em decisão para arquivamento de inquérito já referida, nota-se que ainda há espaço para revisão do entendimento sob perspectivas ainda não analisadas. Uma alternativa consiste em limitar a aplicação do zero rating no Brasil pela via regulatória do Direito do Consumidor. Em pesquisa apresentada em 2021 e publicada em 2022, defendi a alteração legislativa no Código de Defesa do Consumidor para inserir o "acesso igualitário a aplicações de internet" entre os direitos básicos do consumidor, previstos no art. 6º da Lei, nos seguintes termos: "Art. 6º São direitos básicos do consumidor: [...] XV – acesso igualitário a aplicações de internet, vedado o estabelecimento de tarifação zero a determinadas aplicações pelo provedor de acesso à internet, exceto para a prestação de serviços públicos". A exceção prevista para a prestação de serviços públicos se justifica principalmente a partir do contexto desafiador da pandemia de covid-19 no Brasil, que evidenciou a necessidade de
democratizar o acesso a informações fornecidas pelo Estado (e. g. aplicativos Auxílio Emergencial, Conecte.sus) e de garantir a eficácia do direito à educação no cenário das salas de aula remotas. A publicação e pesquisa completa, intitulada "Zero-rating, acesso à internet e proteção ao consumidor na ordem jurídico-constitucional brasileira", pode ser acessada pelo DOI 10.36592/9786581110857-12 - Jose Vieira 19/06/2023 às 13:51Depende muito do objetivo da mídia digital.
Acredito que com liberdade de escolha e participação, mídias que comentem abuso são automaticamente ignoradas - Rodrigo Pereira 25/04/2023 às 19:22Pelo que vejo nos debates eles mandam no jogo do capital e são majoritários financeiros, devendo portanto ser melhor regulados, inclusive com mais participação e controle de representações da sociedade.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:50Sim. A inibição de modelos alternativos para a economia de plataformas digitais pode trazer impactos negativos significativos para a inovação. Como monopolização e concentração de poder, estagnação e falta de diversidade, barreiras à entrada para startups e etc, redução da diversidade de vozes e perspectivas entre outros problemas.
- ITS Rio (comentário inserido por: Carlos Affonso Souza) 16/07/2023 às 19:05Quando da construção do Marco Civil da Internet entre 2007 e 2014, uma das principais preocupações em termos de regulação da Internet já era o sopesamento entre diferentes valores e princípios, em especial a liberdade de expressão e a inovação em mercados digitais emergentes. A imposição de obrigações regulatórias desproporcionais podem impactar negativamente a inovação no setor e, por isso, essa deve ser uma consideração central para o debate sobre regulação de plataformas digitais no país. Um ponto de atenção no PL 2630, nesse sentido, é a criação de um "código de conduta" a ser seguido por todas as plataformas englobadas pelo escopo da lei. Ainda, o projeto prevê que as plataformas devem implementar canais de denúncia por usuários de conteúdos que potencialmente violam o código de conduta. Isso pode levar a uma indesejável uniformização de regras de moderação de conteúdo por diferentes plataformas, com uma consequente perda em termos de inovação e diversidade no espaço digital. É dizer, como explicam diversos especialistas como Tarleton Gillespie e Evelyn Douek, a moderação é o grande commodity oferecido por estas empresas, garantindo uma Internet vibrante e plural. A proposta de um "código de conduta", portanto, deve ser vista com cautela e redesenhada para evitar um efeito uniformizador em termos de moderação
- Laboratório de Estudos Sociotécnicos da Universidade Federal do Pará (comentário inserido por: Leonardo Ribeiro da Cruz) 16/07/2023 às 18:48A economia de dados é, hoje, o modelo hegemônico de valorização de serviços digitais e de produção de conteúdo. A centralização desse mercado e o poder de capital e de investimento de suas empresas chave impede que o desenvolvimento tecnológico informacional possa ser valorizado por outros modelos de negócio que não a coleta e tratamento de dados. Isso incide negativamente não somente no mercado, mas na produção e circulação de informações na internet.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 17:23A concentração de poder econômico impede o livre desenvolvimento de iniciativas que podem eventualmente aperfeiçoar e mudar as regras do jogo tendo em consideração direitos humanos como aquele à privacidade. A regulação deveria prever mecanismos que impedissem que isso aconteça inclusive prevendo multas que sejam proporcionais à grandeza dos impactos gerados contra a livre concorrência.
- Rafael Evangelista 16/07/2023 às 14:58Sim, devem existir medidas que permitam e incentivem a co-existência de serviços de múltiplos modelos de negócio e mesmo de serviços colaborativos e sem fim de lucro. Serviços sem fins de lucro, mas que sejam relevantes ao interesse público, devem receber apoio para sua manutenção
- Rodolfo Salema 16/07/2023 às 10:01Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
O grande poder de mercado das plataformas digitais ameaça modelos alternativos, seja no próprio mercado de atuação destas, seja nos mercados relacionados ou adjacentes.
Em relação às alternativas dentro do próprio mercado, são patentes as estratégias anticompetitivas perpetradas pelas plataformas digitais ao longo do tempo para “comprar ou enterrar” qualquer concorrente, fosse ele atual, entrante ou potencial, combinando estratégias predatórias, aquisições sistemáticas (“killer acquisitions”) e até a mimetização das inovações trazidas pelos concorrentes. Aliás, vale mencionar que nos Estados Unidos estão em andamento duas investigações sobre a política do Grupo Facebook nomeada “buy or bury” (sobre comprar ou enterrar concorrentes no mercado de redes sociais), uma na autoridade concorrencial US Federal Trade Commission e uma através de processo judicial iniciado por 49 Estados, tendo o US Department of Justice como amicus curiae.
Adicionalmente, as plataformas digitais têm utilizado diversas estratégias (que geralmente podem ser enquadradas como self preferencing) para se aproveitar de conteúdo produzido por terceiros, especialmente sites de notícias, prática comumente chamada de scrapping (“raspagem”).
Os casos mais famosos são aqueles envolvendo o Google, no qual foi acusado e condenado por autoridades antitrustes na União Europeia e em outras jurisdições (como França, Turquia, Inglaterra) por fazer scrapping de conteúdo de marketplaces (ou plataformas de comparação de preços) para favorecer o Google Shopping e fazer scrapping de conteúdo jornalístico para favorecer o Google News.
A prática desvia o tráfego dos sites dos produtores de conteúdo ou de notícias para o próprio Google, que tem posição dominante, de forma que as verbas publicitárias cada vez mais se concentram no Google, e os produtores de conteúdo passam cada vez mais a depender da remuneração do Google para continuar produzindo conteúdo (ou a outros métodos menos eficientes, como assinaturas e paywalls). Contudo, a negociação com o Google é problemática, uma vez que o poder de barganha do Google é completamente assimétrico em relação aos produtores de conteúdo. Na França, com a Lei dos Direitos Conexos, o Google passou a forçar sistematicamente os publishers e as agências de notícias a concederem licenças gratuitas pela exibição de seus conteúdos, sem qualquer possibilidade de negociação. A conduta do Google foi investigada pela autoridade concorrencial francesa em 2019 e o Google firmou em 2022 um acordo com a autoridade de que negociaria de boa-fé estabelecendo remuneração por qualquer apropriação de conteúdo, com critérios transparentes, objetivos e não discriminatórios. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:25A concentração de mercado e o abuso de poder econômico são tão grande a ponto de se ter (1) pouca concorrência, (2) pouca possibilidade de escolha de consumidores (em termos de diversidade e, inclusive, de qualidade) e (3) impedir o surgimento de soluções mais inovadoras. Desta maneira, a coibição à inovação é prejudicial não somente para o mercado, mas também para o surgimento de modelos alternativos que inclusive sejam mais protetores de direitos - por exemplo, plataformas com políticas de privacidade mais protetivas aos seus consumidores.
Essa inibição de modelos alternativos ocorre não somente pela concentração em si, mas pelo abuso dessa posição dominante por meio de condutas exclusionária e exploratórias, mas também pela aquisição de concorrentes atuais ou nascentes e futuros. Em especial, a aquisição de concorrentes nascentes é preocupante porque inviabiliza o surgimento de alternativas viáveis para os consumidores, prejudicando a inovação e a diversidade no mercado. Assim, com a alta tendência à concentração e killer acquisitions, inviabilizam a utilização da internet e suas potencialidades de formas que não envolvam a capitalização exploratória de dados.
Dessa forma, a viabilidade de modelos de negócio que não sejam baseados na exploração de dados pessoais é fundamental. Tratando especialmente de serviços públicos ou de alto interesse social e político, é fundamental que as plataformas utilizadas não sejam voltadas à exploração de dados e que os modelos alternativos contemplem a inovação e a soberania digital. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:15Risco: influência na concepção e fruição de produtos e serviços digitais do Vale do Silício e dos Estados Unidos
(...) relevante observar que as grandes corporações privadas exercem uma influência monumental na concepção e fruição dos produtos e serviços digitais. Sete Big Techs (Microsoft, Apple, Amazon, Google, Facebook, Tencent e Alibaba) respondem por dois terços do total do valor de mercado das 70 maiores empresas do setor e estão, predominantemente, concentradas no Vale do Silício nos Estados Unidos, enquanto a participação da Europa é de 3,6%, a da África 1,3% e a da América Latina 0,2%. O Google detém 90% do mercado global de Internet e o Facebook é a principal plataforma de mídia social em mais de 90% das economias mundiais. Ou seja, “as a result, the specific cultural, economic and political values of Silicon Valley fundamentally shape how many the emerging digital technologies operate globally, including in contexts very far removed from this small region of North America”.
ACHIUME, E. Tendayi. Racial Discrimination and Emerging Digital Technologies: A human rights analysis. Genebra: United Nations, 2020. Disponível em: https://digitallibrary.un.org/record/3879751 (Acesso em: 18 Jun. 2021).
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques. Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:10Vide resposta ao item (i) acima. A oferta de serviços populares e inovadores é suficiente para atrair um número expressivo de usuários, e a experiência de crescimento dos serviços atualmente mais populares confirma que a presença de agentes consolidados no mercado não impede o crescimento de novos serviços alternativos que proporcionem soluções inovadoras para o usuário.
- Tarcizio Silva 15/07/2023 às 11:26A estreita relação entre os negócios das plataformas digitais globais com o capital financeiro e os objetivos econômico-políticos de seus estados de origem as permite desenvolver e implementar produtos, serviços e recursos que não conseguem competição. A abordagem de globalização favoreceu as empresas de núcleos como o do Vale do Silício, limitando a inovação local. Isso gera reforço negativo de práticas similares no ecossistema midiático que só poderão ser superadas com regulação e fomento a modelos alternativos para a economia de plataformas e inovação ligada a métricas de soberania, tal como circulação de patrimônio cultural, geração de empregos, universalização do acesso e outras.
- IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:53Entendemos não haver contribuição relevante a ser realizada pelo IBRAC em relação a este subtópico.
- Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:22Acerca da inibição de inovação, há certas características das plataformas digitais que devem ser consideradas no processo de regulação: (i) as práticas de autopreferência (self-preferencing); (ii) os efeitos feedback loop de dados; (iii) economia de escopo; (iv) formação de conglomerados digitais. Essas características favorecem o fechamento do sistema das plataformas em si mesmas (efeito lock-in). Com essas características, são formados conglomerados empresariais que podem ocasionar em fechamento de mercado. Isso inibe o surgimento de novos competidores, com modelos de negócio diversos aos oferecidos pelos “gatekeepers”. Outra característica das plataformas digitais que deve ser considerada no processo de regulação é a competição pelo mercado ao invés da competição no mercado. Nessa lógica, os agentes econômicos têm como objetivo alcançar altas concentrações econômicas, dominando mercados inteiros, ao invés de uma parcela deles. Para isso, um dos mecanismos utilizados e que deve ser observado na regulação são as aquisições predatórias (killer aquisitions), que são os movimentos de empresas que adquirem competidores emergentes que possuem potencial disruptivo e inovador. Esses movimentos inibem a inovação e concentram o fator novidade e inovação no mercado nos agentes com maior poderio econômico e político.
- Kenzo Soares Seto 14/07/2023 às 16:18A concessão de bancos de dados públicos e a substituição de provedores públicos de serviços digitais para instituições públicas por grandes plataformas estrangeiras é um risco já comprovado a segurança nacional e ao desenvolvimento local da economia digital.
Por exemplo, a substituição de soluções próprias por ambientes de aprendizagem e suítes de serviços de educação de corporações como a Microsoft e a Alphabet nas Universidades e sistemas municipais e estaduais de educação públicos abre espaço para que informações sensíveis (Patentes, pesquisas, dados industriais e de reservas naturais) para o desenvolvimento nacional sejam espoliadas, além de permitir que essas corporações se neguem a compartilhar com pesquisadores e orgãos de formulação de políticas públicas dados e informações essenciais produzidas a partir da comunidade educacional brasileira (Dados referentes a ensino, aprendizagem, atenção dos estudantes e docentes) - IAB Brasil (comentário inserido por: Beatriz Falcão ) 14/07/2023 às 11:47A economia digital não se limita a anúncios. Serviços digitais constantemente criam modelos alternativos de negócio que promovem a inovação, e eventual regulação pode afetar seu funcionamento e existência. Alguns exemplos:
a) Micropagamentos: Os micropagamentos envolvem cobrar uma pequena quantia de dinheiro pelos serviços digitais ou pelo acesso a conteúdo específico. Isso permite que os usuários paguem apenas pelo que desejam consumir, em vez de pagar uma taxa fixa ou serem expostos a anúncios. Os micropagamentos podem ser feitos por meio de plataformas de pagamento online ou usando criptomoedas.
b) Doações e crowdfunding: Alguns serviços digitais, como criadores de conteúdo, jornalismo independente e projetos de código aberto, dependem de doações dos usuários para se sustentarem. Plataformas de crowdfunding, como o Kickstarter e o Patreon, permitem que os usuários façam doações diretas para apoiar projetos e criadores de sua escolha.
c) Freemium: O modelo freemium oferece um serviço básico gratuitamente, mas cobra por recursos adicionais ou funcionalidades avançadas. Isso permite que os usuários experimentem o serviço antes de decidirem pagar por recursos extras. Muitos aplicativos e jogos adotam esse modelo, oferecendo uma versão gratuita com recursos limitados e uma versão premium paga com benefícios adicionais.
d) Licenciamento e venda de produtos digitais: Criadores de conteúdo digital, como músicos, fotógrafos e designers, podem vender licenças de uso para suas obras ou vender produtos digitais, como ebooks, cursos online, plugins e temas de software. Esses modelos permitem que os criadores monetizem seu trabalho diretamente, sem depender de anúncios ou assinaturas.
e) Comissões e parcerias: Algumas plataformas digitais permitem que os usuários ganhem dinheiro por meio de comissões ou parcerias. Isso envolve receber uma porcentagem das vendas geradas através de links de afiliados ou indicando novos clientes para uma plataforma específica. Programas de afiliados são comuns em setores como comércio eletrônico, marketing de produtos e serviços digitais. - Laboratório de Políticas de Comunicação da Universidade de Brasília (comentário inserido por: Jonas Valente) 11/07/2023 às 17:20A concentração na coleta e tratamento de dados é uma barreira à entrada fundamental que deve ser considerada na formulação de uma regulação de plataformas. Casos variados envolvendo grandes conglomerados como Meta, Alphabet e Microsoft têm demonstrado como essas plataformas reproduzem e reforçam essas barreiras à entrada para novos agentes, dificultando a inovação.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:38Os riscos associados à inibição de modelos alternativos para a economia de plataformas digitais guardam relação com os efeitos decorrentes da concentração de mercado e, como consequência, da facilitação do abuso de posição dominante. A função do direito da concorrência não reside na proteção da concorrência em si, mas na manutenção do processo competitivo – sem modelos alternativos de negócios, não há um ambiente competitivo.
No Brasil, os abusos de posição dominante por exclusão – abusos exclusionários – são práticas empresariais exercidas por um agente econômico dominante, com a finalidade de privar os rivais atuais ou potenciais da obtenção dos ganhos de escala necessários para entrada no mercado ou para a expansão das suas operações em determinados nichos (Fernandes, Victor Oliveira. Direito da Concorrência das Plataformas Digitais: entre abuso de poder econômico e inovação. Thomson Reuters, 2022, p. 157). Essa privação resulta na exclusão dos concorrentes atuais ou potenciais, fechamento de mercado, aumento de custos de rivais e aumento das barreiras à entrada. - Alex Camacho Castilho 06/07/2023 às 13:40Riscos associados à inibição de modelos alternativos e impactos negativos para a inovação: A concentração de poder por algumas plataformas digitais pode inibir o surgimento e o desenvolvimento de modelos alternativos e inovadores. Isso pode levar a uma redução da diversidade de opções para usuários e consumidores, bem como limitar a competição e a inovação no setor digital.
- Casa de Cultura Tainã / Rede Mocambos (comentário inserido por: Vincenzo Tozzi\) 06/07/2023 às 09:07A maio riqueza do Brasil é a diversidade cultural e presença de povos originários que carregam praticas e visões do mundo que seguem sendo homologados pela monocultura da sociedade de massa. Nesse sentido o campo digital, da forma que esta, é mais um meio colonizado e centralizado que impede a manifestação e a existência plena desses povos. Isso além de ser uma violação dos direitos humanos é uma grande perda para o mundo.
- ROSA VICARI 23/06/2023 às 15:34Penso que o maior risco aqui é o poder econômico das Big da tecnologia. Elas compram potenciais concorrentes.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 13:50Estes riscos são mais associados ao poder de geração de tecnologias. Infelizmente o Brasil é deveras atrasado na geração destas tecnologias, e até o momento que escrevo esta resposta não tenho informação de nenhum produto brasileiro que tenha ganho escala mundial. Estas soluções requerem um investimento considerável e não são simples as construções de alternativas.
- Jose Vieira 19/06/2023 às 13:52Com liberdade plena e igualitária sempre haverá alternativas
- Leonardo Tavares de Almeida 04/05/2023 às 08:42Se houver prática abusiva ou predatória no sentido de prejudicar a consolidação e/ou crescimento de uma nova plataforma, as plataformas que dominam o mercado devem sim ser responsabilizadas se atuarem direta e/ou indiretamente para dificultar ou prevenir o recebimento ou acesso a informações sobre eventual nova plataforma
- Rodrigo Pereira 25/04/2023 às 19:26Este aspecto já foi comentado em quesitos acima: não apenas risco para inovação no interior do universo de plataformas digitais, como derretimento das possibilidades de outras revoluções industriais ou não industriais para condução de um processo civilizatório sustentável, justo e efetivamente inovador, fora das diretrizes absolutistas do mundo digital como única possível para as novas gerações investirem sua criatividade e juventude.
- Rede de Pesquisa em Governança da Internet (comentário inserido por: Rede de Pesquisa em Governança da Internet) 16/07/2023 às 20:27Por favor, ver nossa contribuição no eixo Quem Regular, ponto 3, 5 sobre gatekeepers
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 17:29Precisamos considerar que a experiência das pessoas que usam essas plataformas muitas vezes é cerceada por ataques à sua existência e os valores em que acredita, muitas vezes colocando em perigo a própria democracia. É importante que as análises sobre a qualidade dos serviços oferecidos levem isso em consideração, sendo importante que haja mecanismos como multas e sanções quando a qualidade dos serviços oferecidos não contemplar leis locais que combatem o racismo por exemplo.
- Rafael Evangelista 16/07/2023 às 15:00Sim, a concentração de mercado em geral implica numa queda da qualidade dos serviços. é por isso que entidades que zelam pelos serviços prestados ao público devem procurar promover a desconcentração do mercado
- Rodolfo Salema 16/07/2023 às 10:02Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Como já foi ressaltado em contribuições acima, nas plataformas de uso em massa e com preço zero, dados geralmente consubstanciam o preço e a qualidade dos serviços prestados: a coleta abusiva de dados para fornecimento de um serviço de plataforma digital pode ser equivalente a um sobrepreço monetário ou à prestação de serviços de má qualidade nos mercados comuns.
Adicionalmente, o Conselheiro do Conselho Administrativo de Defesa Econômica Victor de Oliveira Fernandes, em seu livro Direito da Concorrência das Plataformas Digitais – entre abuso de poder econômico e inovação, alerta que as plataformas digitais dominantes tendem a realizar apropriação de conteúdo de terceiros, o impedimento ao uso de múltiplas plataformas e, por fim, a inovação anticompetitiva e self preferencing. Tais condutas exclusionárias têm o potencial de produzir os seguintes danos: (i) restrição de condições de contestabilidade e apropriabilidade; (ii) criar obstáculos no desenvolvimento de inovações disruptivas; ou (iii) dificultar acesso de concorrentes a recursos estratégicos para a concorrência dinâmica. - Flávia Lefèvre Guimarães 15/07/2023 às 18:28Os serviços prestados pelas plataformas trazem riscos intrínsecos basicamente pelos seguintes aspectos: as atividades normalmente desenvolvidas por essas empresas, que atuam com poder de controle e abrangência inédito nos campos da comunicação, informação, publicidade e propaganda política, com uso intenso de big data e Inteligência Artificial, implicam, por sua natureza, em riscos para direitos sociais, políticos e econômicos, individuais, coletivos e difusos e para as estruturas legais e institucionais dos países.
Sendo assim, é necessário que se dê um passo além do que já foi definido pelo Marco Civil da Internet (MCI) quanto à responsabilidade dos provedores, respeitando-se o princípio da inimputabilidade da rede, nos termos do art. 19, quando estabelece que, com relação a danos causados por conteúdos postados por terceiros, as plataformas só respondem quando deixarem de cumprir uma ordem judicial para remoção, como forma de se garantir a liberdade de expressão e evitar a censura.
Nessa direção, também o art. 3º, do MCI, deve ser levado em conta quando estabelece os princípios que devem orientar a disciplina da Internet no Brasil, tendo deixado expresso no inc. VI, a “responsabilização dos agentes de acordo com suas atividades, nos termos da lei”.
É certo que já temos um conjunto de leis, inclusive o Código do Consumidor (CDC) mencionado expressamente pelo art. 7º, inc. XIII, do MCI, além de todo um arcabouço legal integrado pela Lei Geral de Proteção de Dados Pessoais, Lei Eleitoral, Código Civil, Estatuto da Criança e Adolescentes entre muitas outras, que se impõem às plataformas nos casos de danos causados por atos próprios, relativos ao desenvolvimento de suas atividades comerciais, hipóteses estas distintas da que está expressa no art. 19, do mesmo MCI.
Portanto e tendo em vista o grande interesse público envolvido pelas atividades desenvolvidas por essas empresas, que, repita-se, potencialmente ameaçam direitos econômicos, políticos, sociais, trabalhistas em larga escala, por força do poder de mercado indesejado que possuem, sem que hoje os países disponham de ferramentas institucionais suficientes para enfrentar o alcance de suas atuações, é fundamental que se estabeleçam regras específicas e claras quanto suas obrigações de prestarem serviços de qualidade e o regime de responsabilidade correspondente.
Importante destacar que a qualidade, nos termos do CDC não se restringe apenas ao cumprimento de normas regulamentares, ou seja, a adequação normativa, mas implica também em obrigações de segurança para que um serviço seja considerado de qualidade.
Especialmente sobre a teoria da qualidade, que emerge do Código de Defesa do Consumidor – Lei 8.078/1990, na medida em que é sobre ela que se sustenta a bifurcação em qualidade-adequação e qualidade-segurança, segundo o que razoavelmente se pode esperar dos produtos e serviços (Claudia Lima Marques e Ministro Herman Benjamin).
Ou seja, quando se trata de serviços de qualidade, não se trata apenas da segurança relativa à integridade física dos usuários desses serviços, mas também ao respeito “à sua dignidade, saúde e segurança, a proteção de seus interesses econômicos, a melhoria da sua qualidade de vida, bem como a transparência e harmonia das relações de consumo”, atendidos uma série de princípios estabelecidos pelo art. 4º, da lei, quanto estabelece os objetivos e princípios da Política Nacional das Relações de Consumo.
Axel Honneth nos propõe que existem duas esferas garantidoras de liberdade nos ordenamentos jurídicos modernos: a da autonomia privada e a da autonomia coletiva, que se constitui por atitudes, práticas e convicções democráticas que devem servir de base para orientar a atualização conjunta dos direitos pelos poderes públicos.
Ele propõe ainda que a liberdade jurídica deve estar revestida de um sentido ético que a legitime, com o objetivo de que se possa alcançar algum grau de justiça social ((O Direito da Liberdade).
Nessa perspectiva, olhando para a revolução das tecnologias de comunicação dos últimos anos e o poder das plataformas, forçoso admitir que os direitos que propiciam livre arbítrio, liberdade e equilíbrio nas relações jurídicas que se estabelecem entre governos e cidadãos e empresas e consumidores estão fortemente ameaçados.
Por conseguinte, é legítimo e legal, diante do quadro de insegurança que tem marcado a incidência das Bigtechs nos mercados onde atuam, por conta de suas práticas algorítmicas para perfilamento e distribuição de conteúdos, que o Estado atue regulando a atividade dessas empresas, impondo-lhes obrigações claras de segurança e lhes atribuindo responsabilidade.
E nem se diga que se estaria ferindo o princípio da livre iniciativa, na medida em que o art. 170, da Constituição Federal (CF), ao estabelecer os fundamentos e princípios que devem orientar a atividade econômica, elenca o respeito a soberania nacional; à propriedade privada; à função social da propriedade; à livre concorrência; à defesa do consumidor; à defesa do meio ambiente; à defesa do meio ambiente; à redução das desigualdades regionais e sociais; à busca do pleno emprego; ao tratamento favorecido para as empresas brasileiras de capital nacional de pequeno porte.
Ademais, o art. 174, da CF, também tratando dos princípios gerais da atividade econômica deixa claro que: “Como agente normativo e regulador da atividade econômica, o Estado exercerá, na forma da lei, as funções de fiscalização, incentivo e planejamento, sendo este determinante para o setor público e indicativo para o setor privado”.
Nessa esteira e diante do que está previsto no art. 11, do MCI, são ilegítimas, ilegais e reprováveis as reações de resistência dessas empresas para que o Brasil estabeleça uma lei específica para regular as plataformas.
Imprescindível, então, que se aperfeiçoem os dispositivos inseridos a pedido do Governo Lula no PL 2630/2020, que se propõe a regular a Liberdade, Transparência e Responsabilidade na Internet, de modo que possamos ter uma disciplina específica direcionada a estabelecer obrigações de segurança, nos termos do CDC, e o correspondente regime de responsabilidade adequado com as leis já em vigor no país.
A Comunidade Europeia estabeleceu recentemente no Digital Service Act uma série de disposições que denominaram de Dever de Cuidado, utilizada pelo Governo como parâmetro para as propostas apresentadas nos arts. 6º ao 15, do PL 2630.
Entretanto, devemos considerar como base o CDC e o MCI – leis avançadas e que têm servido de modelo internacional, com vistas a evitar um maior empoderamento das plataformas, principalmente nas atividades de moderação de conteúdos e contas, atribuindo a elas um poder ainda mais sobre o fluxo de informações, com vistas a afastarmos riscos de grave comprometimento das garantias de liberdade de expressão e das atribuições do Poder Judiciário para a manutenção do Estado Democrático de Direito. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:25Como exemplos a serem considerados, as práticas anticompetitivas realizadas pelas plataformas digitais em relação à oferta e qualidade de produtos e/ou serviços, podem ser observadas nas lojas de aplicativo [1], em mecanismo de busca [2] e outros. Esse impacto pode também ser sentido em diversos outros mercados, muitos dos quais inclusive já foram objeto de análise antitruste.
Além de um abuso de poder econômico, essas práticas também ferem as normas de defesa do consumidor. Reconhecida a vulnerabilidade do consumidor, inclusive no ambiente virtual, é necessário garantir a qualidade de produtos e serviços (Art. 4º, II, "d" do CDC) e inclusive garantir o direito básico à informação adequada e clara (art. 6º, III do CDC). Portanto, esses riscos devem ser considerados na regulação de plataformas, que deve reiterar e aprofundar a proteção do CDC aos consumidores.
Ressalta-se que a qualidade de produtos e serviços tem diversas dimensões, sendo uma relevante a dimensão da privacidade e da proteção de dados. Além da importância da proteção deste direito fundamental por si só, a proteção de dados é um elemento essencial para a determinação da qualidade de um produto ou serviço - e, inclusive, se houve redução de sua qualidade ao se diminuir a proteção de dados, por exemplo. Um exemplo para este tema é a alteração da Política de Privacidade do WhatsApp, ocorrida no início de 2021, e que, após denúncia do Idec [3], foi objeto de uma recomendação conjunta entre o Cade, Senacon, ANPD e MPF [4] e é objeto de um processo administrativo na ANPD [5].
[1] A Apple rejeitou em sua loja de aplicativos concorrentes diretos do “Apple Pay” sem qualquer justificativa, dentre eles o “Samsung Pay Mini”, da concorrente Coreana Samsung. Para mais informações acesse: Apple Rejects Samsung Pay Mini to Be Registered on Its App Store. Korean IT News: Dezembro, 2016. Disponível: Acesso em: 15 jun. 2023. Authority for Consumers and Markets. Report: Market Study into Mobile App Stores. Holanda, 2019. Disponível em: Acesso em: 15 jun. 2023.
[2] O Google Shopping manipulava seu algoritmo de comparação de preços para favorecer sua própria ferramenta. Na União Europeia, a empresa foi multada em 2,4 bilhões de dólares, já no Brasil o caso foi investigado pelo Cade e arquivado por falta de provas. Para mais informações, acesse: G1. Justiça europeia rejeita recurso do Google e mantém multa de 2,4 bilhões de euros. G1, 10 nov. 2021. Disponível em: Acesso em: 15 jun. 2023.
[3] IDEC. Idec cobra reação de autoridades sobre abusos em atualização do WhatsApp. 06 abr. 2021. Disponível em: https://idec.org.br/release/idec-cobra-reacao-de-autoridades-sobre-abusos-em-atualizacao-do-whatsapp.
[4] ANPD. Cade, MPF, ANPD e Senacon recomendam que WhatsApp adie entrada em vigor da nova política de privacidade. 07 maio 2021.
https://www.gov.br/anpd/pt-br/assuntos/noticias/cade-mpf-anpd-e-senacon-recomendam-que-whatsapp-adie-entrada-em-vigor-da-nova-politica-de-privacidade
[5] ANPD. Processos de fiscalização. 14 jul. 2023. Disponível em: https://www.gov.br/anpd/pt-br/composicao-1/coordenacao-geral-de-fiscalizacao/processos-de-fiscalizacao. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:16O respeito à condição peculiar de pessoa em desenvolvimento de crianças e adolescentes para definir “qualidade de produtos e serviços digitais”:
Um aspecto legal a ser observado para oferta e qualidade de produtos e serviços digitais, sob a ótica da proteção das infâncias e adolescências, é o respeito à sua condição peculiar de pessoa em desenvolvimento (Arts. 17 e 71 do ECA e Doutrina da Proteção Integral, Art 277 da CF/88). A concentração de mercado e a existência de monopólios privados que se beneficiam de sua própria posição dominante criam uma dependência de utilização das plataformas dominantes para interagir, se comunicar, conviver e exercer direitos à cultura, informação e lazer. Ressalta-se que o acesso a esses espaços de interação global, muitas vezes, está atrelado a um modelo de negócios que se beneficia do direcionamento de publicidade e da coleta, extração e análise de dados pessoais para fins comerciais, ampliando a situação de vulnerabilidade de crianças e adolescentes e criando uma falsa percepção de “liberdade de uso”, devido à pouca proeminência de plataformas alternativas. De tal forma, riscos atrelados à oferta e qualidade de produtos, no contexto atual de concentração de mercado, impactam direitos e liberdades fundamentais de crianças e adolescentes. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:10A atual legislação permite sua aplicação rigorosa contra tais preocupações.
- Tarcizio Silva 15/07/2023 às 11:00A qualidade de produtos e serviços pode diminuir imensamente devido ao efeito de rede, o “network effect”. A concentração de usuários, clientes ou fornecedores nos ecossistemas de plataformas de um mesmo grupo empresarial (ex: Meta, Alphabet etc) gera vantagens inestimáveis na medida em que as comunidades de usuários/clientes/fornecedores tornam-se dependentes das plataformas para acessar outras pessoas, valores e recursos; além de terem realizado trabalho de preenchimento de perfis, construção de redes, produção de conteúdos e atividades nos ambientes ou aplicativos de um determinado grupo de empresas de tecnologia.
A posição privilegiada dos grupos estabelecidos faz com que eles possam gradualmente diminuir a qualidade do serviço, produto ou atendimento, assim como aumentar preços para os consumidores, diminuir remuneração aos empregados e, em suma, precarizar as condições a todos envolvidos. Empresas de plataformas mudam as condições do serviço até o limite do que avaliam como aceitável pelos usuários que, caso mudem de plataforma, precisam despender esforços adicionais para recriar suas redes, conteúdos ou práticas em outro ambiente. - Tarcizio Silva 15/07/2023 às 10:59A qualidade de produtos e serviços pode diminuir imensamente devido ao efeito de rede, o “network effect”. A concentração de usuários, clientes ou fornecedores nos ecossistemas de plataformas de um mesmo grupo empresarial (ex: Meta, Alphabet etc) gera vantagens inestimáveis na medida em que as comunidades de usuários/clientes/fornecedores tornam-se dependentes das plataformas para acessar outras pessoas, valores e recursos; além de terem realizado trabalho de preenchimento de perfis, construção de redes, produção de conteúdos e atividades nos ambientes ou aplicativos de um determinado grupo de empresas de tecnologia.
A posição privilegiada dos grupos estabelecidos faz com que eles possam gradualmente diminuir a qualidade do serviço, produto ou atendimento, assim como aumentar preços para os consumidores, diminuir remuneração aos empregados e, em suma, precarizar as condições a todos envolvidos. Empresas de plataformas mudam as condições do serviço até o limite do que avaliam como aceitável pelos usuários que, caso mudem de plataforma, precisam despender esforços adicionais para recriar suas redes, conteúdos ou práticas em outro ambiente. - IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:55A concentração econômica pode envolver impactos negativos sobre a oferta e qualidade de produtos e serviços digitais na medida que condutas potencialmente anticompetitivas podem restringir a inovação, reduzindo a capacidade de entrada de agentes inovadores. Isso pode ocorrer em função da existência de barreiras à entrada ligadas à própria estrutura do mercado ou em razão dos efeitos de condutas exclusionárias.
Esse é um cenário existente não apenas em mercados nos quais se ofertam produtos e serviços digitais mas em quaisquer segmentos econômicos em que a inovação seja um elemento relevante, afetando tanto espaços físicos como online, assim como empresas que atuam nos dois segmentos indistintamente. Nesse contexto, na análise dos potenciais problemas associados à concentração de mercado, é fundamental considerar os principais vetores competitivos de cada segmento, incluindo a busca por inovação e eventuais eficiências ao consumidor, a serem sopesados com os prejuízos aos mercados como um todo. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:24A concentração econômica mantém a oferta de produtos e serviços nas mãos de poucos players disponíveis no mercado. Caso haja uma expressiva queda na qualidade dos serviços ofertados, não há competidores no mercado que estejam aptos a absorver a demanda dos consumidores em razão da ausência de competitividade no mercado. Assim, a regulação deve visar a manutenção da qualidade dos serviços ofertados pelas plataformas por meio do foco na desconcentração econômica e promoção da competitividade entre agentes do mercado. Dessa forma, há o empoderamento do consumidor, que pode migrar de serviços caso haja redução na qualidade ou oferta dos produtos oferecidos.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:39As economias de escala e escopo nas plataformas digitais são ainda mais importantes em mercados digitais – quanto mais produtos oferecidos em uma plataforma, maior é o número de dados coletados/processados e maior será a personalização desses produtos. Sendo assim, considerando as economias de escala e escopo, as grandes empresas que coletam e processam mais dados conseguem melhorar seus produtos a custos mais baixos do que empresas menores. Em decorrência das economias de escopo, grandes plataformas conseguem adentrar em mercados adjacentes e desenvolver novos produtos a custos baixos. Além disso, quanto mais os agentes econômicos aumentam sua dominância em mercados principais e adjacentes, diminui-se o seu incentivo econômico de promover a inovação, o que pode impactar negativamente a qualidade dos produtos e serviços digitais.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 16:22A qualidade dos produtos/serviços oferecidos pode aumentar em virtude de efeito de rede (“network effect”). O network effect ocorre quando o valor de determinado produto aumenta conforme os números de usuários aumentam. O exemplo clássico é a rede de telefonia, que aumenta de utilidade quanto maior for o número de pessoas a ela conectadas.
O efeito de rede gera algumas consequências, tais como o positive feedback loop, que torna a plataforma mais atrativa para os desenvolvedores conforme o número de usuários aumenta. Um positive feedback loop é um ciclo de feedback positivo em que ações ou resultados favoráveis impulsionam ainda mais o envolvimento ou o sucesso de uma plataforma, gerando um efeito de amplificação. As vantagens do positive feedback loop incluem: crescimento acelerado da base de usuários, maior retenção de usuários, aumento do valor percebido, maior interação e participação dos usuários, e criação de uma vantagem competitiva.
Além disso, o network effect também impulsiona os mecanismos de Inteligência Artificial (“IA”) baseados em learn-by-doing, em que, quanto mais usuários, mais a plataforma aprende suas preferências.
Isoladamente, porém, o efeito de rede não assegura domínio de mercado: no ambiente online, a concorrência é infinita e está sempre a um clique de distância. Diversos serviços incumbentes que pareciam dominantes tornaram-se obsoletos e foram superados por serviços inovadores que apresentaram diferenciais significativos. Um exemplo interessante é a coluna intitulada “Will MySpace ever lose its monopoly?”, publicada no jornal britânico The Guardian em 2007 , em que se argumentava que seria impossível “quebrar o monopólio” dessa plataforma – que hoje sequer é lembrada pela esmagadora maioria dos usuários, saindo de 29 bilhões de visualizações mensais em seu ápice (2006) para apenas 6.9 milhões em 2022. O mesmo ocorreu com navegadores (“browsers”) ao longo dos anos: o Internet Explorer chegou a ter 95% de market share em 2004 e, após se tornar cada vez menos relevante em razão de inovações trazidas por outros navegadores, deixou de existir em 2022 .
Em outras palavras, o efeito de rede não é suficiente para reter usuários insatisfeitos nem supera a falta de inovação no ambiente digital. O rápido avanço tecnológico constantemente abre oportunidades para novas plataformas surgirem e oferecerem uma proposta de valor superior.
Esses pontos devem ser considerados na regulamentação das plataformas digitais. O constante aprimoramento dos serviços e desenvolvimento de novas funcionalidades só são possíveis em razão de uma congruência de fenômenos mercadológicos que gera um ambiente propício ao desenvolvimento. Uma regulação pensada apenas em “frear” grandes plataformas pode gerar o efeito oposto, criando exigências que apenas essas empresas serão capazes de cumprir. - Alex Camacho Castilho 06/07/2023 às 13:41Riscos associados aos impactos negativos sobre oferta e qualidade de produtos e serviços digitais: A concentração de mercado pode levar a uma redução da oferta e da qualidade de produtos e serviços digitais, uma vez que as plataformas dominantes podem exercer controle sobre o acesso e a distribuição desses produtos e serviços. Isso pode prejudicar a diversidade, a variedade e a competitividade no mercado.
- Antônio José Abrantes Chaves 20/06/2023 às 17:23Sem dúvida. Como jornalista, tenho acompanhado com preocupação o crescimento das fake news, com cada vez mais requinte para parecerem notícias verdadeiras. Talvez se trate do melhor exemplo de como um produto digital de aparente qualidade pode gerar impactos negativos à sociedade.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 13:51Não são necessárias ações neste sentido, pois a percepção dos usuários quanto à qualidade dos serviços já os leva a não utilizar.
- Roberto Cardoso Freire da Silva 20/06/2023 às 12:24A concorrência desleal me parece muito clara, tendo em vista a possibilidade de criação de novos produtos otimizados para os usuários destas plataformas. Deveria haver algum tipo de restrição/barreira, mesmo que temporal, envolvendo a criação de novos produtos projetados a partir de dados obtidos em outros sistemas destas empresas. A própria informação desse uso deveria se explicitada.
- Jose Vieira 19/06/2023 às 13:53Não há necessidade de regulação quanto a isso, pois naturalmente serviços ruins são esquecidos e evitados
- Rodrigo Pereira 25/04/2023 às 19:28Há muita fragilidade na infraestrutura digital, seja pela dependência de eletricidade, equipamentos frágeis, com crescimento exponencial da obsolescência programada, comparados aos de outras épocas, etc.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:20[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A concentração da publicidade limita a existência de outros agentes que também funcionam a partir do acesso a recursos publicitários. Além disso, submete o conjunto de agentes aos mecanismos de propaganda fixados unilateralmente por poucas empresas que, em geral, funcionam de forma opaca, controlando diversos elos da cadeia. Assim, até mesmo os resultados são pouco auditáveis. Para os usuários, a concentração gera riscos quanto à garantia da privacidade e da proteção de dados. E resulta, indiretamente, na concentração de iniciativas que podem se beneficiar do financiamento do bolo publicitário - INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:50Sim estes ricos precisam e devem ser regulados. O caso emblemático da Google, que passou a utilizar seu robusto sistema de busca e todos os dados obtidos a partir daí para criar seu próprio serviço de Adwords (publicidade) é representativo da necessidade de regulação. É extremamente prejudicial para a sociedade, tanto do ponto de vista do mercado, quanto do ponto de vista da circulação de informações diversas e plurais, que a mesma empresa constituidora do serviço de busca – que no alcance e relevância exercido hoje deveria ser considerado serviço de interesse público – possa ofertar também o serviço de Adwords (publicidade),classificando resultados de busca de acordo com o investimento da empresa anunciante, ou seja, combinando anúncios com buscas. Existe um vício de origem neste modelo de negócios. Tal vício de origem só pode ser revertido – ainda que 20 anos após sua consolidação – se: 1) houver separação econômica-estrutural entre as empresas que ofertam os produtos/serviços; 2) não havendo separação econômica-estrutural, que pelo menos, haja segregação dos bancos de dados/usuários (data silos) dentro da mesma empresa que oferta serviços diferentes.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 17:34As pessoas que usam essas plataformas precisam ser melhor informadas de que estão gerando lucros para grandes empresas de tecnologia, seja vendo anúncios ou gerando dados. Seria importante que essa relação fosse melhor detalhada, inclusive para que se pudesse saber quanto cada pessoa contribui para os lucros de cada empresa.
- Rafael Evangelista 16/07/2023 às 15:00Sim, é preciso impedir que a mesma empresa atue nas duas pontas da publicidade (criação de anúncios a partir de dados e venda de espaços a anunciantes)
- Rodolfo Salema 16/07/2023 às 10:04Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Há riscos inegáveis no mercado de publicidade digital resultantes da atuação abusiva das plataformas dominantes.
A autoridade concorrencial do Reino Unido (CMA) elaborou um relatório sobre plataformas online e publicidade digital em 2020, introduzido com o diagnóstico de que ainda que Google e Facebook tenham crescido oferecendo produtos melhores do que seus concorrentes, eles estariam protegidos por vantagens de incumbência tão fortes (incluindo efeitos de rede, economias de escala e acesso incomparável aos dados de usuários) que os potenciais rivais não podem mais concorrer em igualdade de condições. A fraca concorrência nos motores de busca e nas redes sociais leva a uma redução da inovação e da liberdade de escolha, consequentemente obrigando os consumidores a conceder mais dados pessoais do que gostariam a estas plataformas incumbentes. As conclusões do relatório foram tão preocupantes à autoridade que, avaliando que não teria poderes suficientes para abordá-las, criou uma nova divisão para avaliar plataformas digitais, chamada Digital Markets Unit – com a missão de realizar intervenções para enfrentar o poder de mercado do Google e do Facebook, com medidas relacionadas a abertura dos dados do motores de busca do Google e inclusive a avaliação da cisão do complexo verticalmente integrado de publicidade digital do Google, além de exigir do Facebook interoperabilidade com plataformas de mídias sociais concorrentes e dar aos consumidores opções sobre publicidade personalizada (UK Competition & Markets Authority. Online platforms and digital advertising – market study final report, 2020).
Além das investigações abertas pela Digital Markets Unit do CMA no mercado de publicidade digital, cabe destacar que nos Estados Unidos e na União Europeia estão em andamento diversas outras investigações sobre abuso de posição dominante do Google no mercado de publicidade digital, nos quais a maioria solicita a alienação compulsória da divisão de publicidade digital. Ainda que cada investigação tenha suas peculiaridades e focos, em síntese, o Google é acusado por:
1. Neutralizar ou eliminar concorrentes atuais e potenciais no mercado de ad tech tools através de uma série de aquisições (como AdWords, DoubleClick for Publishers, DoubleClick Advertising Exchange – AdX, AdMeld, AdMob).
2. Abusar de posição dominante no mercado de tecnologias de publicidade digital para forçar mais publishers e anunciantes a usar seus produtos, enquanto prejudica a possibilidade destes agentes de utilizar produtos concorrentes. Este abuso envolve diversas restrições de interoperabilidade/ multihoming, manipulações de leilões de publicidade digital em prejuízo dos concorrentes, self preferencing de diversas maneiras como “last look” nos leilões.
3. Conluio com o Facebook (acordo nomeado Jedi Blue) no qual o Google ofereceu condições favoráveis ao Facebook alegadamente em troca deste não contratar com ferramentas ad tech concorrentes (como o Header Bidding) ou atuar diretamente como concorrente das ad tech tools do Google. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:27Compreendemos que, ainda que haja redução de custos de transação ao se integrar a publicidade com outros serviços, é necessário que a regulação de plataformas descentralize a oferta de publicidade, que está diretamente relacionada ao modelo de negócio das plataformas digitais. É necessário considerar que as plataformas protagonizam de todas as etapas de compra e venda dos anúncios. O Google, por exemplo, é acusado de autopreferenciamento ao favorecer seus próprios produtos em etapas distintas do processo de compra e venda de anúncios.
Tamanho é a influência do Google no mercado de publicidade, que a Comissão Europeia considera que a solução mais eficaz seria separar parte dos serviços da Google. [1] No mesmo sentido, a Artigo 19 sugere a separação entre hospedagem e curadoria de conteúdo em grandes plataformas digitais, ou seja, a mesma plataformas não poderia ser responsável pela criação de perfis e postagem e pelos algoritmos das plataformas. [2]
Além disso, alguns elementos necessários para a coibição e a remediação dos impactos negativos sobre a oferta e qualidade de produtos e serviços digitais decorrentes da alta concentração de mercado são:
- Para isso, é necessário que as plataformas informem de maneira clara e objetiva os conteúdos oriundos de publicidade, os contratantes e o valor do contrato.
- Ainda, caso seja um conteúdo direcionado, a plataforma deve dar transparência aos critérios e dados utilizados para escolha do usuário-consumidor alvo da publicidade.
[1] GHEDIN, Rodrigo. Comissão Europeia acusa Google de monopólio em publicidade digital. Núcleo Jor, 14 jun. 2023. Disponível em: Acesso em: 12/07/2023.
[2] ARTICLE 19. Taming Big Tech: a pro-competitive solution to protect free expression. Article 19, 2021. Disponível em: Acesso em: 12/07/2023. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:11A atual legislação concorrencial e a aplicação de melhores práticas internacionais criam o equilíbrio ideal entre o combate a práticas anticompetitivas privadas e o incentivo à evolução de setores econômicos, especialmente aqueles altamente inovadores e com crescimento acelerado. A legislação concorrencial permite sua aplicação rigorosa contra essas preocupações, o que se pode verificar em múltiplos casos bem-sucedidos em outras jurisdições, que aderiram às melhores práticas internacionais na aplicação da legislação concorrencial, contra condutas anticompetitivas no setor de publicidade.
- Tarcizio Silva 15/07/2023 às 11:42O negócio de plataformas digitais permite às empresas detentoras influenciar a concentração do mercado, inclusive em indústrias ou setores correlatos onde também atuam. Levantamentos já demonstraram que atores como Google e Amazon utilizam de suas próprias interfaces para priorizar, de forma desleal, produtos e serviços de seus grupos em resultados de busca e diretórios supostamente “neutros”. A transparência tanto sobre algoritmos quanto sobre processos de decisão é necessária para combater a prática, que deve ser prevista nas possibilidades de sanções. Ver mais em "Google’s Top Search Result?" publicada na TheMarkup em 28 Jul. 2020; e a matéria "Amazon prioritizes search results for its own products above competitors" publicada na Insider Intelligence em 18 Out. 2021
- IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:56Como aponta a literatura de organização industrial, mais recente acerca da estruturação de plataformas digitais, estas tendem a desenvolver seus modelos de negócios a partir de mercados de dois lados em que, muitas vezes, a esfera publicitária configura-se enquanto uma das pontas que constitui o mercado intermediado pela plataforma. Ainda que existam distintos modelos de negócios, o financiamento via publicidade é um dos sistemas mais comuns de viabilização financeira para algumas empresas – caso de redes sociais, ferramentas de busca, plataformas de compartilhamento de vídeos e/ou fotos etc.
Ainda assim, a despeito da relevância da oferta de publicidade para o funcionamento de determinadas empresas, é central considerar que – tal como destacado em outras respostas apresentadas pelo IBRAC – a constatação de indícios de concentração econômica em um dado segmento econômico está diretamente associada à definição específica de mercados relevantes. Este processo, por sua vez, pode ser complexo e pouco trivial no caso de mercados altamente dinâmicos e centrados na necessidade de inovação. Neste sentido, pode ser necessário considerar que, em determinados casos, plataformas em segmentos não necessariamente correlatos concorrem umas com as outras pela atenção e tempo do usuário, elemento que eventualmente pode impactar a definição de mercado relevante.
Deste modo, ainda que plataformas digitais se destaquem pela capacidade de customização e personalização da oferta de publicidade, reforça-se a importância da realização de análises aprofundadas em relação à determinação de mercados relevantes. Além disso, é imprescindível avaliar se há rivalidade no mercado geral de atenção que, como colocado, poderia ampliar, em determinados casos, o espaço concorrencial e a competição potencial encontrados pelas empresas de tecnologia e do setor de publicidade. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:25Os riscos envolvendo a concentração econômica na oferta de publicidade estão envolvidos na disponibilidade de um único modelo de negócio de curadoria e promoção de conteúdo. Esses modelos são baseados em publicidade comportamental direcionada, que é impulsionada por meio da perfilização dos usuários. O foco desse modelo é baseado no engajamento, ou seja, os usuários são expostos a conteúdos que provoquem uma interação impulsiva, levando a exposição de conteúdos falsos, de teor extremo e que violem os direitos humanos. A lógica de negócio baseada em expor os usuários a conteúdos que manipulem o seu comportamento em troca de engajamento, além de violar a autodeterminação informacional, promove conteúdo de ódio, fake news, e ameaçam a liberdade de expressão e informação. A regulação de plataformas deve proibir esse tipo de modelo de negócio.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:40A posição dominante que algumas plataformas desfrutam em mercados digitais pode suscitar riscos concorrenciais, na medida em que suas estratégias de mercado podem deturpar o jogo econômico dos demais agentes. Um exemplo notável nesse sentido diz respeito ao caso Google Shopping, ferramenta de classificação de resultados de lojas que vendem determinados itens, a qual tem sido amplamente questionada mundo afora por condutas exclusionárias em relação a outros sites de comparação de preços.
A ferramenta foi objeto ainda em 2010 de procedimento investigativo pela Comissão Europeia, sob a alegação de que o Google, fazendo uso de sua posição dominante, estaria empregando seu mecanismo de busca para alavancar sua posição no mercado de comparação de produtos online, posição esta exercida por meio do Google Shopping. Isto é, fazendo uso de sua ferramenta de busca, amplamente disseminada, o Google estaria dando mais destaque ao seu próprio serviço de comparação de preços, o que seria ilegalmente desfavorável aos agentes concorrentes. Este é o grande risco compreendido pela ABRANET nos casos de mercados de publicidade concentrados: a deturpação da ordem de resultados que se apresenta aos usuários da respectiva plataforma, sem transparência para os mesmos acerca dos critérios que orientaram o estabelecimento dessa ordenação. No contexto da investigação estabelecida pelo órgão europeu, o Google foi condenado em 2017, evidenciando que os riscos concorrenciais decorrentes desse tipo de conduta, acima identificados, não são meramente hipotéticos. Também no Brasil o funcionamento do Google Shopping foi objeto de questionamento, tendo sido submetido ao Conselho Administrativo de Defesa Econômica (“Cade”).
Em território nacional, a deturpação da ordem de resultados apresentados aos usuários de plataformas, por efeitos de publicidade, também deu vazão a outros casos – analisados, inclusive, em sede do Poder Judiciário. Caso que igualmente trata desta problemática diz respeito ao funcionamento da ferramenta Google AdWords. A controvérsia recorrente quanto ao seu uso diz respeito à negociação de palavras-chave, facilmente associáveis a um determinado agente de mercado, para fins de busca patrocinada de seus concorrentes. Neste sentido, ao procurar informações sobre o agente de mercado A, o resultado da ferramenta de busca daria maior destaque à visualização de informações afeitas ao agente de mercado B, que adquiriu os direitos de busca associados à palavra-chave em questão.
A distorção do jogo de mercado que é possível por esse reordenamento dos resultados de busca em serviços de publicidade concentrados chega até mesmo a abarcar marcas registradas, as quais são objeto de proteção legal inconteste. O Superior Tribunal de Justiça tem sido demandado a se pronunciar sobre o uso de marca alheia em links patrocinados para fins publicidade: em 2022, ao analisar pela primeira vez a questão, foi reconhecida a prática de concorrência desleal por parte da empresa anunciante, que empregou marca alheia como palavra-chave para fins de busca patrocinada.
A deturpação de resultados orgânicos de busca agiria, portanto, até mesmo em detrimento de prerrogativas legalmente asseguradas, fruto do esforço do empresário em constituir sua reputação e renome, como acontece com as marcas registradas. Nesse diapasão – e como já reconhecido certa vez pelo STJ, tal qual apontado acima – é grande a possibilidade de que este comportamento dê vazão a atos de concorrência desleal, por meio dos quais outras empresas se beneficiam, pela aquisição de palavras-chave associadas a concorrentes, da reputação construída por essas firmas.
Neste sentido, é considerável o risco, na visão da ABRANET, de que esse desvirtuamento dos resultados orgânicos de busca – magnificado em seus efeitos deletérios pela concentração na oferta de publicidade – gere repercussões indesejadas sobre o mercado e a sociedade como um todo, pelo que pode ser prudente considerar esses riscos na elaboração da regulação de plataformas digitais que ora se discute. - IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 16:56Concentração de oferta de publicidade é uma falsa percepção que não resiste à análise da realidade. O ecossistema de publicidade digital é um dos mais vastos e complexos que existem, com milhares de empresas que participam da cadeia de valor existente entre o anunciante e o veículo: https://lumapartners.com/lumascapes/
O diagrama acima, produzida pela Luma Partners e disponível para consulta online , ajuda a compreender as diversas categorias de empresas diferentes que exercem uma grande variedade de papéis para que a publicidade online seja entregue para o usuário.
Além disso, vale lembrar que a publicidade personalizada possui certas características que a diferenciam da publicidade estática em outros meios e que dificultam a concentração, trazendo benefícios para o consumidor, para anunciantes e para a sociedade em geral:
Da perspectiva do consumidor, a publicidade personalizada:
(i) possibilita sua exposição a marcas, produtos, serviços e causas de seu interesse;
(ii) ajuda na comparação e substituição de produtos e serviços por outros equivalentes, muitas vezes a preços menores ou condições melhores;
(iii) aumenta seu poder de escolha e de barganha, em razão da multiplicidade de ofertas disponíveis;
(iv) economiza tempo e custos de transação, agilizando o processo de busca por produtos e serviços ideais às suas necessidades específicas;
(v) auxilia na aquisição de produtos e serviços de nicho que não são oferecidos localmente e que dificilmente são anunciados para o público de forma geral, ao contrário de bens e serviços para consumo de massa; e
(vi) permite a utilização, de forma gratuita e contínua, de conteúdos, aplicativos e serviços online custeados por publicidade.
Da perspectiva dos anunciantes, a publicidade personalizada:
(i) permite a empresas de qualquer lugar do mundo alcançar consumidores potencialmente interessados em seus produtos e serviços específicos;
(ii) viabiliza que pequenos negócios façam publicidade de modo acessível e a custos baixos, alcançando consumidores que de outra forma dificilmente saberiam da existência de seus produtos ou serviços;
(iii) facilita às marcas criar conexões significativas com grupos de consumidores específicos, gerando confiança, engajamento, reciprocidade e valor; e
(iv) traz melhor retorno sobre o investimento, minimizando a exposição de consumidores a anúncios que não correspondam a seus interesses.
Da perspectiva da sociedade, a publicidade personalizada:
(i) estimula o crescimento econômico, aumentando a eficiência e diminuindo os custos da publicidade e do marketing de modo geral.
(ii) aumenta a competição, permitindo que qualquer anunciante, independentemente de porte ou orçamento, tenha a oportunidade de alcançar consumidores interessados em seus produtos e serviços;
(iii) transforma um comércio ou uma indústria local em um ator econômico internacional, permitindo que milhões de consumidores de todo o mundo conheçam seus produtos e serviços;
(iv) representa em muitos casos a única alternativa para pequenos negócios fazerem publicidade, ante os elevados custos de anunciar em televisão, rádio ou imprensa;
(v) fortalece o jornalismo isento e independente, custeado por anúncios de interesse da audiência, por mais diversas que sejam suas preferências;
(vi) permite que produtos e serviços sejam oferecidos de forma individualizada e personalizada, e não apenas de maneira massificada;
(vii) ajudam organizações não governamentais e governos a divulgar programas sociais, campanhas educativas e conscientizar a população sobre temas importantes, alcançando o público que mais necessite de comunicação sobre políticas públicas e grupos de pessoas mais propensas a se engajar com essas questões e disseminar informações de interesse público;
(viii) viabiliza novos modelos de negócio, como o oferecimento em larga escala de conteúdos, aplicativos e serviços online gratuitos para grupos de consumidores, custeados por publicidade; e
(ix) possibilita que sites e veículos online democratizem a disponibilização de conteúdo, alcançando a maior quantidade possível de pessoas (e não somente quem poderia pagar pelo acesso ao conteúdo), apresentando informações relevantes e personalizadas de acordo com os interesses e preferências de cada indivíduo
Além disso, o fato de existir publicidade nas grandes plataformas digitais não exclui a publicidade em meios tradicionais de comunicação (televisão, jornal, revista e rádio), em conteúdos patrocinados em posts de redes sociais, tampouco em plataformas digitais menores, blogs e até mesmo no conteúdo de e-mails. Esta categoria de publicidade inclusive representa elemento essencial para criadores de conteúdo de forma geral, de influenciadores a canais educacionais.
Dessa forma, o modelo de publicidade que temos hoje é o mais descentralizado possível: onde há atenção do usuário, pode ser exibida publicidade em troca de um serviço gratuito. - Alex Camacho Castilho 06/07/2023 às 13:41Riscos associados à concentração na oferta de publicidade: Plataformas digitais com poder de mercado significativo podem dominar a oferta de espaços publicitários, controlando o acesso e a distribuição de anúncios. Isso pode gerar preocupações sobre a pluralidade e a diversidade na publicidade, bem como a possibilidade de práticas anticompetitivas.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 13:52Como comentado anteriormente, não há alternativas viáveis quanto a isso, a não ser que cada País consiga investir bilhões na construção de sistemas universais, o que logicamente não tem a menor possibilidade.
- Jose Vieira 19/06/2023 às 13:55A publicidade funciona onde tem público.
Com as mídias sociais, mesmo pequenas empresas podem alcançar um publico altamente segmentado, Algo impossível com as outras mídias que são muito caras. Acredito que tentar regular isso vai encarecer e elitizar novamente a oferta de propaganda. - Rodrigo Pereira 25/04/2023 às 19:35Na mesma lógica da questão colocada quanto aos donos dos meios de produção, também há o risco já constatado de impulsionamento maior por parte da parcela que mais pode investir em publicidade de postagens, inclusive tendo o risco de serem os únicos influencers, formadores de opinião coletiva relevante, pela dependência dos consumidores destas via restrita de informação, se estes não tiverem alternativa de fontes diversas, de outros grupos e empresas (inclusive nacionais) que possam ofertar várias outras plataformas de livre concorrência, afim de opinar e propagar opiniões e vias de expressão de pensamento mais diversas..
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:20[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Hoje a maior parte das plataformas digitais em operação no Brasil é de propriedade de corporações de origem estrangeira, sobretudo estadunidense, que obtêm, com isso, lucros bilionários. Isso gera, em primeiro lugar, um problema de soberania. Há um desequilíbrio decorrente desse poder econômico, que se apresenta também na forma de poder político. Além disso, deve-se considerar que essas plataformas se apropriam da riqueza produzida em outros setores, ao passo que não reinvestem a riqueza que obtêm no país, gerando mais um desequilíbrio. O modelo de tributação também favorece a busca, pelas plataformas, da exploração do trabalho em países e regiões com menor garantia de direitos trabalhistas.
Por fim, há que se considerar de antemão o que seria um modelo “adequado às especificidades” de tais modelos de negócio. Restringir tributações considerando apenas aquelas que não impactam em demasiado em tais modelos inverte o que deveria ser prioritário em qualquer processo regulatório, que é o interesse público. O debate sobre tributação das plataformas digitais pela utilização de conteúdos jornalísticos ou pelo uso de da infraestrutura de serviços de telecomunicações são dois exemplos dessa discussão.
- Rafael Evangelista 16/07/2023 às 15:01a opacidade dos modelos de negócio das plataformas (e de seus ganhos por atividade específica) impede que haja um sistema de tributação adequado também considerando externalidades negativas de cada operação, que precisam ser taxadas
- Tarcizio Silva 15/07/2023 às 11:44É necessário avaliar a possibilidade de tributação diferenciada levando em conta características e dimensões das plataformas, como tipos de negócio, se fazem parte de grupo de big tech, país de origem e dominância no mercado. Tributação especial para pequenos e médios players, especialmente nacionais, é uma possibilidade de fomento que se prova justa considerando as vantagens desproporcionais das grandes plataformas.
- IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:56O IBRAC considera que a discussão sobre o modelo de tributação adequado ao modelo de negócio das plataformas digitais deve ser feita em um ambiente específico, de forma apartada às discussões a respeito da modelagem regulatória apresentada na presente consulta. De toda forma, o IBRAC entende que essa discussão deve considerar um modelo tributário que não iniba ou impossibilite a inovação tecnológica.
- CCOM- UnB (comentário inserido por: Murilo César Ramos) 12/07/2023 às 15:10Este e todos os acima.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:41A ABRANET entende que discussão a respeito de possíveis riscos associados à ausência de modelo de tributação adequado às especificidades dos modelos de negócios das plataformas digitais deve ser feita de forma apartada, considerando um modelo que não iniba ou impossibilite a inovação tecnológica.
As proposições legislativas que tramitam no Congresso Nacional sobre o tema, especialmente aquelas ligadas à instituição de um CIDE-digital, têm sido orientadas muito mais por um desejo de tributar e de reduzir as supostas “assimetrias tributárias” em relação a telecomunicações, por exemplo. Por causa disso, os debates não têm sido direcionados pelas especificidades dos serviços e produtos digitais, bem como a inerente diferenciação entre tais serviços e empresas de telecomunicações, que enseja regime tributário diverso. Essas são considerações que a ABRANET entende importantes para pautar o debate sobre modelo de tributação das plataformas digitais, o qual, repise-se, deve ser específico e discutido em espaço propício, apartado de discussões mais gerais de modelagem regulatória, como as que aqui se apresentam. - IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 16:58O modelo de tributação já existe: cada plataforma é tributada conforme seu modelo de negócio (por exemplo, há cobrança de ISS na publicidade e na prestação de serviços em nuvem). Alterações substanciais na carga tributária do setor podem tornar a publicidade personalizada inviável para pequenos players e para anunciantes de mercados diversos, aumentando o custo geral para toda a cadeia de valor, com o consequente repasse aos anunciantes.
Qualquer aumento de custos na prestação dos serviços das plataformas representará aumento de barreiras de entrada de novos players em diversos mercados, já que a publicidade personalizada digital tem uma abrangência muito ampla. - Alex Camacho Castilho 06/07/2023 às 13:43Riscos associados à ausência de modelo de tributação adequado: A ausência de um modelo de tributação adequado às especificidades dos modelos de negócio das plataformas digitais pode resultar em perdas de receita para os governos e desequilíbrios no mercado. É necessário estabelecer um sistema tributário justo e eficiente, que considere as características únicas das atividades das plataformas digitais, inclusive permitindo a empregabilidade da população dado a concorrência livre e justa.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 13:55O modelo tributário deve abarcar a cobrança pelo serviço, que é até mais simples de mensurar. Ora, a plataforma digital geralmente cobra por CPC - Custo Por Clique, nada mais justo que no faturamento sejam tributados os serviços. Há claramente milhares de outras forma de fazê-lo e outras tantas de tributação, mas iniciar pelo simples é uma alternativa considerável.
- Jose Vieira 19/06/2023 às 13:57Acredito que a tipificação já exista pois propaganda, marketing, venda consignada. Sejam praticas que já existem a muito tempo. Já há tributação suficiente no objetivo fim quando se trata de comércio.
- Leonardo Tavares de Almeida 04/05/2023 às 08:43Isso precisa urgentemente ser sim considerado enquanto o segmento não for devidamente tipificado pela legislação tributária
- Rodrigo Pereira 25/04/2023 às 19:36A questão tributária já é um problema de justiça bem amplo, então certamente também haverá risco neste sentido.
- Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:26Conforme declarado anteriormente, amplas ferramentas ex post de aplicação antitruste já estão disponíveis no Brasil para tratar de preocupações antitruste nos mercados digitais. Como os mercados digitais são caracterizados pela rápida inovação, o Brasil não deve se esforçar para regular o comportamento futuro por meio de regras ex ante, a menos que tenha sido determinado que o regime ex post antitruste existente não é adequado para o propósito. Considerando a natureza complexa do ambiente digital, as jurisdições também devem avaliar cuidadosamente as possíveis consequências não intencionais de estruturas ex ante. Por design, a legislação ex ante é projetada para evitar danos potenciais, que podem sufocar a inovação e o crescimento econômico. Atualmente, não há consenso global sobre a necessidade de regulações ex ante, e nenhum modelo ou estrutura surgiu como a opção preferencial, embora, conforme declarado acima, seja muito cedo para determinar os impactos da regulação ex ante (DMA) da Europa.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:09Conforme declarado acima, as amplas ferramentas antitruste já disponíveis no Brasil são suficientes para lidar com as questões antitruste nos chamados mercados digitais. Como os mercados digitais são caracterizados por inovação rápida e interrupções frequentes do mercado, é difícil (e muitas vezes ineficaz) tentar prever e regular o comportamento futuro por meio de regras ex ante.
Dada essa dinâmica, as jurisdições que estão considerando estruturas ex ante para mercados digitais devem considerar a necessidade de evitar consequências não intencionais. A legislação ex ante, por definição, não remedeia danos reais. Em vez disso, é projetado para evitar danos potenciais. Tais suposições tendem a frear a inovação e o crescimento.
No geral, não há consenso global sobre a necessidade de regulamentações ex ante e não há convergência para um modelo ou estrutura em particular. Muitos acadêmicos e especialistas renomados expressaram preocupação sobre a direção representada pela regulamentação ex-ante na Europa.
Também existem vários países, como Estados Unidos, Cingapura e Taiwan, que consideraram estruturas ex ante e decidiram – pelo menos por enquanto – que nenhuma regulamentação ex ante é necessária. - José Antonio Galhardo 16/07/2023 às 10:41Riscos relacionados ao direito autoral e de propriedade intelectual em plataformas que utilizem ou permitam a divulgação de conteúdo gerado por modelos de IA generativa.
A plataforma deve ser responsável solidária, cabendo-lhe direito de regresso contra quem deu causa, caso o conteúdo não indique de forma transparente ser resultado de tal modelo, contendo o alerta que pode conter erros. - Rodolfo Salema 16/07/2023 às 10:05Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
A OCDE publicou em 2021 um relatório nomeado “Competition issues concerning news media and digital platforms” no qual menciona os incentivos ou desincentivos estruturais relacionados à qualidade das notícias como um valor que deve ser preservado nas sociedades democráticas, bem como que o jornalismo de interesse público pode enfrentar preocupações de subprovisão devido a falhas de mercado, o que seria agravado por algumas plataformas digitais.
Portanto, os publishers de notícias mereceriam uma proteção especial em comparação com outros produtores de conteúdo online. Neste relatório, a principal questão concorrencial é que o valor do conteúdo de notícias é prejudicado pelo poder de mercado das plataformas digitais financiadas por anúncios online. Plataformas digitais e publishers de notícias competiriam diretamente pela atenção do usuário e pela receita de publicidade – assim, as decisões e enforcement nos casos relacionados a publicidade digital visam reequilibrar a capacidade dos publishers de notícias de monetizar o conteúdo, pelo menos em seus próprios sites e aplicativos. O relatório também alerta que as iniciativas regulatórias nos mercados digitais podem contribuir para reequilibrar as relações dos meios de comunicação com as plataformas digitais, aumentando a transparência na publicidade digital, nos algoritmos e nas questões de dados dos usuários. Por fim, afirma que abordar problemas concorrenciais no setor pode contribuir inclusive para combater a disseminação de desinformação, melhorar a qualidade e precisão do conteúdo das notícias
– com benefícios repassados aos consumidores e à sociedade em geral (OECD Competition Comitte – Competition Issues concerning News Media and Digital Platforms, 2021).
A Investigação sobre concorrência nos mercados Digitais, elaborada pelo subcomitê de Direito Antitruste, Comercial e Administrativo da Câmara dos Deputados dos Estados Unidos em 2020 vai no mesmo sentido, afirmando que uma imprensa livre e diversa é essencial para a democracia e os jornais vêm enfrentando dificuldades de financiamento. As grandes plataformas digitais e o poder de mercado gerido por estas companhias teria contribuído para o declínio das fontes confiáveis de notícias (US House of Representatives. Investigation of competition in Digital Markets, 2020, pp. 57 e ss).
O Canadá aprovou recentemente uma lei que regula as plataformas digitais que fazem uso de notícias digitais com o objetivo de aumentar a justiça no mercado canadense e contribuir para sua sustentabilidade, incluindo a dos publishers, tanto no setor sem fins lucrativos quanto no setor com fins lucrativos, incluindo as empresas jornalísticas locais independentes.
Trata-se de medida para a valorização do jornalismo profissional nacional, regional, local e independente. A remuneração dos conteúdos jornalísticos se justifica não apenas pelo uso e monetização dos conteúdos sem a devida contrapartida pelas plataformas, mas pela relevância desta atividade para o combate à desinformação e para a democracia. França e Austrália já adotam a valorização e o reconhecimento do pagamento aos autores dos conteúdos de imprensa, além do Canadá e Reino Unido que também caminham nesse sentido também. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:18Risco: a arbitrariedade na definição de Termos de Uso e a invisibilização da realidade de utilização de plataformas pelas múltiplas infâncias do Sul Global
(...) as grandes plataformas que congregam a população mundial, como Facebook e YouTube, cada uma com mais de 2 bilhões de usuários, possuem termos e políticas de uso que desconsideram as crianças com menos de 13 anos entre seus usuários. Também outras plataformas, como TikTok, sucesso absoluto entre crianças, alardeiam publicamente não ser adequada para menores de 13 anos. Almejam, com isso, acentuar a invisibilização das milhares de crianças com menos de 13 anos que, concreta e efetivamente, usufruem seus serviços, retirando-lhes sua voz e a possibilidade de serem escutadas em relação à efetiva adequação de seus serviços para essas faixas etárias.Simplesmente negam-se a assumir o óbvio e notório: crianças estão navegando à deriva e sem proteção em suas plataformas. Essa invisibilização é consequência do fato de que as experiências das crianças no ambiente digital são comumente exploradas para propósitos comerciais, orientados pelos anseios econômicos advindos da intensa datificação, nessa nova economia de dados. Sob o pretexto de cumprirem as diversas proibições legais de coleta e tratamento de dados de crianças com menos de 13 anos, sem expresso consentimento parental ou sem observar o melhor interesse da criança, as grandes empresas de tecnologia acabam por, formalmente, desconsiderar o dado fático de que crianças dessa faixa etária estão entre os usuários de seus serviços e produtos. Ao negarem tal fato, no contexto de big data, estatísticas e algoritmos computacionais que têm condicionado a vida das pessoas – e muitas vezes ferido suas liberdades individuais –, acabam por permitir e, até mesmo fomentar, que crianças invisibilizadas estejam sujeitas à predição comportamental, que resultam no imoral, antiético e mesmo ilegal direcionamento de publicidade comportamental a pessoas com menos de 13 anos, em franca exploração comercial infantil.
Fonte: Artigo “As múltiplas infâncias e a invisibilidade da criança”, de Isabella Henriques, Marina Meira e Pedro Hartung, no livro O Futuro da Infância no Mundo Digital, p. 237. Link: https://criancaeconsumo.org.br/wp-content/uploads/2021/11/o-futuro-da-infancia-no-mundo-digital-ensaios-sobre-liberdade-seguranca-e-privacidade.pdf
Ressaltamos, ainda, que segundo o Unicef, 1/3 dos usuários de Internet no mundo são crianças e adolescentes. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:12Como já esclarecido, as diversas ferramentas do Direito Concorrencial brasileiro são suficientes para lidar com as preocupações antitruste nos mercados digitais. Como os então chamados “mercados digitais” são caracterizados por inovação rápida e frequentes disrupções, é difícil, e muitas vezes ineficaz, tentar prever e regular o comportamento futuro por meio de regras ex ante.
Dada essa dinâmica, as jurisdições que estão considerando propostas ex ante para os mercados digitais devem considerar a necessidade de se evitar consequências não intencionais. A legislação ex ante, na sua concepção, não corrige danos reais, pelo contrário, destina-se a prevenir danos potenciais, o que levanta algumas preocupações considerando que tais suposições têm uma tendência a impedir a inovação e o crescimento.
Em geral, não há consenso global sobre se são necessárias regulamentações ex ante e não há convergência para um modelo ou estrutura particular. Muitos acadêmicos e especialistas renomados manifestaram preocupações sobre a orientação representada pela regulação ex ante na Europa.
Há também vários países como os Estados Unidos, Cingapura e Taiwan, que consideraram modelos de regulação ex ante e decidiram, pelo menos por enquanto, que não são necessários. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:26A concentração do poder econômico e político das plataformas digitais em poucos agentes afeta diretamente a liberdade de expressão. Isso ocorre em razão do modelo de negócios de hospedagem e curadoria de conteúdo das plataformas digitais. O modelo de negócios é pautado na perfilização, coleta de dados, publicidade comportamental, com enfoque no engajamento do conteúdo ali apresentado. Consequentemente, a curadoria de conteúdo tem como base a promoção desses tipos de informação em prol do aumento do engajamento dos usuários para que haja um maior consumo do serviço ali apresentado. Nessa dinâmica, são apresentados feeds que promovam o engajamento dos usuários, ainda que haja violação de direitos, promoção de discursos de ódio e desinformação em troca de atenção e engajamento dos usuários. A regulação proposta deve empoderar os usuários ao invés de retirar o poder, desnaturando a característica inicial da internet como um espaço aberto e horizontal de ideias. Para isso, a proposição da desagregação entre os serviços de curadoria e hospedagem de conteúdo das plataformas alinhadas a interoperabilidade permite que os usuários escolham quais os conteúdos serão dispostos nos seus feeds.
- Kenzo Soares Seto 14/07/2023 às 16:24A mitigação da concentração de dados públicos e de serviços digitais para órgãos públicos por plataformas estrangeiras privadas, pode ocorrer por uma política de efetivo desenvolvimento de plataformas públicas e privadas, com o respectivo investimento em infraestrutura e capacidade computacional necessário, no espírito do Decreto n° 8135/201:
"as comunicações de dados da administração pública federal direta, autárquica e fundacional deverão ser realizadas por redes de telecomunicações e serviços de tecnologia da informação fornecidos por órgãos ou entidades da administração pública federal, incluindo empresas públicas" (BRASIL, 2013).
Desse modo pode-se ter uma política de desenvolver a capacidade brasileira de Inteligência Artificial e economia de plataformas sem cair necessariamente em uma retomada da política de "campeões nacionais" dessa vez voltada para plataformas digitais, que muitas vezes mesmo que nacionais reproduzem relações de precarização do trabalho e desrespeito sistemático aos direitos do consumidor além de abuso de posição dominante em seus respectivos mercados - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 16:12A proibição do zero rating pode ser uma medida de mitigação deste risco.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:43No melhor entendimento da ABRANET, uma futura regulamentação das plataformas digitais deve possuir uma inteligência de compreender os fenômenos dos mercados digitais de uma forma abrangente, sendo sensível a temas e riscos que influenciam direta e indiretamente na concorrência e na concentração destes mercados.
Nessa lógica, identifica-se um risco concorrencial que não fora previsto nesta consulta, qual seja, o da dificuldade no cumprimento de decisões judiciais e administrativas por agentes que possuam sede fora do Brasil e cujos dados tratados sejam armazenados exclusivamente no exterior.
Sabe-se que existem dificuldades técnicas e financeiras consideráveis neste tipo de operação, sendo estas arguidas até mesmo pelos maiores players do mercado digital. Invertendo a óptica para os agentes de pequeno e médio porte que possuem sede no exterior, é preciso que sejam observadas as peculiaridades e faculdades objetivas destes que – ao contrário das Big Techs – possuem pouca ou quase nenhuma condição material de corresponderem às expectativas postas pelas autoridades que emitirem as decisões.
Dessa forma, interpreta-se que há riscos concorrenciais em se atribuir – em uma situação em que se verificam concretamente dificuldades elevadas – um ônus indiscriminado a agentes cujas capacidades são distintas. Em outras palavras, o risco recai sobre o fato de que haverá a imposição de um ônus virtualmente insuportável aos agentes de pequeno porte em razão de uma alça regulatória focalizada nas grandes empresas.
Por isso, os efeitos adversos dessa obrigação indiscriminada são facilmente observáveis: os agentes de grande porte, que detém a capacidade técnica e financeira para cumprir com as decisões, serão beneficiados por essa “equalização das condições”. Os agentes de pequeno porte, por sua vez, serão prejudicados, visto que às barreiras impostas nos mercados em que atuam serão agravadas, tornando-se praticamente intransponíveis - o que, por conseguinte, acarretará uma concentração maior dos mercados.
A medida de mitigação sugerida para endereçar esse novo risco consiste na contemplação dessa questão em um regime regulatório assimétrico, na qual os grandes agentes, em razão de sua capacidade, suportarão um ônus maior – nos termos da lei – e os agentes menores serão contemplados com um regime mais flexível de forma a respeitar suas condições materiais no cumprimento destas decisões. - Alex Camacho Castilho 06/07/2023 às 13:501. Riscos de discriminação e exclusão: As plataformas digitais podem apresentar riscos de discriminação, seja por critérios como raça, gênero, origem étnica ou orientação sexual, seja por meio de práticas algorítmicas que exacerbem desigualdades. Medidas de mitigação podem incluir a transparência dos algoritmos, auditorias de viés algorítmico, aprimoramento da diversidade e inclusão na equipe de desenvolvimento dos algoritmos, e implementação de salvaguardas para evitar discriminação e exclusão injusta.
2. Riscos relacionados à falta de transparência e prestação de contas: Plataformas digitais podem apresentar opacidade em suas práticas, como algoritmos secretos, dificuldade de compreensão dos termos de serviço e falta de transparência na moderação de conteúdo. Para mitigar esses riscos, é importante estabelecer regulamentações que exijam maior transparência sobre o funcionamento dos algoritmos, informações claras sobre as políticas de moderação de conteúdo e relatórios de impacto social e econômico das plataformas.
3. Riscos de dependência e vulnerabilidade: Plataformas digitais dominantes podem criar dependência e vulnerabilidade para usuários e empresas que dependem delas para acessar mercados ou oferecer produtos e serviços. Medidas de mitigação podem incluir a promoção da interoperabilidade entre plataformas, a garantia de portabilidade de dados e a promoção de alternativas viáveis para evitar a dependência excessiva de uma única plataforma.
4. Riscos de precarização do trabalho: Algumas plataformas digitais podem apresentar riscos de precarização do trabalho, com condições inadequadas, baixos salários e falta de proteção social para os trabalhadores. Medidas de mitigação podem envolver a regulamentação dos direitos trabalhistas e a garantia de uma remuneração justa, além da promoção de negociação coletiva e proteção social para trabalhadores independentes.
5. Riscos de privacidade e segurança dos dados: Além da concentração de dados, os riscos relacionados à privacidade e à segurança dos dados também são relevantes. Medidas de mitigação podem incluir a implementação de regulamentações de proteção de dados sólidas, a promoção de práticas de segurança cibernética adequadas e o fortalecimento dos direitos dos usuários sobre seus dados, como o consentimento informado e a portabilidade de dados.
6. Riscos relacionados à desinformação e manipulação: As plataformas digitais podem ser usadas como veículos para a disseminação de desinformação, notícias falsas e manipulação de opinião pública. Medidas de mitigação podem incluir a implementação de políticas de combate à desinformação, a promoção da educação digital e a cooperação entre plataformas, governos e sociedade civil para identificar mitigar a disseminação de conteúdo enganoso.
7. Riscos de assimetria de poder nas negociações: Plataformas digitais dominantes podem exercer poder de negociação desproporcional em relação a fornecedores e parceiros comerciais, resultando em condições desfavoráveis para essas partes. Medidas de mitigação podem incluir regulamentações que garantam negociações justas e transparentes, evitando práticas anticompetitivas, além da promoção de associações e cooperativas que fortaleçam o poder de negociação dos fornecedores.
8. Riscos de falta de interoperabilidade e portabilidade de dados: A falta de interoperabilidade e portabilidade de dados pode dificultar a transição entre diferentes plataformas e limitar a escolha dos usuários. Medidas de mitigação podem incluir a exigência de padrões abertos, facilitando a interoperabilidade, e a garantia de que os usuários possam mover seus dados de uma plataforma para outra de maneira fácil e segura.
9. Riscos relacionados à infraestrutura crítica: Em alguns casos, certas plataformas digitais podem se tornar infraestruturas críticas, essenciais para o funcionamento de setores inteiros da economia. Nesses casos, medidas de mitigação podem incluir regulamentações específicas que garantam a estabilidade, a segurança e a acessibilidade dessas infraestruturas críticas.
10. Riscos de barreiras à entrada e inovação: A concentração de mercado por algumas plataformas pode criar barreiras à entrada para novos concorrentes e inibição da inovação. Medidas de mitigação podem incluir a promoção de políticas de concorrência que evitem práticas anticompetitivas, o estímulo à diversidade de modelos de negócio e a criação de ambientes favoráveis à inovação e ao empreendedorismo.Jorge Machado 09/07/2023 às 17:04Excelente, bastante completo e abrangente - embora alguns riscos estejam de alguma forma contidos em outros itens.. Apoiando essa lista, acho que o risco 4 previsa ser melhor definido. E o risco 6 poderia ter ainda, como uma das medidas de mitigação, a avaliação rápida de denúncias com intervenção humana para o caso de denúncias e prever colaboração ágil com as autoridades (bloqueio de contas e fornecimento dos dados do/da responsável).
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 13:58A plataforma digital é um meio, pagou mais apareceu mais. Isso não carece de regulação, como explicado anteriormente: se uma empresa pode anunciar em uma grande emissora, logicamente seu público será maior e seu custo proporcional.
Quanto a concentração de dados, também já mencionado anteriormente, devido às características descentralizadas da própria internet, esta concentração é inevitável, qualquer empresa ou plataforma digital pode coletar os dados de quem navega, sejam estas empresas provedoras de acesso, o próprio governo ou uma plataforma digital. - Jose Vieira 19/06/2023 às 13:59Acredito que liberdade plena seja o melhor regulador de concorrência.
Qualquer desenvolvedor pode nesse momento estar criando a próxima plataforma de grande influencia nos próximos anos, isso graças a liberdade. - Leonardo Tavares de Almeida 04/05/2023 às 08:43As mesmas que temos contra o estabelecimento de monopólios em outros segmentos do mercado
- Rodrigo Pereira 25/04/2023 às 19:42É preciso manter os mercados e editais de inovação para empresas e grupos da sociedade civil organizada que ofereçam serviços e plataformas alternativas abertos! Se todo investimento for para prestigiar possíveis monopólios de poucos estamos tratando do interesse e do dinheiro público de forma indevida.
- Filipe Saraiva 16/07/2023 às 21:44Adicionaria também a garantia de que os dados não sejam utilizados para processamento de modelos de aprendizado de máquina, ou que essa possibilidade esteja explícita nos termos de uso, e também a garantia de que a implementação da regra do Marco Civil que garante o apagamento completo de informações pessoais das bases de dados das redes.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 14:01As plataformas digitais tem seu "ouro" nos dados coletados diariamente, neste sentido, não há benefício financeiro nenhum para o usuário que acessa e acaba concordando com os termos de serviços e provendo dados para as empresas. Deveria sim haver alguma espécie de compensação.
- Rodrigo Pereira 25/04/2023 às 19:45Os dados devem ser privatizados, privados dos usuários como sempre fora. Se for o caso, negociado com as plataformas como serão geridos e assim vendidos e não usados sem transparência. Se para ter direito a uma verificação de selo azul é preciso pagar para dar os dados e documentos para donos de redes sociais, porque o usuário nunca pode ser beneficiado?
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:20[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Estabelecer regras de interoperabilidade de dados - pessoais ou não - pode ser uma medida de mitigação de risco de concentração no tratamento desses dados e sobre a infraestrutura crítica. O estabelecimento de regras para interoperabilidade de dados passa por também instituir processos de definição dos padrões técnicos dessa interoperabilidade, que não podem ser padrões proprietários e devem assegurar ampla acessibilidade pelos(as) titulares dos dados, pessoais ou não. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:27A interoperabilidade é uma questão complexa que pode significar coisas diferentes em vários produtos e serviços. De maneira geral, o Information Technology Industry Council (ITI) defende um ecossistema digital interoperável que permite a inovação, aprimora a experiência do usuário e preserva a privacidade, a segurança e a integridade dos ecossistemas digitais. Qualquer regulação proposta sobre interoperabilidade deve garantir flexibilidade em diferentes casos de uso e não deve ser prescritiva.
- EFF (comentário inserido por: Electronic Frontier Foundation) 16/07/2023 às 22:11Acreditamos que as obrigações de interoperabilidade são uma ferramenta importante para fomentar a concorrência entre plataformas digitais, facilitar o surgimento de novos atores e modelos alternativos e colocar os direitos de usuárias e usuários das plataformas à autodeterminação informativa em primeiro plano, permitindo que tenham mais escolhas. Porém, a EFF considera que a interoperabilidade deve vir acompanhada de robustas proteções à privacidade, à proteção de dados e à segurança. O foco do que vimos trabalhando e desenvolvendo é a interoperabilidade para que interfaces de diferentes plataformas possam se comunicar, ou seja, a capacidade de fazer com que um produto ou serviço de um provedor dominante funcione com um produto ou serviço de provedores concorrentes. Porém, nossa abordagem estabelece barreiras à exploração comercial dos dados de usuários obtidos a partir desta interoperabilidade. O foco na interoperabilidade de dados é distinto e pode ser preocupante a depender de como se estabeleça. Ao mesmo tempo, e retornando a nossa abordagem, é fundamental identificar os tipos de plataformas que oferecem condições mais favoráveis em termos de usabilidade e segurança para o estabelecimento de obrigações legais voltadas à implementação de interfaces de interoperabilidade. Em um primeiro momento, as aplicações mais tradicionais de redes sociais nos parecem mais indicadas a isso do que aplicações de mensageria privada, por exemplo. Tratamos mais sobre nossa abordagem acerca de interfaces de interoperabilidade em resposta à questão 10.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:51Sim, é preciso definir as regras de interoperabilidade de dados, garantindo, principalmente, a proteção dos dados dos usuários e a autonomia informada dos cidadãos na definição dos usos dos seus dados. De forma subsidiária, ao ser produzida a separação das empresas na oferta dos serviços, é preciso pensar em regras específicas desta interoperabilidade para garantir a continuidade do serviço, sem o que o usuário seja prejudicado.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 17:45É importante detalhar como e que dados são capturados. Por exemplo, definir com transparência o que são "identificadores" que muitas vezes são descritos como dados usados para rastrear as pessoas. E seria interessante que houvessem mecanismos dentro das plataformas que mostrassem o que são, de maneira bastante prática, e que ao mesmo tempo possibilitassem escolhas sobre sua gerência e compartilhamento entre plataformas e seus parceiros.
- Rafael Evangelista 16/07/2023 às 15:02os dados (e conteúdos) produzidos por usuários das plataformas precisam ser obrigatoriamente interoperáveis com o restante da web, a não ser que um contrato comercial de produção de conteúdo seja estabelecido entre a plataforma e o criador. Os usuários devem ter também o direito a exportarem todos os seus dados para armazenamento local
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:09O termo “interoperabilidade” é amplo e não definido, podendo consistir em uma gama de significados, desde acesso limitado por um determinado produto ou serviço, até a integração completa em um eixo/estrutura baseada em dados já existentes. O uso do termo “interoperabilidade” em um modelo regulatório pode levar a dificuldades substanciais em sua aplicação e monitoramento, assim como gerar riscos à segurança de dados e à moderação de conteúdo caso a regulação demande conformidade absoluta.
A interoperabilidade é um conceito complexo e multidimensional que pode significar muitas coisas diferentes em diferentes camadas, serviços e casos de uso. A ALAI oferece suporte a um ecossistema digital interoperável que permite inovação, aprimora a experiência do usuário e preserva a privacidade, segurança e integridade em sistemas digitais.
Uma empresa não pode garantir que os dados estejam protegidos/protegidos contra uso indevido e outras ameaças de segurança quando os dados podem ser movidos livremente para servidores e sistemas que não controlam ou que não aplicam os mesmos níveis/padrões de privacidade, segurança e integridade.
Dependendo de como é enquadrado, os regulamentos de interoperabilidade podem comprometer a implantação da criptografia de ponta a ponta. A regulamentação não deve forçar uma empresa a comprometer sua capacidade de adotar medidas que garantam a integridade e melhorem a experiência do usuário. Não deve prescrever como construir a interoperabilidade para evitar o risco de padrões desatualizados, injustos, desinformados, inflexíveis e punitivos. A regulamentação deve garantir flexibilidade em diferentes contextos e casos de uso, para permitir que os custos da interoperabilidade sejam equilibrados com os objetivos políticos que estão sendo perseguidos por uma determinada política. A regulamentação também deve estabelecer regras claras de responsabilidade para as partes envolvidas. A regulamentação deve equilibrar a interoperabilidade com privacidade, segurança e integridade.
Em relação às regras sobre compartilhamento de dados, interoperabilidade, política de compartilhamento de dados para fins acadêmicos: a regulação de plataformas não deve contrariar o que já está estabelecido na LGPD. Considerando que a lei é nova, a autoridade ainda está se estruturando e estabelecendo entendimentos, seria muito prematuro uma nova regulação dar tratamentos especiais ou diferentes. - Rodolfo Salema 16/07/2023 às 10:05Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
É reconhecido que a coleta, processamento e agregação de grandes quantidades de dados pelas gigantes plataformas digitais, big techs, podem ajudar no desenvolvimento e implementação de novas funcionalidades ou serviços, com aspectos positivos, como conveniência e facilidade de uso para os usuários. No entanto, isso também reforça ou protege a posição dominante dessas empresas nos mercados em que atuam, aumentando as barreiras à entrada de novos concorrentes.
Considerando os efeitos econômicos dessa agregação massiva de dados, como os efeitos de rede e as externalidades de uso e afiliação, fica claro que o fortalecimento das grandes plataformas ocorre às custas da não contestabilidade desses mercados por agentes menores, que podem ser tão ou mais benéficos e valiosos para os usuários em seus segmentos específicos.
Para os usuários, os altos custos de mudança desencorajam a consideração de outros serviços ou plataformas além das dominantes. Com a grande quantidade de dados fornecidos e a implementação de modelos de negócios que se alimentam desses dados, é praticamente impossível para novos entrantes alcançarem a massa crítica necessária para serem atraentes ou mesmo sobreviverem nos mercados de plataformas digitais. Isso resulta na formação de monopólios que controlam o fluxo de informações e serviços digitais, prejudicando a concorrência.
Por outro lado, estabelecendo obrigações que garantam a interoperabilidade desses serviços digitais, como a portabilidade desses dados, é possível reduzir os custos de mudança e permitir que o usuário experimente outros serviços digitais com o mínimo incômodo possível.
Portanto, é importante pensar nas obrigações de interoperabilidade de forma assimétrica, estabelecendo-as como uma obrigação para as grandes plataformas (com participação significativa no mercado e alta volumetria de usuários) e facultando-as como uma boa prática para os demais agentes.
Inspirado pelo Digital Markets Act, é possível pensar em modelos de obrigações que permitam a portabilidade em tempo real por meio de APIs implementadas pelos agentes privados regulados e supervisionados pelas autoridades competentes.
Note-se, por fim, que, em que pese existirem previsões especificas relativas a interoperabilidade no âmbito da Lei Geral de Proteção de Dados, a cargo da Autoridade Nacional de Proteção de Dados – ANPD, não há conflito ou sobreposição em se tratando de regulação voltada a disciplinar a matéria exclusivamente para as big techs, sendo novamente um subterfúgio para se evitar regulação cujo principal vetor não será a privacidade, mas sim a promoção da livre concorrência e limitação aos monopólios. - Tarcizio Silva 15/07/2023 às 18:50Sim, a definição de regras de interoperabilidade é desejável se centrada nos usuários e sua autonomia para mover dados, recursos, conteúdos, listas e redes para os aplicativos e plataformas que desejar, sem custos - de trabalho ou financeiros - para migração.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:30Sim. A interoperabilidade de dados é um remédio importante para (i) viabilizar o surgimento de modelos de negócio alternativos e, consequentemente, (ii) garantir o direito à escolha por parte de consumidores.
Entretanto, ALGUNS ELEMENTOS DEVEM SER CONSIDERADOS JUNTO À INTEROPERABILIDADE
- a priorização de protocolos abertos, para que não se crie mais um padrão excludente e concentrado;
- a proteção de dados dos consumidores - ou seja, a promoção da concorrência e o empoderamento do titular de dados não deve ocorrer em contraposição à sua proteção;
- igualmente, que isso ocorra de maneira a proteger os dados pessoais, em respeito à LGPD;
Ou seja, deve haver um necessário balanço entre a utilização da interoperabilidade para promoção da concorrência sem deixar de proteger a proteção de dados pessoais e o direito de consumidores.
Além disso, ressalta-se que a INTEROPERABILIDADE PODE OCORRER DE DIVERSAS MANEIRAS:
- para o cumprimento de legislações já existentes (como a determinação do art. 25 da LGPD para tratamento de dados pessoais pelo poder público);
- por iniciativa própria das plataformas, respeitadas as legislações vigentes;
- enquanto condicionante para a aprovação de um ato de concentração (a "compra" de uma empresa), de modo a não impedir a competição;
- enquanto remédio concorrencial em caso de condenação por abuso de posição dominante;
- enquanto termo de um acordo para cessação de uma conduta anticompetitiva;
- por imposição regulatória para plataformas digitais, como feito pelo DMA;
DIFERENCIAÇÃO ENTRE PORTABILIDADE E INTEROPERABILIDADE
Além disso, é necessário diferenciar a interoperabilidade e a portabilidade de dados. A segunda depende da primeira, ou seja, para que os consumidores possam portar seus dados entre diferentes plataformas, é necessário que os sistemas sejam interoperáveis.
A portabilidade é um direito dos consumidores, previsto no art. 18, inciso V da LGPD. Porém, ainda é pouco instrumentalizado, pois os sistemas não são interoperáveis entre si. É necessário definir regras que garantam o direito à interoperabilidade, para melhor equilibrar a concorrência entre plataformas e privilegiar as escolhas dos consumidores. Serviços de mensageria, por serem altamente concentrados e essenciais para comunicações, devem estar entre as prioridades de interoperabilidade.
A interoperabilidade possibilita que consumidores utilizem a plataforma que melhor se adequa a seus interesses sem que sejam excluídos do contato com outros consumidores. O principal exemplo nesse sentido é o e-mail, no qual os consumidores podem escolher a plataforma que satisfaz seus interesses e continuar dialogando com outras plataformas e consumidores. Ou seja, já temos exemplos existentes que mostram a viabilidade desses instrumentos. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:15O termo “interoperabilidade” é amplo e não definido, podendo consistir em uma gama de significados, desde acesso limitado por um determinado produto ou serviço, até a integração completa em um eixo/estrutura baseada em dados já existentes. Trata-se, portanto, de um conceito complexo e multidimensional que pode significar muitas coisas diversas em diferentes níveis e serviços. Por isso, o uso desse termo em um modelo regulatório pode levar a dificuldades substanciais em sua aplicação e monitoramento, assim como gerar riscos à segurança de dados e à moderação de conteúdo caso a regulação demande conformidade absoluta (vide abaixo).
A Camara-e.net apoia um ambiente digital interoperável que permita inovação, melhore a experiência do usuário e preserve a privacidade, a segurança e a integridade dos sistemas digitais. Contudo, uma empresa não pode garantir que os dados sejam protegidos contra uso indevido e outras ameaças de segurança quando os dados são livres para mudar para servidores e sistemas que a empresa não controla ou que não aplicam os mesmos níveis/padrões de privacidade, segurança e integridade.
Dependendo de como forem desenhadas, regulações de interoperabilidade podem comprometer a implantação da criptografia de ponta a ponta, por exemplo.
A Camara-e.net defende que a regulação não deve (i) forçar uma empresa a comprometer sua capacidade de adotar medidas que garantam a integridade e melhorem a experiência do usuário ou (ii) prescrever como construir interoperabilidade, para evitar o risco de padrões desatualizados, injustos, desinformados, inflexíveis e punitivos. Na verdade, deve (i) garantir flexibilidade em diferentes contextos e situações, para permitir que os custos da interoperabilidade sejam equilibrados com os objetivos políticos que estão sendo perseguidos por uma determinada política; (ii) estabelecer regras claras de responsabilidade para as partes envolvidas; e (iii) equilibrar a interoperabilidade com a privacidade, a segurança e integridade. - IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:58O IBRAC entende que, em razão da complexidade e da sensibilidade do tema, é importante que as discussões sobre regras de interoperabilidade devem levar em consideração determinações e princípios trazidos por eventuais legislações específicas, como a Lei n.º 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados ou LGPD).
A LGPD estabelece que a Autoridade Nacional de Proteção de Dados (ANPD) é o órgão com competência para regulamentar questões relacionadas à interoperabilidade de dados. Neste sentido, o Art. 40 da lei destaca que “a autoridade nacional poderá dispor sobre padrões de interoperabilidade para fins de portabilidade, livre acesso aos dados e segurança, assim como sobre o tempo de guarda dos registros, tendo em vista especialmente a necessidade e a transparência”. A LGPD estipula ainda que a ANPD, por meio de seu Conselho Diretor e dentro de suas competências, poderá tratar dos padrões de interoperabilidade para fins de (i) portabilidade, (ii) livre acesso aos dados e segurança e (iii) tempo de guarda dos registros, tendo em vista especialmente critérios de necessidade e transparência.
Ainda, o IBRAC considera especialmente relevante a contribuição desenvolvida pela Organização para Cooperação e Desenvolvimento Econômico (OCDE) por meio do relatório “Data Portability, Interoperability and Digital Platform Competition”, de 2021. O documento ressalta a efetiva complexidade da implementação de medidas de portabilidade e interoperabilidade, incluindo os desafios técnicos e de responsabilidade legal. Além disso, a OCDE aponta para os riscos da existência de interesses particulares e divergentes entre as partes envolvidas em um processo de interoperabilidade.
Por essas razões, o supracitado relatório destaca a necessidade de criação de padrões mínimos para o processo de implementação de medidas de portabilidade de dados, os quais estabeleçam ao menos (i) mecanismos de identificação dos dados que devem ser incluídos, (ii) o formato em que devem ser fornecidos e (iii) o cronograma e a natureza do processo de transferência. A entidade ainda reforça a imprescindibilidade de observância dos riscos associados ao processo, os quais precisam ser identificados, avaliados e controlados.
Nada disso, obviamente, impede a definição de regras de interoperabilidade ou a aplicação de remédios concorrenciais envolvendo referida interoperabilidade. Há exemplos de ambas as situações no enforcement antitruste recente no Brasil e na regulamentação de determinados mercados (como financeiro). Sugere-se, apenas, que haja um trabalho que leve em consideração regras já existentes, respeitando-se competências definidas nas respectivas legislações e atribuições institucionais. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:27Um dos desafios na implementação da interoperabilidade está envolvido na padronização de dados e informações entre as plataformas. As regras dispostas nos procedimentos interoperabilidade devem privilegiar a uniformização desses insumos, com a finalidade de garantir a exequibilidade dessas medidas. Além da padronização e uniformização, o uso de APIs e middlewares são mecanismos importantes na viabilização. Modelos como Open Health, Open Finance e Open Banking são experiências que podem servir como exemplos para guiar a experiência em plataformas digitais.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:47É cediço o entendimento de que a coleta, o processamento e agregação de grandes quantidades de dados pelas plataformas digitais de grande porte, conhecidas como “Big Techs”, auxiliam no desenvolvimento e implementação de aspectos que podem ser considerados, em um primeiro momento, como positivos nos serviços digitais, tais como comodidade e usabilidade dos serviços por parte do usuário (i.e. a percepção do valor dos serviços das plataformas aos usuários); contudo, também acabam por reforçar ou fortalecer a posição dominante destas grandes empresas nos mercados em que atuam, aumentando as barreiras à entrada de novos competidores.
Em especial, se considerados os efeitos econômicos desta agregação massiva de dados, como os efeitos de rede e as externalidades de uso (usage externality) e as externalidades de afiliação (membership externality), é cristalino que o reforço das grandes plataformas vem a custo da contestabilidade de determinados mercados por agentes menores, que podem ser tão ou mais benéficos e valiosos aos usuários, em seus específicos segmentos, do que as grandes plataformas.
Do lado dos usuários, os elevados custos de troca figuram como um desincentivo para a consideração da possibilidade da utilização de outros serviços ou plataformas que não as dominantes. Isso porque, com a grande quantidade de dados cedidos e com a implementação de mecanismos e modelos de negócio que se retroalimentam desses dados, é praticamente impossível que entrantes possam atingir a massa crítica necessária para serem atrativos ou mesmo para subsistirem nos mercados de plataformas digitais. Este fenômeno resulta na formação de verdadeiros monopólios que detém o controle de fluxo informacional e dos serviços digitais, prejudicando a concorrência, a inovação e o bem-estar geral, valores jurídicos tutelados tanto pela Constituição Brasileira de 1988 quanto por dispositivos legais e infralegais vigentes (como a Lei 12.529/2011).
Por outro lado, com o estabelecimento de obrigações que garantam a interoperabilidade desses serviços digitais, como a portabilidade desses dados, é possível reduzir os custos de troca, permitindo que o usuário aproveite os dados já fornecidos a uma única empresa para experimentar a utilização de outros serviços digitais com o mínimo incômodo possível.
Consequentemente às premissas e à dinâmica supracitada dos mercados de plataformas digitais, é importante pensar nas obrigações de interoperabilidade de forma assimétrica, estabelecendo-as como uma obrigação às grandes plataformas (com mais de 50% de participação de mercado e alta volumetria de usuários - mais de 45 milhões de usuários finais e mais de vinte milhões de usuários profissionais, cumulativamente – sendo que tanto o critério de market share quanto o critério de volumetria deve ser aferidos por pelo menos os últimos três exercícios financeiros) e facultando-as como uma boa prática a ser implementada pelos demais agentes, que não preenchem esses critérios.
Tomando como inspiração o Digital Markets Act, e considerando que os dados agregados pelas grandes plataformas geralmente encontram-se estruturados em um formato machine-readable (ou seja, cujo conteúdo pode ser lido e processado de forma instantânea e automática por computadores e sistemas digitais), é possível pensar em modelos de obrigações que permitam a portabilidade em tempo real por meio de APIs a serem implementadas pelos agentes privados regulados e supervisionados pelas autoridades competentes – no melhor entender da ABRANET, uma autoridade de autorregulação privada e uma nova entidade regulatória multissetorial, para fins de supervisão da primeira, conforme apresentado detalhadamente na respectiva pergunta da presente Consulta Pública.
Diante disso, sugere-se a criação de um regime diferenciado de regras de interoperabilidade: para os grandes agentes (conforme definido no questionamento 1 da presente consulta), obrigações de estruturação de dados que permitam a portabilidade em tempo real por meio de APIs. Para os demais agentes, possibilidade e incentivo para a adoção de mecanismos de interoperabilidade, como o de portabilidade em tempo real por meio de APIs.
Por fim, não é possível esquecer que a interoperabilidade, apesar de colateralmente beneficiar o mercado, tem como enfoque assegurar os direitos dos usuários e, em especial, a sua autonomia e autodeterminação. Em decorrência dessa lógica, é o entendimento da ABRANET que a interoperabilidade deve ser garantida por meio da portabilidade que, por sua vez, deve ser estatuída em forma de um direito a ser exercido pelo usuário, ou seja, apenas operará em caso de manifestação expressa do titular. - Alex Camacho Castilho 06/07/2023 às 13:53Definir regras de interoperabilidade de dados: A definição de regras de interoperabilidade de dados pode ser uma medida eficaz para mitigar os riscos associados à concentração no tratamento de dados. Isso significa estabelecer requisitos e padrões técnicos que permitam que diferentes plataformas compartilhem e troquem dados de maneira compatível. A interoperabilidade de dados pode promover a concorrência, facilitar a portabilidade de dados para os usuários e incentivar a inovação, ao permitir que novos participantes entrem no mercado e ofereçam serviços baseados em dados. No entanto, é necessário encontrar um equilíbrio adequado para garantir a proteção da privacidade e a segurança dos dados durante o compartilhamento.
- Jose Vieira 19/06/2023 às 14:02Limitar a interoperabilidade reduz o índice de acerto do sistema. Mas entendo que com informações pessoais muito profundas pessoas podem ser prejudicadas. Um exemplo seria que uma pessoa com problemas de saúde, podem não ter acesso a uma promoção de venda parcelada. É difícil encontrar um ponto de equilíbrio, mas certamente é necessário procurar um
- Gustavo Paiva 05/06/2023 às 14:41*Exigir* interoperabilidade -- de tal modo que usuários possam se comunicar através de aplicativos de mensagens diferentes, podendo assim escolher livremente um que se adeque às suas necessidades -- diminuiria a tendência desse mercado seguir o molde de "winner takes all" e, consequentemente, diminuiria o efeito do poder de mercado. Penso que isso é extremamente desejável.
Tomando aplicativos de mensagens como exemplo, na lógica atual usuários frequentemente precisam ter e se cadastrar em mais de um aplicativo. Se sua família está no WhatsApp você é obrigado a se cadastrar, sob prejuízo de se alienar de sua família. Caso seu ambiente de trabalho use Telegram, você precisa usá-lo para seu próprio desempenho profissional. O usuário não possui muita escolha, em realidade.
Porém isso mudaria se os aplicativos fossem interoperáveis. Pessoas que se opõem a certa empresa ou que preferem um aplicativo que priorize um ou outro aspecto poderiam escolher de acordo.
Penso que EXIGIR interoperabilidade em aplicativos de mensagem e em redes sociais seria muito positivo. - Leonardo Tavares de Almeida 04/05/2023 às 08:44Definição técnica que poderia ter apoio da Anatel para sua clarificação
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:21[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A proibição do compartilhamento de dados, pessoais ou não, entre empresas pertencentes ao mesmo grupo é medida fundamental para mitigar a tendência histórica de concentração de poder econômico em diferentes segmentos de mercado (e.x. publicidade; agricultura; transporte e mobilidade urbana; entre outros). - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:27A Lei Geral de Proteção de Dados (LGPD) não restringe atividades de tratamento de dados, pois estabelece diferentes bases legais que permitem a sua realização. Quaisquer restrições em relação ao processamento e compartilhamento de dados podem prejudicar os esforços de uma empresa para garantir a segurança de seus usuários e sistemas. Por exemplo, as restrições ao compartilhamento de dados prejudicam os esforços de detecção e prevenção de fraudes, uma vez que as empresas precisam compartilhar e combinar pontos de dados sobre usuários de várias fontes para identificar e mitigar fraudes.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:51Uma possível medida mitigatória para este problema/risco seria a segregação das bases de dados dos produtos que pertencem a mesma empresa ou grupo econômico, com o uso do chamado silos de dados (data silos). A ideia é que os dados de aplicações como o whatsapp não possam ser vinculados ou compartilhados ao Instagram (como acontece hoje), mantendo de forma isolada a base de dados/usuários das duas plataformas.
- Rafael Evangelista 16/07/2023 às 15:03empresas pertencentes ao mesmo grupo não devem compartilhar dados de seus usuários indiscriminadamente, a não ser com autorização expressa deles e sem que, nessa autorização, esteja em jogo a capacidade de continuar usando o serviço
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:10“Compartilhamento de dados” é um termo amplo e não definido, e regras excessivamente gerais envolvendo compartilhamento de dados podem levar a vulnerabilidades substanciais. O uso do termo “compartilhamento de dados” em um modelo regulatório pode levar a dificuldades substanciais em sua aplicação e monitoramento, assim como gerar riscos à segurança de dados e à moderação de conteúdo caso a regulação demande conformidade absoluta.
A LGPD não fornece proibições iniciais para atividades de tratamento de dados. Pelo contrário, estabelece as diferentes bases legais que permitem atividades de tratamento de dados de todos os tipos.
Restrições de compartilhamento de dados podem minar os esforços de uma empresa para manter todos os seus usuários seguros e seus serviços seguros, o que significa que restrições específicas para segurança e integridade devem ser desenvolvidas para acompanhar qualquer restrição. Pode, por exemplo, prejudicar os esforços de detecção e prevenção de fraudes que beneficiam a sociedade em geral, uma vez que as empresas de prevenção de fraudes precisam compartilhar, receber e combinar milhares de pontos de dados sobre consumidores e transações com/de centenas de comerciantes e fornecedores, bem como a partir de plataformas e serviços online, a fim de identificar possíveis padrões de fraude e gerar pontuações de probabilidade de fraude que ajudem os sites de comércio eletrônico e beneficiem diretamente os consumidores.
As restrições de compartilhamento de dados podem ser conflitantes e gerar incerteza/insegurança legal em relação aos requisitos de interoperabilidade de dados. Isso poderia minar as recentes iniciativas de dados abertos no Brasil destinadas a melhorar a concorrência e beneficiar os consumidores, particularmente os esforços de open banking e open finance que combinam dados financeiros com múltiplas fontes de informação, inclusive de serviços e plataformas online.
É importante lembrar que as novas inscrições costumam ser a essência da competição. À medida que a economia se digitaliza, os dados são apenas um ativo que pode ser usado para alimentar a inovação e entrar em novas áreas de atividade.
Entendemos; portanto, ser inadequada e somos contrários a qualquer sugestão de "inibição ou proibição de compartilhamento de dados entre empresas do mesmo grupo econômico", já que a LGPD não proíbe esta prática, ainda que tenha um cuidado maior quanto ao regramento para compartilhamento de dados de modo geral. Além disso, tal como exige para qualquer outra modalidade de tratamento de dados pessoais, requer que o compartilhamento atenda a todos os requisitos da lei para que seja considerado lícito. - Rodolfo Salema 16/07/2023 às 10:06Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Ainda que o compartilhamento de dados entre empresas pertencentes ao mesmo grupo possa parecer, prima facie, uma questão de livre iniciativa ou mesmo de privacidade e proteção de dados pessoais, há uma evidente questão antitruste envolvendo big data dentro dos conglomerados das plataformas digitais. Eventual proibição de compartilhamento de dados neste caso se refere a players monopolistas ou dominantes em mercados relacionados ou adjacentes decorrentes de eventuais operações de concentração já realizadas e implementadas, com estrutura de mercado atual, claramente não sendo cabível a invocação genérica de supostos poderes da autoridade concorrencial impor restrições em futuros atos de concentração, incapazes de resolver ou remediar o status atual.
Com efeito, vários relatórios especializados (Stigler Center, Stigler Committee on Digital Platforms: Final Report, 2019; Competition and Markets Authority, Online Platforms and Digital Advertisement – Market Study Final Report, 2020; Australian Competition and Consumer Commission. Digital Platforms Inquiry, 2019) recomendam a criação de um novo órgão regulador com competências específicas para monitorar mercados digitais.
A principal justificativa seria de que as políticas antitruste teriam uma velocidade de resposta muito baixa para a rápida dinâmica competitiva de diversos mercados digitais. Esta regulação não seria similar a mercados tradicionais que regulam, por exemplo, operação de monopólios naturais, e muito pelo contrário, teriam a tarefa de assegurar que os mercados permaneçam abertos e competitivos – inclusive compartilhando bases de dados, assegurando interoperabilidade, restringindo sludges e estabelecendo conceitos abertos capazes de promover a concorrência (ver Documento de Trabalho nº 005/2020 do DEE CADE – Concorrência em mercados digitais: uma revisão dos relatórios especializados, pp. 126-127).
- Tarcizio Silva 15/07/2023 às 18:55Sim. O compartilhamento de dados entre plataformas e aplicativos de mesmo grupo empresarial não deve ser realizado sem anuência explícita, informada e não vinculada a continuidade do uso.
Indo além, recomenda-se proibição para que empresas detentoras de plataformas digitais desenvolvam e mantenham serviços em setores nos quais os dados já coletados estabelecem vantagens abusivas ou que possuam potencial de danos, a exemplo de serviços financeiros ou de saúde. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:32Esse é um critério extremamente relevante, que inclusive está presente em outras regulações pelo mundo, como no Digital Markets Act (DMA) na União Europeia.
No compartilhamento de dados entre empresas de um mesmo grupo econômico há um grande risco de abuso de sua posição dominante ao gerar riscos relacionados à alavancagem de posição a partir de mercado correlato ou de autopreferenciamento/self-preferencing. Essa é uma grande preocupação da atuação de plataformas digitais em ecossistemas - que, apesar de ter suas vantagens, também traz diversos riscos a consumidores, à concorrência e à proteção de dados.
Isso porque, em mercados digitais, dados são ativos relevantes para a performance e competitividade das empresas, mas podem levar a situações de fechamento de mercado e, em caso de empresas que também atuam em mercados adjacentes, o cruzamento de dados (a partir do compartilhamento de dados, por exemplo), criacriando uma vantagem irreplicável por concorrentes. Rememora-se que as grandes empresas de tecnologia atuam não somente em um mercado, mas também de maneira verticalizada (atuando em mercados complementares de uma mesma cadeia de consumo/fornecimento), conglomeral e em ecossistemas. Ressalta-se que essas atuações em ecossistemas não são restritas somente ao universo estritamente digital: muitas empresas de tecnologia têm, inclusive, se inserido em outros mercados para competir com mercados tradicionais, como é o caso dos serviços de pagamento [1] e de plataformas de saúde.
CASOS RELEVANTES
Esse abuso pôde ser observado na aquisição da FitBit pela Google em 2020 e na mudança da política de privacidade do WhatsApp em 2021.
Caso Google-FitBit (2020)
Nessa compra de empresa produtora de relógios inteligentes pela gigante da tecnologia, a coleta de dados pessoais sensíveis (de saúde) pela FitBit (e que agora são compartilhados com a Google) fortalece o poder da Google em mercados da economia digital e podem alavancar sua posição em outros mercados, tanto em termos de perfilização para anúncios como em mercados ligados à saúde. Diante desses riscos, o Idec enviou uma representação para que o Cade investigasse o ato de concentração já que a operação não seria obrigatoriamente notificada no Brasil por não atingir os critérios obrigatórios, mas dada a relevância do caso o Idec suscitou a utilização da competência subsidiária do Cade para determinar sua notificação no Brasil. Entretanto, o processo foi arquivado [2]. Já na União Europeia, o Google se comprometeu a não utilizar, por 10 anos, dados de localização, saúde e bem-estar dos usuários da Fitbit para fins de direcionamento de anúncios. As medidas envolviam apenas usuários no Espaço Econômico Europeu, mas a empresa afirmou que elas seriam estendidas para todos os países [3]. De qualquer maneira, esta condicionante pode ser demasiado limitada para a importância que esses dados têm no modelo de negócios das empresas.
Caso Mudança da Política de Privacidade do WhatsApp (2021)
Já o segundo caso foi analisado por quatro autoridades, após denúncia do Idec: MPF, Cade, Senacon e ANPD - que liderou o processo [4]. O caso gerou uma recomendação conjunta entre as autoridades, mas a principal ameaça aos consumidores, o compartilhamento de dados entre as empresas, sequer foi analisado em profundidade até o momento.
DISPOSIÇÕES REGULATÓRIAS
Em ambos os casos, a solução insatisfatória das autoridades brasileiras demonstra a necessidade de uma regulação econômica que enderece a questão. Com objetivo de mitigar os riscos aqui levantados a regulação deve conter mecanismos para
- uma disposição de proibição de compartilhamento de dados entre empresas de um mesmo grupo econômico sem consentimento informado, prévio, expresso e específico dos consumidores acerca do compartilhamento;
- para além disso, ainda que a situação não ocorra dentro de um mesmo grupo econômico, temos outro aprendizado com o AC Google-FitBit: uma disposição relevante seria a proibição da utilização de dados pessoais sensíveis para fins de perfilização e direcionamento de publicidade;
- igualmente, a proibição da utilização de dados pessoais de crianças e adolescentes para personalização e direcionamento de publicidade;
[1] CONTRI, Camila Leite; CARVALHO, Vinícius Marques de; MATTIUZZO, Marcela. Perspectivas e Controvérsias nas Inovações Regulatórias no Sistema Financeiro de Pagamentos. São Paulo: Editora Singular, 2023. Disponível em: https://www2.senado.leg.br/bdsf/handle/id/626149.
[2] IDEC. Idec solicita ao Cade investigação da compra da Fitbit pela Google. Idec, 15 jul. 2020. Disponível em: Acesso em: 05 jun. 2023.
[3] SILVA, Victor Hugo. Google agora é dono da Fitbit após concluir aquisição bilionária. Tecnoblog, 2021. Disponível: Acesso em: 05 jun. 2023.
[4] Caso Whatsapp: proteção de dados dos usuários permanece ameaçada. Idec, 27 maio 2022. Disponível em: Acesso em: 05 jun. 2023. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:17“Compartilhamento de dados” é um termo amplo e não definido, e regras excessivamente gerais envolvendo compartilhamento de dados podem levar a vulnerabilidades substanciais. O uso do termo “compartilhamento de dados” em um modelo regulatório pode levar a dificuldades consideráveis em sua aplicação e monitoramento, assim como gerar riscos à segurança de dados e à moderação de conteúdo caso a regulação demande conformidade absoluta.
A própria LGPD não prevê proibições prévias às atividades de processamento de dados. Pelo contrário, define as diferentes bases jurídicas que permitem atividades de processamento de dados de todos os tipos.
Restrições de compartilhamento de dados podem prejudicar os esforços de uma empresa para manter todos os seus usuários e seus serviços seguros, o que significa que trincheiras específicas para fins de segurança e integridade devem ser desenvolvidas para acompanhar qualquer restrição. Ainda, tais restrições podem, por exemplo, minar os esforços de detecção e prevenção de fraudes que beneficiam a sociedade em geral, dado que as empresas de prevenção de fraudes precisam compartilhar, receber e combinar milhares de dados sobre consumidores e transações com centenas dados de comerciantes e fornecedores, bem como de plataformas e serviços online, a fim de identificar potenciais padrões de fraude e gerar dezenas de pontuações de probabilidade de fraude que ajudam os sites de comércio eletrônico e beneficiam os consumidores diretamente.
As restrições ao compartilhamento de dados podem estar em desacordo e gerar insegurança jurídica a respeito dos requisitos de interoperabilidade. Isso poderia minar as recentes iniciativas de dados abertos no Brasil destinadas a melhorar a concorrência e beneficiar os consumidores, particularmente os esforços de open banking e open finance que combinam dados financeiros com múltiplas fontes de informação, inclusive de serviços e plataformas online.
É importante lembrar que novas entradas (de produtos e serviços) são muitas vezes a essência da competição. À medida que a economia se digitaliza, os dados são apenas um ativo que pode ser usado para alimentar a inovação e a inserção em novas áreas de atividade. - Guilherme Marques Ferri 15/07/2023 às 11:38De acordo. Deveria nesse caso, ter um termo objetivo e claro. Bem simplificado para o usuário rejeitar ou permitir. A linguagem deve ser a mais simples e sumarizada possível (FGV/EBAPE).
- IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 18:59O ordenamento jurídico brasileiro já prevê, no âmbito de determinados órgãos da Administração Pública, mecanismos que inibem ou até mesmo proíbem o compartilhamento de dados entre empresas pertencentes ao mesmo grupo econômico.
O Cade, por exemplo, tem a prerrogativa de limitar e/ou proibir o compartilhamento de dados entre empresas de um mesmo grupo econômico quando analisa os Atos de Concentração que são submetidos a sua apreciação. A título de exemplo, em 2020 a autarquia aprovou a operação de aquisição da Nike do Brasil pelo Grupo SBF/Centauro (Processo n.º 08700.000627/2020-37) condicionado ao cumprimento de Acordos em Controle de Concentrações (ACC). Entre as medidas impostas pelo ACC encontra-se a proibição de troca de informações concorrencialmente sensíveis pelas empresas:
“3.1.1.2. Os colaboradores da equipe comercial da Nike do Brasil assinarão acordos de confidencialidade, válidos durante todo o período em que exercerão suas atividades, os quais deverão prever a confidencialidade das informações concorrencialmente sensíveis da Nike do Brasil relativas a clientes, segredos de mercado, contratos, sistemas, procedimentos, preços, dados financeiros ou de outra natureza (incluindo as rendas, custos e lucros associados a quaisquer produtos fornecidos ou serviços prestados pela Nike do Brasil), planos de negócio, relatórios internos, material de vendas e propaganda, bem como a vedação de compartilhar tais informações com colaboradores da unidade de negócios Centauro;
I – Os acordos de confidencialidade não deverão restringir a possibilidade de os colaboradores da Nike do Brasil tratarem diretamente com os colaboradores Centauro sobre os termos comerciais de operações com a própria Centauro, devendo a restrição limitar-se a informações concorrencialmente sensíveis acerca das demais atividades da Nike do Brasil.”
No âmbito da LGPD (Art. 2), já há previsão no sentido de que a proteção de dados pessoais está fundamentada, dentre outros pilares, no respeito à privacidade, no desenvolvimento econômico e tecnológico, na inovação, na livre iniciativa, na livre concorrência e na defesa do consumidor. Além disso, a legislação também prevê (Art. 3, incisos I, II e III) que as disposições da LGPD se aplicarão a qualquer operação de tratamento realizada por pessoa natural ou por pessoa jurídica de direito público ou privado, independentemente do meio, do país de sua sede ou do país onde estejam localizados os dados, desde que (i) a operação de tratamento seja realizada no território nacional; (ii) a atividade de tratamento tenha por objetivo a oferta ou o fornecimento de bens ou serviços ou o tratamento de dados de indivíduos localizados no território nacional; ou (iii) os dados pessoais objeto do tratamento tenham sido coletados no território nacional.
Nota-se, portanto, que as operações de compartilhamento de dados, inclusive transferência internacional, já devem observar os regramentos previstos na LGPD. O compartilhamento de dados entre empresas do mesmo grupo econômico, portanto, já possui regulamentação que deve ser seguida, não sendo necessária a criação de novos mecanismos que imponham ainda mais limites ou que, em hipótese extrema, proíbam a troca de dados entre as empresas do mesmo grupo.
Dessa forma, em razão da legislação já prever mecanismos de controle para o compartilhamento de dados entre empresas do mesmo grupo, bem como em razão da necessidade de se analisar caso a caso ocorrências desse tipo, o IBRAC compreende que construir uma legislação ex-ante sobre o compartilhamento de dados entre empresas de um mesmo grupo econômico deve ser precedida de avaliações aprofundadas acerca de seus objetivos e quais problemas se buscam endereçar, indicando-se as razões pelas quais os mecanismos já existentes poderiam ser, eventualmente, considerados insuficientes, na medida em que eventual regulação desnecessária poderia prejudicar o desenvolvimento de atividades econômicas. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 16:15É uma medida interessante de mitigação do risco mencionado neste tópico, já que o compartilhamento de dados entre plataformas não deve ser feito sem anuência e expressa autorização do usuário.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:49Inicialmente, a ABRANET destaca que não entende como necessária ou como razoável a proibição deste tipo de compartilhamento (de dados pessoais e de dados não pessoais entre empresas do mesmo grupo), à luz das práticas comerciais saudáveis vigentes e à luz dos instrumentos normativos pertinentes relativos a tais dados, tanto na seara concorrencial quando na de proteção de dados pessoais.
Em se tratando de dados pessoais, a Lei Geral de Proteção de Dados Pessoais já disciplina requisitos e princípios que devem ser observados no compartilhamento de dados entre agentes de tratamento, sendo eles pertencentes ao mesmo grupo ou não. Nesse sentido, destaca-se que, desde que não haja desvio do propósito inicial pelo qual os dados foram coletados (em conformidade com o princípio da finalidade) e desde que haja transparência ao titular de que há o compartilhamento – compreendendo quais dados foram compartilhados e com quem – não há problema na operação.
Quanto ao direito concorrencial, já existem possíveis restrições, de acordo com a jurisprudência do Conselho Administrativo de Defesa Econômica (“Cade”) e com a lei 12.529/2011, ao compartilhamento de informações concorrencialmente sensíveis, mesmo que entre empresas de um mesmo grupo econômico. A ideia de “informações concorrencialmente sensíveis” não é expressamente definida na lei concorrencial, mas pode ser entendida como tratando de informações não-públicas (ou seja, não acessíveis com facilidade por qualquer agente), específicas (i.e., apresentadas de forma desagregada, granular), recentes ou relativas ao futuro, que versem diretamente sobre o desempenho das atividades-fim dos agentes econômicos - e que, portanto, sejam capazes de impactar as decisões competitivas de rivais no seu mercado de atuação. Tal entendimento segue as bases do “Guia para análise da consumação prévia de atos de concentração econômica”, documento produzido pelo Cade, o qual perfilha a lógica geral desta definição (2015, p. 7).
A razão das restrições ao compartilhamento ou acesso a informações desta natureza se dá em decorrência de seu potencial de influenciar e possibilitar a adoção de estratégias e condutas exclusionárias por parte de um agente dominante, bem como em razão do papel de facilitação para a adoção de condutas colusivas que suscita – ou seja, coordenação anticompetitiva do mercado, acordada entre os concorrentes.
Conforme os fundamentos acima expostos, seria mais eficaz e benéfico à sociedade como um todo que houvesse obrigações de compartilhamento entre as verticais das concorrentes no mercado em caso de solicitação feita pelos usuários, respeitando-se a proteção aos segredos industriais e comerciais, os princípios e regras da LGPD e a vedação do compartilhamento das informações concorrencialmente sensíveis, de forma a compensar possíveis “prejuízos” de concentração de mercado que poderiam surgir destes compartilhamentos, incentivando a inovação, a concorrência e a contestabilidade dos mercados. - Alex Camacho Castilho 06/07/2023 às 13:53Prever a inibição ou proibição do compartilhamento de dados entre empresas pertencentes ao mesmo grupo: A restrição ou proibição do compartilhamento de dados entre empresas pertencentes ao mesmo grupo pode ser uma medida que busca evitar a concentração excessiva de poder e a formação de ecossistemas fechados, nos quais uma única empresa tem controle sobre todas as etapas do processo de coleta, armazenamento, análise e processamento de dados. Isso pode ajudar a evitar abusos de poder econômico, assegurar a concorrência e promover a diversidade de provedores de serviços baseados em dados.
- Alex Camacho Castilho 06/07/2023 às 13:521. Definir regras de interoperabilidade de dados: A definição de regras de interoperabilidade de dados pode ser uma medida eficaz para mitigar os riscos associados à concentração no tratamento de dados. Isso significa estabelecer requisitos e padrões técnicos que permitam que diferentes plataformas compartilhem e troquem dados de maneira compatível. A interoperabilidade de dados pode promover a concorrência, facilitar a portabilidade de dados para os usuários e incentivar a inovação, ao permitir que novos participantes entrem no mercado e ofereçam serviços baseados em dados. No entanto, é necessário encontrar um equilíbrio adequado para garantir a proteção da privacidade e a segurança dos dados durante o compartilhamento.
2. Prever a inibição ou proibição do compartilhamento de dados entre empresas pertencentes ao mesmo grupo: A restrição ou proibição do compartilhamento de dados entre empresas pertencentes ao mesmo grupo pode ser uma medida que busca evitar a concentração excessiva de poder e a formação de ecossistemas fechados, nos quais uma única empresa tem controle sobre todas as etapas do processo de coleta, armazenamento, análise e processamento de dados. Isso pode ajudar a evitar abusos de poder econômico, assegurar a concorrência e promover a diversidade de provedores de serviços baseados em dados. - JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 14:02O compartilhamento de dados é salutar, mas o usuário deve ter o poder de decisão.
- Jose Vieira 19/06/2023 às 14:04Acredito que o usuário devesse ter o poder de decidir se quer ou não que seus dados sejam compartilhados.
Muitas vezes perdemos tempo em um hotel preenchendo os mesmos dados que foram preenchidos em outro hotel da mesma rede. O compartilhamento com permissão ajudaria - Gustavo Paiva 05/06/2023 às 14:48Penso que isso, também, é positivo.
Fragmentar uma colossal empresa em dezenas ou centenas de empresas grandes e médias pode ser uma maneira de se combater a criação de um monopólio, porém isso é ineficaz se essa constelação de empresas continuam funcionando na prática como uma só.
Além disso, penso que o correto seria prever a proibição desse compartilhamento. Caso seja possível ao usuário consentir com o compartilhamento de maneira fácil, em pouco tempo haverá um novo termos de uso ou oferta de nova funcionalidade que depende desse compartilhamento, o que nos levará novamente à estaca zero. As empresas criarão produtos e oportunidades para que os usuários aceitem o compartilhamento entre empresas, se isso for possível. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:10Como observado na resposta ao item 5, a atual legislação concorrencial já é capaz de abranger as preocupações descritas na consulta, e possui os recursos adequados para remediá-las. Os riscos associados a interoperabilidade, portabilidade de dados, processamento, uso, armazenamento e concentração de dados são abrangidos pelas teorias de dano de condutas exclusionárias e fechamento de mercado, e podem ser remediados de forma tempestiva a partir do arcabouço legal existente.
Adicionalmente, a legislação concorrencial ou uma eventual regulação não devem tentar remediar outras áreas de política pública, como privacidade, segurança de dados, tributação, infraestrutura crítica, direitos trabalhistas, processos eleitorais, ameaças à democracia, direitos humanos, jornalismo, e proteção de menores, entre outros.
Cada uma dessas importantes questões justificam estruturas regulatórias próprias, mas tais assuntos não devem ser subsumidos ou considerados no contexto de legislação concorrencial ou de regulação de plataformas digitais. Qualquer tentativa de tratar de tais questões de grande importância por meio da legislação concorrencial não será capaz de abarcar a grande variedade de considerações que devem ser abrangidas, e irá se desviar do objetivo principal do direito concorrencial, o que resultaria na diluição do direito concorrencial e no enfraquecimento dos mecanismos protetivos em cada uma dessas importantes áreas.
De fato, a aplicação de uma legislação concorrencial forte pode até entrar em conflito com os objetivos de cada uma das áreas de foco descritas na consulta. Por exemplo, um empregador que aumenta salários e expande benefícios para os trabalhadores pode ser considerado um monopolista em mercados de trabalho, na medida em que atrai trabalhadores de seus concorrentes. O direito trabalhista veria com bons olhos melhores benefícios e salários para trabalhadores; no entanto, a aplicação do direito concorrencial poderia punir tal comportamento.
É importante estabelecer legislação robusta de segurança de dados e privacidade para garantia de todas as pessoas, incluindo menores, assim como para proteção da infraestrutura nacional. Também é importante estabelecer uma legislação resiliente sobre direitos de liberdade de expressão que sopese a sua importância ao mesmo tempo que leva em consideração a proteção aos direitos humanos (discurso de ódio, terrorismo, incitamento a tais comportamentos) e procedimentos eleitorais críticos. É crucial que se estabeleça leis ou guias que governem a integridade jornalística.
Por fim, qualquer atualização da legislação concorrencial brasileira ou eventual regulação deve ser aplicada igualmente a todos os agentes econômicos.
Subsidiar, contatar e investir em empresas nacionais não equivale a mitigar o risco para a soberania tecnológica do Brasil e leva a uma distorção da concorrência em detrimento dos consumidores. A introdução de um modelo regulatório que favorece um conjunto de prestadores em detrimento de outros, quer se trate de prestadores nacionais/domésticos ou quaisquer outros, leva a uma diminuição da concorrência no mérito, o que, em última análise, conduz a menos incentivos econômicos para competir. Esses regimes regulatórios prejudicam os agentes privados que, em sua ausência, seriam exitosos na oferta de bens e serviços inovadores de alta qualidade e a baixo preço aos consumidores, ao mesmo tempo que favorecem as empresas que não o fazem. A regulação deve, em vez disso, ser neutra e aplicada de forma igualitária para permitir a concorrência com base no mérito, o que incentiva os agentes privados a superarem-se mutuamente para conquistarem clientes, fornecendo produtos inovadores, de elevada qualidade, a baixo custo e com um serviço melhorado.
De forma similar, segurança nacional e resiliência em infraestrutura crítica são melhor apoiados por mercados altamente competitivos que recompensam empresas que competem no mérito, incluindo a habilidade de promover infraestruturas e soluções de dados altamente estáveis e seguros para consumidores, incluindo governos nacionais e público geral.
Em suma, entendemos não caber um regramento próprio sobre atos de concentração e temas concorrenciais, já que as plataformas ainda serão submetidas à Lei 12.529. - Rodolfo Salema 16/07/2023 às 10:07Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Uma maneira de mitigar a concentração no tratamento de dados é impor obrigações de compartilhamento com concorrentes, por meio de uma decisão específica da autoridade competente. Como os dados são um insumo essencial para as plataformas digitais, permitindo economias de escala e escopo consideráveis, a concentração de dados pode ser vista como uma barreira à entrada de novos agentes. Quanto maior o repositório de dados coletados ou processados por um agente de mercado, maior será a qualidade e personalização dos produtos que ele poderá oferecer e mais fácil será sua entrada em mercados adjacentes.
Ao permitir essas facilidades, a concentração de dados dificulta a atuação de agentes que não têm condições semelhantes, e é isso que o compartilhamento de dados pretende remediar. Para fortalecer a contestabilidade dos mercados de plataformas digitais, poderia ser determinado o estabelecimento de obrigações desse tipo para as grandes detentoras de dados pessoais.
Outra medida mitigadora que pode ser considerada é o estabelecimento do direito à portabilidade de dados de forma bem regulamentada e facilitada para o titular. Isso sugere a criação de um regime diferenciado de regras de interoperabilidade: para os grandes agentes, obrigações para estruturar os dados para permitir a portabilidade em tempo real por meio de APIs; para os demais agentes, incentivo para adotar mecanismos de interoperabilidade. - Tarcizio Silva 15/07/2023 às 18:44Outra medida de mitigação essencial é estabelecer o estado como ator fomentador e limitador de abusos econômicos. A oferta de serviços de comunicação digital, hospedagem, emails, computação em nuvem, suítes de gerenciamento de trabalho e afins devem ser vistas como estratégicas do ponto de vista político e econômico. Do ponto de vista político é inaceitável que entidades do estado utilizem soluções digitais estrangeiras, que vulnerabilizam a soberania nacional. Do ponto de vista econômico, recursos do estado devem ser direcionados a atores nacionais em áreas estratégicas. E é necessário enfatizar também que as duas áreas se relacionam: quando o estado contrata serviços de empresas de tecnologia privadas estrangeiras, não só os recursos são perdidos mas também dados nacionais e estratégicos com valor inestimável.
- Jhemerson Cruz 13/07/2023 às 20:05Recomendo fortemente que pensemos no tratamento de dados (comportamento e saúde) para fins comerciais.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:50Uma medida mitigadora que pode ser prevista para remediar a concentração no tratamento de dados é a possibilidade de que sejam impostas obrigações de compartilhamento com agentes de mercado concorrentes, a partir de remédio concorrencial específico determinado por decisão da autoridade competente.
Sendo os dados insumo essencial para as plataformas digitais – viabilizando economias de escala e escopo consideráveis – a medida mitigadora ora sugerida identifica na sua concentração uma espécie de barreira à entrada de novos agentes, pelo fato de que, quanto maior o repositório de dados coletados ou processados por um determinado agente de mercado, maior será a qualidade e personalização dos produtos que é capaz de oferecer, bem como poderá ser mais fácil a sua entrada em mercados adjacentes, consolidando sua posição nos mercados em que atua e suscitando condições mais favoráveis para a entrada em novos mercados.
Ao permitir todas essas facilidades, a concentração de dados obstaculiza a atuação de agentes de mercado que não detêm condições semelhantes de atuação, sendo este o ponto que o compartilhamento de dados pretende remediar. Nesse sentido, para fortalecer a contestabilidade dos mercados de plataformas digitais, poderia ser determinado o estabelecimento de obrigações deste teor às grandes detentoras de dados pessoais, que figuram como dominantes nos mercados em que atuam, excetuando-se o compartilhamento de informações caracterizadas como segredos industriais e comerciais.
Determinado por autoridade competente, o compartilhamento de dados nessa situação, se envolvesse dados pessoais, incorreria na base legal do “cumprimento de obrigação legal ou regulatória”, prevista no art. 7, II e, no caso de dados pessoais sensíveis, no art. 11, II (a) da Lei Geral de Proteção de Dados Pessoais (13.709/2018). Contudo, as questões de privacidade não se exaurem na definição da base legal, sendo necessário o estabelecimento de obrigações de transparência do compartilhamento de dados – ou seja, os controladores deverão informar ao titular, de forma clara, acessível e precisa, quais dados possivelmente serão compartilhados, com quais agentes e por qual razão. A própria decisão que determina o compartilhamento de dados enquanto remédio concorrencial pode definir essas balizas, haja vista que a razão desse compartilhamento está intrinsecamente relacionada à avaliação concorrencial que foi realizada – e determinou pela realização do compartilhamento.
Outra medida mitigadora que pode ser considerada em resposta à concentração de dados em grandes agentes econômicos dos mercados de plataformas digitais é – complementando a fundamentação das regras de interoperabilidade, feita em detalhes no item I do questionamento 7 desta Consulta – o estabelecimento do direito à portabilidade de dados de forma bem regulamentada, e cujo exercício seja facilitado ao titular. Diante disso, sugere-se a criação de um regime diferenciado de regras de interoperabilidade: para os grandes agentes (conforme definido no questionamento 1 da presente Consulta), obrigações de estruturação de dados que permitam a portabilidade em tempo real por meio de APIs. Para os demais agentes, possibilidade e incentivo para a adoção de mecanismos de interoperabilidade, como o de portabilidade em tempo real por meio de APIs. - Alex Camacho Castilho 06/07/2023 às 13:571. Fortalecimento da proteção de dados pessoais: Uma medida importante é fortalecer as regulamentações de proteção de dados pessoais, inclsioive a LGPD, estabelecendo requisitos claros para o consentimento informado, minimização de dados, finalidade e limitação do uso, segurança e notificação de violações de dados. Ao garantir que os dados pessoais sejam tratados com responsabilidade e de acordo com os princípios de privacidade, é possível mitigar os riscos associados à concentração no tratamento desses dados.
2. Promoção da portabilidade de dados: A portabilidade de dados permite que os usuários tenham controle sobre seus próprios dados e possam transferi-los entre diferentes plataformas de forma fácil e segura. Ao facilitar a portabilidade de dados, é possível reduzir a dependência de uma única plataforma e promover a concorrência e a escolha dos usuários.
3. Estabelecimento de requisitos de transparência: A transparência no tratamento de dados é fundamental para mitigar os riscos associados à concentração. Isso envolve exigir que as plataformas digitais forneçam informações claras sobre como os dados são coletados, armazenados, usados e compartilhados. Além disso, é importante garantir a transparência nos algoritmos e nas práticas de tomada de decisão automatizada, para que os usuários possam entender e questionar as decisões que afetam suas experiências e seus direitos.
4. Estímulo à concorrência e à diversidade de provedores: Medidas que promovam a concorrência saudável e incentivem a entrada de novos provedores de serviços baseados em dados podem ser eficazes na mitigação da concentração. Isso pode ser feito por meio de regulamentações que evitem práticas anticompetitivas, apoio a startups e pequenas empresas, além da promoção de modelos alternativos e inovadores.
5. Monitoramento e supervisão efetivos: É necessário um monitoramento e uma supervisão efetivos das atividades das plataformas digitais e de suas práticas de tratamento de dados. Isso pode envolver a criação de autoridades regulatórias adequadas, com poderes para fiscalizar, investigar e impor medidas corretivas quando necessário.
6. Cooperação internacional: Dado o caráter global das plataformas digitais, a cooperação internacional é essencial para lidar com os riscos associados à concentração no tratamento de dados. A colaboração entre países pode permitir a troca de informações, a harmonização de regulamentações e a coordenação de ações regulatórias para garantir a proteção dos dados e a promoção da concorrência. - ROSA VICARI 23/06/2023 às 15:40Além de se garantir a privacidade e o não compartilhamento de dados, é importante estar atento para o ouso dos dados para direcionar o comportamento dos usuários (gerar a necessidade de consumir determinado produto, gerar opiniões sobre situações variadas e classificar indivíduos em determinado perfil).
- Roberto Cardoso Freire da Silva 20/06/2023 às 12:25Restrição quando aos cruzamento de dados com de outra bases.
- Ivelise Fortim 28/04/2023 às 16:11Riscos com relação a saúde mental
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:11Como observado na resposta ao item 5, a atual legislação concorrencial já é capaz de abranger as preocupações descritas na consulta, e possui os recursos adequados para remediá-las. Os riscos associados a interoperabilidade, portabilidade de dados, processamento, uso, armazenamento e concentração de dados são abrangidos pelas teorias de dano de condutas exclusionárias e fechamento de mercado, e podem ser remediados de forma tempestiva a partir do arcabouço legal existente.
Adicionalmente, a legislação concorrencial ou uma eventual regulação não devem tentar remediar outras áreas de política pública, como privacidade, segurança de dados, tributação, infraestrutura crítica, direitos trabalhistas, processos eleitorais, ameaças à democracia, direitos humanos, jornalismo, e proteção de menores, entre outros.
Cada uma dessas importantes questões justificam estruturas regulatórias próprias, mas tais assuntos não devem ser subsumidos ou considerados no contexto de legislação concorrencial ou de regulação de plataformas digitais. Qualquer tentativa de tratar de tais questões de grande importância por meio da legislação concorrencial não será capaz de abarcar a grande variedade de considerações que devem ser abrangidas, e irá se desviar do objetivo principal do direito concorrencial, o que resultaria na diluição do direito concorrencial e no enfraquecimento dos mecanismos protetivos em cada uma dessas importantes áreas.
De fato, a aplicação de uma legislação concorrencial forte pode até entrar em conflito com os objetivos de cada uma das áreas de foco descritas na consulta. Por exemplo, um empregador que aumenta salários e expande benefícios para os trabalhadores pode ser considerado um monopolista em mercados de trabalho, na medida em que atrai trabalhadores de seus concorrentes. O direito trabalhista veria com bons olhos melhores benefícios e salários para trabalhadores; no entanto, a aplicação do direito concorrencial poderia punir tal comportamento.
É importante estabelecer legislação robusta de segurança de dados e privacidade para garantia de todas as pessoas, incluindo menores, assim como para proteção da infraestrutura nacional. Também é importante estabelecer uma legislação resiliente sobre direitos de liberdade de expressão que sopese a sua importância ao mesmo tempo que leva em consideração a proteção aos direitos humanos (discurso de ódio, terrorismo, incitamento a tais comportamentos) e procedimentos eleitorais críticos. É crucial que se estabeleça leis ou guias que governem a integridade jornalística.
Por fim, qualquer atualização da legislação concorrencial brasileira ou eventual regulação deve ser aplicada igualmente a todos os agentes econômicos.
Subsidiar, contatar e investir em empresas nacionais não equivale a mitigar o risco para a soberania tecnológica do Brasil e leva a uma distorção da concorrência em detrimento dos consumidores. A introdução de um modelo regulatório que favorece um conjunto de prestadores em detrimento de outros, quer se trate de prestadores nacionais/domésticos ou quaisquer outros, leva a uma diminuição da concorrência no mérito, o que, em última análise, conduz a menos incentivos econômicos para competir. Esses regimes regulatórios prejudicam os agentes privados que, em sua ausência, seriam exitosos na oferta de bens e serviços inovadores de alta qualidade e a baixo preço aos consumidores, ao mesmo tempo que favorecem as empresas que não o fazem. A regulação deve, em vez disso, ser neutra e aplicada de forma igualitária para permitir a concorrência com base no mérito, o que incentiva os agentes privados a superarem-se mutuamente para conquistarem clientes, fornecendo produtos inovadores, de elevada qualidade, a baixo custo e com um serviço melhorado.
De forma similar, segurança nacional e resiliência em infraestrutura crítica são melhor apoiados por mercados altamente competitivos que recompensam empresas que competem no mérito, incluindo a habilidade de promover infraestruturas e soluções de dados altamente estáveis e seguros para consumidores, incluindo governos nacionais e público geral.
Em suma, entendemos não caber um regramento próprio sobre atos de concentração e temas concorrenciais, já que as plataformas ainda serão submetidas à Lei 12.529. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:21Como dito anteriormente, vide item 5, a Camara-e.net acredita que a atual legislação concorrencial já é capaz de abranger as preocupações descritas na consulta, e possui os recursos adequados para remediá-las. Por exemplo, o artigo 36 da Lei Antitruste (12.529/2011) dá ampla competência para o Conselho Administrativo de Defesa Econômica (CADE) regular atos que tenham o objetivo ou possam ter o efeito de limitar ou restringir a livre concorrência.
Os riscos associados a interoperabilidade, portabilidade de dados, processamento, uso, armazenamento e concentração de dados são abrangidos pelas teorias de dano de condutas exclusionárias e fechamento de mercado, e podem ser remediados de forma tempestiva a partir do arcabouço legal existente.
Adicionalmente, a legislação concorrencial ou uma eventual regulação não devem tentar remediar outras áreas de política pública, como privacidade, segurança de dados, tributação, infraestrutura crítica, direitos trabalhistas, processos eleitorais, ameaças à democracia, direitos humanos, jornalismo, e proteção de menores, entre outros.
Cada uma dessas importantes questões justificam estruturas regulatórias próprias, mas tais assuntos não devem ser subsumidos ou considerados no contexto de legislação concorrencial ou de regulação de plataformas digitais. Qualquer tentativa de tratar de tais questões de grande importância por meio da legislação concorrencial não será capaz de abarcar a grande variedade de considerações que devem ser abrangidas, e irá se desviar do objetivo principal do direito concorrencial, o que resultaria na diluição do direito concorrencial e no enfraquecimento dos mecanismos protetivos em cada uma dessas importantes áreas.
De fato, a aplicação de uma legislação concorrencial forte pode até entrar em conflito com os objetivos de cada uma das áreas de foco descritas na consulta. Por exemplo, um empregador que aumenta salários e expande benefícios para os trabalhadores pode ser considerado um monopolista em mercados de trabalho, na medida em que atrai trabalhadores de seus concorrentes. O direito trabalhista veria com bons olhos melhores benefícios e salários para trabalhadores; no entanto, a aplicação do direito concorrencial poderia punir tal comportamento.
É importante estabelecer legislação robusta de segurança de dados e privacidade para garantia de todas as pessoas, incluindo menores, assim como para proteção da infraestrutura nacional. Também é importante estabelecer uma legislação resiliente sobre direitos de liberdade de expressão que sopese a sua importância ao mesmo tempo que leva em consideração a proteção aos direitos humanos (discurso de ódio, terrorismo, incitamento a tais comportamentos) e procedimentos eleitorais críticos. É crucial que se estabeleça leis ou guias que governem a integridade jornalística.
Contudo, qualquer atualização da legislação concorrencial brasileira ou eventual regulação deve ser aplicada igualmente a todos os agentes econômicos.
Subsidiar, contratar e investir em empresas nacionais não equivale a mitigar o risco para a soberania tecnológica do Brasil e leva a uma distorção da concorrência em detrimento dos consumidores. A introdução de um modelo regulatório que favorece um conjunto de prestadores em detrimento de outros, quer se trate de prestadores nacionais/domésticos ou quaisquer outros, leva a uma diminuição da concorrência no mérito, o que, em última análise, conduz a menos incentivos econômicos para competir. Esses regimes regulatórios prejudicam os agentes privados que, em sua ausência, seriam exitosos na oferta de bens e serviços inovadores de alta qualidade e a baixo preço aos consumidores, ao mesmo tempo que favorecem as empresas que não o fazem. A regulação deve, em vez disso, ser neutra e aplicada de forma igualitária para permitir a concorrência com base no mérito, incentivando os agentes privados a superarem-se mutuamente para conquistarem clientes, fornecendo produtos e serviços inovadores, de elevada qualidade, a baixo custo.
De forma similar, segurança nacional e resiliência em infraestrutura crítica são melhor apoiados por mercados altamente competitivos que recompensam empresas que competem no mérito, incluindo a habilidade de promover infraestrutura e soluções de dados altamente estáveis e seguros para consumidores, englobando governos nacionais e público geral. - Rodrigo Pereira 25/04/2023 às 19:47Concordo do a lista abaixo
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:21[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Sugere-se seguir o que estabelece a Lei n. 12.529/2011, que estrutura o Sistema Brasileiro de Defesa da Concorrência. De acordo com a norma, determinada empresa tem posição dominante da empresa quando detém participação de mercado igual ou maior a 20%.
Como as plataformas operam em vários setores, é importante que informem todas as atividades econômicas que desempenham no Brasil, bem como os produtos e serviços vendidos da forma mais desagregada possível, nos termos do Guia para Análise de Atos de Concentração Horizontal do Cade.
A venda casada de produtos e serviços também deve ser proibida, assim como a discriminação por preços, o que já está prevista na Lei n. 12.529/2011 como uma das possíveis condutas anticompetitivas. No ambiente digital, isso é importante também para evitar que o tratamento de dados leve ao aumento do preço cobrado para determinado cliente. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:28A lei da concorrência não deve tentar abordar outras áreas de foco de políticas públicas, incluindo privacidade, segurança de dados, tributação, infraestrutura crítica, trabalho e emprego, processos eleitorais, ameaças à democracia, direitos humanos, jornalismo, proteção infantil, entre outros. Cada uma dessas questões importantes pode talvez justificar suas próprias discussões sobre estruturas regulatórias e não devem ser incluídas ou consideradas no contexto da lei de concorrência ou regulação de “plataformas digitais”. Qualquer tentativa de abordar essas questões substanciais sob uma estrutura de lei de concorrência não abordará adequadamente a multiplicidade de considerações que devem ser abordadas e prejudicará o objetivo principal da lei de concorrência. Isso levará à diluição da lei de concorrência e à diminuição das proteções em cada uma dessas áreas importantes.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:34O direito da concorrência possui ferramentas que podem ser exercidas para um enforcement relevante em mercados digitais. Entretanto, o antitruste tradicional tem sido orientado pelos ditames da Escola de Chicago, orientado por critérios relacionados a preço e eficiência econômica. Tratando-se de plataformas digitais, porém, é necessário ter uma reflexão para atualização do ferramental antitruste, inclusive considerando outros fatores nas análises antitruste, como a realização de tratamento de dados pessoais de maneira exclusionária ou exploratória.
Essa análise pode ser realizada em alguns sentidos:
- considerando a privacidade e a proteção de dados como elementos de qualidade do produto ou serviço;
- considerar irregularidades no tratamento de dados pessoais como elemento comprobatório do exercício abusivo de posição dominante. Essa argumentação foi realizada pelo Bundeskartellamt, autoridade concorrencial alemã, quando da condenação do Facebook. Essa decisão foi sujeita a um recurso para um Tribunal Alemão e foi submetida à consulta pelo Tribunal de Justiça Europeu, que constatou que "[...] uma autoridade da concorrência [...] pode constatar, no âmbito do exame de um abuso de posição dominante por parte de uma empresa, [...] que as condições gerais de utilização dessa empresa relativas ao tratamento de dados pessoais e à sua aplicação não estão em conformidade com este regulamento, quando essa constatação seja necessária para demonstrar a existência de tal abuso, [...] [ainda que] a autoridade nacional da concorrência não se pode afastar de uma decisão da autoridade nacional [de proteção de dados] [...]" (§§ 63 e 64) [1]
- dentre outros
[1] TJUE. Acórdão do TJUE Processo C-252/21 (Facebook Alemanha - Bundeskartellamt). 04 jul. 2023. Disponível em: https://curia.europa.eu/juris/document/document_print.jsf?mode=lst&pageIndex=0&docid=275125&part=1&doclang=PT&text=&dir=&occ=first&cid=2086576. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:22A atual legislação concorrencial e o recurso às melhores práticas internacionais em sua aplicação já são capazes de remediar riscos associados à concentração de mercado e ao abuso de poder econômico. A aplicação de legislação concorrencial não deve ser ampliada para englobar questões tangenciais, incluindo a proteção da privacidade, devendo tais questões em vez disso ser tratadas em legislação de proteção de dados específica e abrangente. Há riscos substanciais à resiliência da legislação concorrencial caso autoridades e agências comecem a considerar fatores externos ao escopo do direito concorrencial ao avaliar danos competitivos e exercer suas competências para remediá-los.
- IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 19:00A consideração de outros fatores na avaliação de práticas anticoncorrenciais deve ser observada tendo em vista o modelo de análise adotado pelo SBDC. Neste sentido, a análise concorrencial realizada pelo Cade considera os efeitos líquidos do processo de concentração, avaliando os efeitos específicos de cada caso em particular e, posteriormente, determinando a existência ou não de condutas e ações anticompetitivas.
Neste sentido, o SBDC entende a concorrência como o instrumento que zela pelo bem-estar do consumidor por meio da consequente diminuição de preços, do incentivo à inovação e por proporcionar maior número de alternativas e maior qualidade de produtos e serviços. Sendo, dessa maneira, o bem-estar do consumidor o parâmetro para análise de eventuais práticas anticoncorrenciais. Deste modo, fatores como proteção à privacidade (e outros elementos) deveriam ser entendidos como elementos de qualidade já incorporados pelo modelo de análise de avaliação de efeitos concorrenciais focado na manutenção do bem-estar do consumidor.
Para casos em que tais fatores sejam elementos relevantes para a análise concorrencial, cabe, portanto, a utilização abrangente do ferramental já disponível a autoridade antitruste, não sendo explicitamente necessária a formulação de novos instrumentos regulatórios. É importante destacar, neste mesmo sentido, que ferramentas e iniciativas regulatórias podem e devem ser aplicadas – inclusive no contexto de "plataformas digitais”– na medida em que sejam identificadas falhas de mercado e assimetrias informacionais não endereçadas pelo instrumental de controle existente. Logo, pode haver espaço para a qualificação da intervenção antitruste na medida em que sejam considerados, estudados e avaliados os custos e impactos deste processo, a segurança jurídica da ação regulatória e dos mercados impactados e, fundamentalmente, os objetivos da política antitruste. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:28Há a necessidade de revisão dos critérios de avaliação das teorias do dano tradicionais aplicadas pelo antitruste tradicional, pautado nos pilares liberais da Escola de Chicago. Considerando a mudança da lógica de mercado trazida pelos mercado digitais, em que o poder econômico não é pautado apenas em critérios monetários, há a necessidade de que as teorias do antitruste aplicadas pelo SBDC sejam complementadas com teorias que não sejam baseadas apenas na manutenção do “consumer welfare standard” mas que considere critérios como proteção de dados, mercados de preço zero, qualidade dos serviços entre outros elementos.
- Alex Camacho Castilho 06/07/2023 às 14:02Considerar outros fatores, além dos tradicionais, na avaliação de práticas anticoncorrenciais, como a proteção à privacidade, pode ser uma medida importante para lidar com os riscos associados à concentração de mercado e ao abuso de poder econômico. Isso reconhece que a economia digital apresenta características e desafios únicos que precisam ser considerados na análise das práticas das plataformas digitais. A proteção à privacidade pode ser um desses fatores adicionais a serem considerados, garantindo que o tratamento de dados pessoais esteja em conformidade com as leis de privacidade e que as práticas das plataformas não prejudiquem a privacidade dos usuários.
- Leonardo Tavares de Almeida 04/05/2023 às 08:45Precisamente o que acho que precisa ser feito. Já temos uma sistemática para proteger a livre concorrência, então podemos muito bem usá-la
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:21[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Uma atualização da legislação anti-truste e de defesa da concorrência é fundamental para o tratamento das especificidades dos mercados digitais. Até lá, é fundamental que a regulação já em vigor no Brasil busque olhar para esses novos mercados a serem regulados no sentido de garantir os objetivos e princípios visados na regulação estabelecida para os demais setores.
Também deve-se atuar para evitar a operação coordenada de empresas. Nesse sentido, cumpre ter em vista o que estabelece o Guia para Análise de Atos de Concentração Horizontal: “caso verificada que a concentração aumenta o índice CR4 (market share agregado das 4 maiores empresas do mercado), tornando-o igual ou superior ao patamar de 75%, deve-se aprofundar a análise sobre a possibilidade de a operação permitir ou não exercício abusivo de poder coordenado”, o que deve motivar medidas de combate a esse tipo de operação. - Rodolfo Salema 16/07/2023 às 10:08Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Em que pese a Lei antitruste brasileira prever a hipótese de o CADE avocar e examinar operações societárias que não se enquadrem nos critérios objetivos da legislação para notificação prévia, tal previsão legal possui uma limitação temporal restritiva determinando que tal competência pode ser exercida apenas no período de um ano após a realização da operação, o que pode ser insuficiente para permitir que a autoridade identifique problemas decorrentes de uma transação e invoque sua análise.
Por outro lado, existem precedentes adotados pela autoridade concorrencial brasileira em que diante de múltiplos e sucessivos atos de concentração por parte de agentes dominantes em determinados setores, previu-se, eventualmente inclusive em Acordos de Controle de Concentrações, a proibição temporária de novas aquisições ou operações em determinados setores ou mercados (ex. Mercado de transporte de valores, mercado de cimento) ou mesmo a obrigação para agentes específicos de notificar previamente operações ainda que não subsumíveis aos critérios legais. Medidas dessa espécie poderiam ser cogitadas para as big techs. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:36Sugere-se a inserção de novos critérios alternativos aos já existentes de notificação de atos de concentração. Além disso, que o Cade seja menos leniente com concentrações potencialmente danosas - dado que é muito baixa a taxa de reprovação e até mesmo de negociação ou imposição de condicionantes para a aprovação da operação. Por exemplo, em 2022, dentre os 660 atos de concentração notificados, somente 6 foram aprovados com acordo em controle de concentrações (ACC), somente 1 foi aprovado com restrições unilaterais e nenhum foi reprovado [1]. Inclusive, nesse mesmo ano, foi aprovado o ato de concentração Microsoft/Activision, que está sendo questionado pela Federal Trade Commission nos Estados Unidos.
ATUAL CRITÉRIO DE NOTIFICAÇÃO
Atualmente, temos três critérios para notificação obrigatória, dispostos nos arts. 2º e 88 e seguintes da Lei nº 12.529/2012 (atualizados pela Portaria Interministerial 992/2012), complementados também por normas infralegais do Cade (em especial, o Regimento Interno do Cade e a Resolução Cade nº 33/2022)
(1) produção de efeitos ou potencialidade de produção de efeitos da operação no território brasileiro;
(2) tipo de operação societária (fusão, aquisição, incorporação, contrato associativo, consórcio ou joint venture, excluídos os de licitação)
(3) critério quantitativo, que atualmente é somente baseado no faturamento anual no Brasil das partes (R$750 milhões para uma parte e R$75 milhões para outro grupo econômico)
Por fim, o Cade também possui uma válvula de escape a esse terceiro critério: "Art. 88, §7º: é facultado ao Cade, no prazo de 1 (um) ano a contar da respectiva data de consumação, requerer a submissão dos atos de concentração que não se enquadrem no disposto neste artigo". Ressalta-se, entretanto, que esse dispositivo foi utilizado poucas vezes desde a entrada em vigor da Lei nº 12.529/2011 [2].
NECESSIDADES DE ALTERAÇÃO DO CRITÉRIO DE NOTIFICAÇÃO DE ATO DE CONCENTRAÇÃO E DE UTILIZAÇÃO DO ATUAL FERRAMENTAL
(I) Atualização e alternativas ao critério de faturamento bruto no Brasil: o critério de faturamento (1) está quantitativamente desatualizado, mas (2) também é insuficiente. Ainda que ele seja justamente o responsável por não abarcar operações relevantes em mercados digitais, ele também acaba fazendo com que operações não tão relevantes sejam notificadas para a autoridade, enquanto outras que seriam relevantes não o são. Desta maneira, é importante que se aumente o valor do faturamento disposto na Portaria Interministerial 992/2012 e/ou atualize-o anualmente, mas também que se atualize a legislação para que se tenham critérios alternativos ao de faturamento. Algumas possibilidades já existentes em outras legislações são: (i) faturamento global; (ii) faturamento conjunto das partes, (iii) quantidade de usuários (para mercados digitais), (iv) concentração de mercado resultante, dentre outros. Ressalta-se que esses critérios não são excludentes e nem adicionais ao de faturamento, mas é um critério alternativo que é importante que surja para abarcar operações que não podem ter sua complexidade medida nos atuais termos e, por esse motivo, acabam deixando passar importantes operações.
(II) Ressalta-se que, apesar dessa alteração ser necessária, os atuais critérios também podem ser melhor aproveitados. Em especial, com uma melhor utilização da válvula de escape do art. 88, §7º, para determinação da notificação de atos de concentração que não atinjam os atuais critérios de faturamento, mas que suscitam algumas preocupações, inclusive em termos de concentração de dados podendo gerar eventual abuso de poder econômico
(III) Obrigatoriedade de notificação de operações de gatekeepers: ainda, dentro de eventual regulação econômica, pode-se utilizar da inspiração europeia do DMA para obrigatoriedade de notificação de concentrações realizadas por gatekeepers "quando as entidades participantes da fusão ou o alvo da concentração fornecerem serviços de plataforma central ou quaisquer outros serviços no setor digital ou permitirem a coleta de dados"
OUTRAS REFORMAS NA NOTIFICAÇÃO DE ATOS DE CONCENTRAÇÃO
Além disso, é necessário:
- Fomentar maior participação social, com intervenções de terceiros interessados que não sejam somente do mercado afetado, mas também ;
- Sugere-se, também, a criação de uma Coordenação-geral de Análise Antitruste (CGAA) especializada no setor de tecnologia. Ainda que a CGAA-1 seja responsável por esse setor, sua competência está compartilhada com mercados de naturezas muito diversas (de agronegócio e de produtos diferenciados). Desta maneira, considerando as preocupações que esses mercados têm, a criação de uma Coordenadoria própria incentiva decisões cada vez mais aceleradas, técnicas, sofisticadas e pode propiciar maior diálogo com outros interessados, como o terceiro setor [3].
[1] CADE. Relatório Integrado de Gestão 2022. 2022. Pp. 58-61. Disponível em: https://cdn.cade.gov.br/Portal/acesso-a-informacao/Transpar%C3%AAncia%20e%20Presta%C3%A7%C3%A3o%20de%20Contas/2022/RIG_2022_Cade.pdf.
[2] MISALE, Guilherme; PROENÇA, José Marcelo. O (tímido) olhar acadêmico para o parágrafo 7º do Art. 88. Conjur. Mar. 2021. Disponível em: https://www.conjur.com.br/2021-mar-29/opiniao-olhar-academico-paragrafo-artigo-88-ldc.
[3] MOTTA, Lucas Griebeler da. Análise Multijurisdicional de Aquisições Centradas em Dados: diagnóstico atual e propostas de política pública para o Brasil. São Paulo: Associação Data Privacy Brasil de Pesquisa, 2021. Disponível em: https://www.dataprivacybr.org/documentos/analise-multijurisdicional-de-aquisicoes-centradas-em-dados-diagnostico-atual-e-propostas-de-politica-publica-para-o-brasil/. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:24Faturamento global e número de usuários não são indicativos de concentração de mercado e posição dominante. Esses são critérios arbitrários que, caso adotados, incentivariam os agentes privados a estagnar sua inovação e êxito a fim de evitar escrutínio regulatório. Em vez disso, a avaliação de posição dominante deve focar na análise de poder de mercado, indicado pela sua capacidade de controlar resultados competitivos e ditar preços. Essa análise leva em consideração o mercado relevante do produto ou serviço em que o agente opera, assim como a dinâmica competitiva desse mercado. O uso de quaisquer fatores arbitrários, como faturamento ou número de usuários, resultará em distorções na análise, e diminuirá os incentivos à inovação em prol dos consumidores por receio de captura regulatória. Agentes privados devem ser autorizados e encorajados a competirem e, portanto, devem ser avaliados de acordo com seus méritos.
- IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 19:01No sentido colocado pelo item, é possível discutir a revisão (ou adição de novos elementos) dos critérios de notificação em dois sentidos: (i) a revisão simples dos critérios existentes na análise do controle de estruturas, reduzindo os thresholds de modo a capturar novas fusões ou aquisições – no contexto das plataformas digitais o ponto central seria a análise de operações inferiores ao piso estabelecido pela de aquisição de players entrantes ou de tecnologias. (ii) Construção de instrumentos regulatórios assimétricos, em que agentes econômicos tornam-se objetos da regulação a partir de critérios como faturamento e quantidade de usuários, caso consagrado pela estruturação legal do DMA (Digital Markets Act) no âmbito do sistema de regulação concorrencial europeu.
Em relação ao primeiro ponto, cumpre destacar que, diferentemente de outras autoridades antitruste pelo mundo, o Cade já tem capacidade para análise de casos para além de seus dos critérios de submissão obrigatória, podendo discricionariamente avaliar operações em que entenda haver potencial de preocupação concorrencial, por meio do instituto da avocação (Art. 88, parágr. 7º da Lei 12.529/11). Neste sentido, este é mais um dos elementos em que o instrumental disponível para a autoridade concorrencial brasileira é bastante atualizado em relação à estruturação de outros reguladores, já havendo ferramentas que dão conta de possíveis questões e preocupações no contexto de qualquer empresa, incluindo plataformas digitais.
No tocante ao segundo ponto, destaca-se novamente que o ferramental brasileiro já cumpre parte das funções almejadas por modelos regulatórios como o DMA. Ainda assim, é importante pontuar novamente que, segundo o modelo de análise adotado pelo SBDC, elementos de concentração econômica não podem ser entendidos enquanto pontos de presunção de condutas anticompetitivas. A discussão em relação ao estabelecimento de modelos regulatórios é válida, mas é central – como já exposto em outros elementos da contribuição apresentada pelo IBRAC nos demais itens – a avaliação cuidadosa da necessidade de regulação (identificação objetiva de falhas de mercado) e dos custos e impactos possivelmente deletérios relacionados a possíveis novas iniciativas regulatórias. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:31Há a necessidade de complementariedade de critérios de notificação que não apenas os dispostos na Lei 12.529, pois, diversas operações de empresas que exercem relevante poder econômico no mercado brasileiro, não estão sendo submetidas à revisão do CADE em razão dos critérios de notificação não serem atingidos. Operações como a aquisição do Facebook pelo Whatsapp não foram revisadas pelo Conselho por esse motivo, ainda que o aplicativo de mensagens seja o principal utilizado no território nacional, com uso de dados de diversos brasileiros e que possua uma potencialidade de influência de poder econômico, os critérios legais não permitem a atuação do órgão. A regulação de plataformas deve abarcar a necessidade de notificações de operações de empresas que contemplem a sua relevância nos mercados digitais.
- Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:29Há a necessidade de complementariedade de critérios de notificação que não apenas os dispostos na Lei 12.529, pois, diversas operações de empresas que exercem relevante poder econômico no mercado brasileiro, não estão sendo submetidas à revisão do CADE em razão dos critérios de notificação não serem atingidos. Operações como a aquisição do Facebook pelo Whatsapp não foram revisadas pelo Conselho por esse motivo, ainda que o aplicativo de mensagens seja o principal utilizado no território nacional, com uso de dados de diversos brasileiros e que possua uma potencialidade de influência de poder econômico, os critérios legais não permitem a atuação do órgão. A regulação de plataformas deve abarcar a necessidade de notificações de operações de empresas que contemplem a sua relevância nos mercados digitais.
- Alex Camacho Castilho 06/07/2023 às 14:02A revisão dos critérios para a análise de atos de concentração, levando em conta as especificidades da economia digital, pode ser uma medida pertinente. Isso pode envolver a inclusão de critérios como quantidade de usuários ou faturamento global, que refletem a influência e a escala das plataformas digitais. Esses critérios podem fornecer uma visão mais precisa da posição dominante das empresas no ambiente digital e ajudar a identificar práticas anticompetitivas que possam surgir devido a essa posição.
- Leonardo Tavares de Almeida 04/05/2023 às 08:46Bem pontuado. Adequar métricas e indicadores para as proporções das grandes redes sociais
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:22[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo - Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 19:49Tal medida é importante não somente para mitigar riscos concorrenciais, mas também por ter impactos na capacidade de escolha dos usuários. O autopreferenciamento traz riscos similares aos do zero rating, influenciando o consumo de conteúdo dos usuários.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:12“Autopreferência” é um conceito muito amplo que se aplica a uma ampla gama de condutas comerciais tipicamente pró-competitivas. À medida que as empresas obtêm sucesso, elas se ramificam para outros mercados ou oferecem novos produtos e serviços. Este não é apenas um parâmetro importante da concorrência, é fundamental para a própria concorrência, pois a nova entrada é frequentemente a medida mais importante da concorrência.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:11“Autopreferência” é um conceito muito amplo que se aplica a uma ampla gama de condutas comerciais tipicamente pró-competitivas. À medida que as empresas obtêm sucesso, elas se ramificam para outros mercados ou oferecem novos produtos e serviços. Este não é apenas um parâmetro importante da concorrência, é fundamental para a própria concorrência, pois a nova entrada é frequentemente a medida mais importante da concorrência.
- Rodolfo Salema 16/07/2023 às 10:09Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Autopreferenciamento (self preferencing) é uma questão central na regulação das plataformas digitais – e, para dificultar sua análise e investigação, estas práticas nas plataformas digitais podem se dar de forma sutil (por exemplo, na manipulação dos leilões de publicidade digital no caso Google ad tech tools, ou programação algorítmica enviesada no caso Google Shopping, etc).
A maior parte das investigações antitruste por abuso de posição dominante em face de plataformas digitais dos últimos tempos envolvem acusações contra as big techs (Google, Amazon, Apple, Facebook, etc) por adotarem estratégias para transferir ou alavancar sua posição dominante de um mercado para outro, dentro de seus ecossistemas digitais. A condenação do Google no caso Google Search (Shopping) da Comissão Europeia levantou uma discussão sobre se a conduta do Google condenada estaria inaugurando uma nova forma de abuso de posição dominante específica para os mercados digitais – que geralmente é nomeado como autopreferenciamento, alavancagem abusiva ou tratamento diferenciado (ver FERNANDES, Victor Oliveira. Direito da Concorrência das Plataformas Digitais – entre abuso de poder econômico e inovação, 2022, pp. 352 e ss)
Para lidar com os desafios relacionados à identificação e mitigação destas condutas por parte das plataformas digitais dominantes, algumas jurisdições têm considerado a adoção de medidas regulatórias assimétricas nessa matéria. Um caso interessante é o Digital Markets Act da União Europeia, que estabelece obrigações ex ante aos gatekeepers (para detalhamento da definição de gatekeepers, ver contribuições acima), que inclui a proibição do self preferencing.
A disposição do Digital Markets Act ex ante é relevante pois as análises antitruste tradicionais admitiam a exceção de licitude com base em argumentações de geração de eficiências. Isto é, na apreciação a partir da regra da razão ou da teoria do ilícito pelos efeitos, condutas como self preferencing poderiam ser consideradas concorrencialmente lícitas caso estas apresentassem racionalidade econômica e o agente comprovasse efeitos competitivos líquidos positivos (geralmente, a partir de eficiências alocativas).
Contudo, o longo caminho conduzido pelas investigações antitruste com base na regra da razão (definição de mercado relevante, averiguação de posição dominante no mercado relevante afetado, análise de eficiências) não estaria apresentando respostas tempestivas e suficientes às condutas de autofavorecimento das plataformas digitais, de forma que passaram a ser vedadas previamente às plataformas digitais consideradas gatekeepers. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:30Para além do caso Google Shopping, o Cade também tem pendente de análise um procedimento administrativo (em fase de Procedimento Preparatório, ou seja, de análise se há competência do Cade no assunto) sobre o tema. O procedimento foi aberto pelo Superintendente Geral após denúncias de pessoas físicas e também pelo Senador Raldophe [2]. O procedimento trata de apuração de abuso de posição dominante das plataformas Google e Meta por supostamente utilizarem indevidamente suas plataformas para realizar campanhas em desfavor do PL 2630 [para defender os próprios interesses]. O processo também conta com ofício com contribuições da Senacon, que também analisa caso semelhante (contra a Google) do ponto de vista do direito do consumidor, que contou inclusive com emissão de medida cautelar [3].
[1] CADE. Cade abre investigação contra Google e Meta para apurar abuso de posição dominante nas discussões sobre o PL das Fake News
. 02 maio 2023. Disponível em: https://www.gov.br/cade/pt-br/assuntos/noticias/cade-abre-investigacao-contra-google-e-meta-para-apurar-abuso-de-posicao-dominante-nas-discussoes-sobre-o-pl-das-fake-news
[2] CADE. Procedimento Preparatório nº 08700.003089/2023-85. Disponível em: https://sei.cade.gov.br/sei/modulos/pesquisa/md_pesq_processo_exibir.php?1MQnTNkPQ_sX_bghfgNtnzTLgP9Ehbk5UOJvmzyesnbE-Rf6Pd6hBcedDS_xdwMQMK6_PgwPd2GFLljH0OLyFQRJBKyyt97aSMch_VP6nI3noMik2oHwMMG1ZOgV6EGw
[3] SECOM. Ministério da Justiça exige mudanças de divulgação do Google sobre o PL que trata da responsabilidade de big techs. 02 maio 2023. Disponível em: https://www.gov.br/secom/pt-br/assuntos/noticias/2023/05/ministerio-da-justica-exige-mudancas-de-divulgacao-do-google-sobre-o-pl-que-regula-acoes-de-big-techs. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 16:57O autopreferenciamento pode ocorrer enquanto favorecimento dos próprios produtos ou serviços numa plataforma digital. Esta alavancagem discriminatória está relacionada à verticalização ou à atuação em conglomerados e ecossistemas. Ao impulsionar seu poder em um mercado adjacente, em discriminação a concorrentes e parceiros comerciais, as plataformas digitais abusam de seu poder econômico.
Um dos principais exemplos do autopreferenciamento em plataformas digitais foi o caso Google Shopping. Na situação, a plataforma manipulava seu algoritmo de comparação de preços para favorecer sua própria ferramenta. Na União Europeia, a empresa foi multada em 2,4 bilhões de dólares, além da imposição de obrigações. Já no Brasil o caso foi investigado pelo Cade e arquivado por falta de provas. [1] Ainda, o caso Google Shopping influenciou diretamente no DMA, que proíbe esta conduta pelas plataformas classificadas como gatekeepers. Além disso, temos também casos relativos à Amazon, no comércio eletrônico [2].
Além de um abuso do poder econômico, o autopreferenciamento também pode acabar indicando prática abusiva nos termos do Código de Defesa do Consumidor, caso haja manipulação do livre arbítrio e a legítima expectativa dos consumidores ao utilizar-se do desconhecimento desses em relação à prática de autopreferenciamento.
Assim, com objetivo de mitigar os riscos do monopólio das plataformas e da verticalização das plataformas, a regulação de plataformas deverá vedar o autopreferenciamento, de forma semelhante ao DMA e ao American Innovation and Choice Online Act (AICO), projeto de lei que tramita nos EUA.
[1] Para mais informações, acesse: G1. Justiça europeia rejeita recurso do Google e mantém multa de 2,4 bilhões de euros. G1, 10 nov. 2021. Disponível em: Acesso em: 15/06/2023.
[2] KHAN, Lina. Amazon’s Antitrust Paradox. The Yale Law Journal, vol. 126, p. 710, 2016. Disponível em https://digitalcommons.law.yale.edu/cgi/viewcontent.cgi?article=5785&context=ylj. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:25“Autopreferenciamento” é um conceito muito amplo que se aplica a uma grande gama de condutas comerciais tipicamente pró-competitivas. No contexto do direito concorrencial, as atuais proibições no que diz respeito a condutas exclusionárias já se aplicam a riscos associados ao denominado autopreferenciamento, incluindo restrições de acesso a facilidades essenciais com o único objetivo de excluir concorrentes.
Uma proibição generalizada ao “autopreferenciamento” levará ao escrutínio de atividades empresariais altamente pró-competitivas e que beneficiam os consumidores, incluindo a comercialização, promoção e publicidade que dão aos consumidores visibilidade sobre produtos e serviços inovadores. Isso também desincentivaria novas entradas que promovem a concorrência, na medida em que os agentes privados estariam impedidos de promover produtos próprios. Por fim, isso forneceria incentivos contrários para que agentes privados que alcançaram economias de escala em, p. ex., entregas e outros serviços, passem a ofertar tais serviços a outros agentes do mercado, na medida em que qualquer uso de tais serviços poderia ser considerado “autopreferenciamento”, já que seria preferível manter tais serviços e as economias de escala a eles associadas apenas para uso próprio, de forma a evitar escrutínio regulatório. Este não é apenas um parâmetro importante de concorrência, é fundamental para a própria concorrência em si, pois a possibilidade de entrada de novos concorrentes é muitas vezes a medida mais importante da concorrência. - IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 19:02A discussão de autopreferenciamento (ou self-preferencing) ganhou relevância com os debates acerca de sua aplicação em plataformas digitais, nos quais uma plataforma favorece seus próprios produtos (ou de parceiros comerciais). No entanto, o self-preferencing é uma prática corriqueira em empresas tradicionais e em várias indústrias, desde montadoras de automóveis até farmácias e supermercados e, de fato, a análise relativa a autopreferenciamento nada mais do que uma análise sobre os efeitos de uma integração vertical.
A integração vertical é uma prática comercial comum, em inúmeras indústrias, na qual uma empresa atua em diferentes etapas da sua própria cadeia de valor. Essa prática permite que empresas tragam atividades terceirizadas para dentro de seus próprios processos, ofertem produtos e serviços internamente, melhorem sua cadeia de suprimentos, reduzam custos de produção e reduzam preços para o consumidor. A integração vertical também exerce pressão competitiva sobre outros concorrentes e contribui ainda mais para preços mais baixos. Uma empresa verticalmente integrada permite que outros negócios, muitos dos quais são pequenas ou médias empresas, não precisem se verticalizar. Isso permite que esses concorrentes concentrem seus esforços em suas atividades principais, utilizem serviços ofertados por empresas verticalmente integradas e aloquem seus recursos limitados de forma mais eficiente.
Por outro lado, em determinados casos a verticalização pode gerar efeitos anticompetitivos, como elevação de custos de rivais, discriminação e fechamento de mercado, como reconhecido em precedentes e doutrina antitruste.
Nesse contexto, embora a prática de autopreferenciamento tenha o potencial de gerar efeitos negativos à concorrência, estabelecer como premissa que todo autopreferenciamento seja prejudicial ao bem-estar do consumidor desconsidera que a verticalização dos agentes econômicos pode resultar em importantes eficiências capazes de reduzir custos de transação, aumentar o número de alternativas disponíveis para o consumidor e fomentar a inovação. O próprio Cade já reconheceu possíveis efeitos positivos do autopreferenciamento, tais como (i) aumento do total de vendas no mercado; (ii) recuperação dos investimentos realizados; e (iii) diminuição da possibilidade de colusão (ao dificultar o monitoramento do mercado e a detecção de desvios a eventual acordo) (nesse sentido, vide, por exemplo, voto do Conselheiro Relator Luiz Hoffmann no AC n. 08700.003959/2022-35).
Desta forma, o papel das autoridades competentes – no caso, o Cade – é estabelecer as diretrizes de análise da prática anticompetitiva e coibir eventuais abusos. A Lei nº 12.529/11 já estabelece parâmetros amplos o suficiente para permitir a intervenção sobre diferentes tipos de condutas e setores, incluindo o autopreferenciamento em plataformas digitais. Neste sentido, o Cade indicou que as condutas de autopreferenciamento devem ser analisadas a partir de uma série de fatores, incluindo (i) a existência de poder de mercado por parte da empresa verticalizada; (ii) as características dos mercados envolvidos (e.g., rivalidade; barreiras à entrada; existência de substitutos e alternativas aos clientes; poder de barganha dos clientes; switching costs); (iii) os incentivos para promover o fechamento do mercado; e (iv) os efeitos concorrenciais negativos no caso concreto.
Por fim, também é oportuno reiterar que a mera detenção de poder de mercado por uma empresa (as “grandes plataformas” mencionadas no enunciado) não faz dela, por si só, uma violadora da legislação antitruste dada a necessidade de avaliação caso a caso dos efeitos líquidos da conduta ou processo de concentração. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:33O autopreferenciamento faz com que as plataformas digitais concentrem mais em si mesmas os serviços que elas oferecem, reduzindo a competitividade de outros agentes no mercado oferecerem os seus serviços, além de centralizar a o modo de funcionamento de um serviço em sua própria lógica de mercado.
- Alex Camacho Castilho 06/07/2023 às 14:03A proibição de formas de autopreferenciamento por parte das grandes plataformas pode ser uma medida importante para promover a concorrência justa e garantir a igualdade de oportunidades para os concorrentes. Isso significa impedir que as plataformas privilegiem seus próprios produtos ou serviços em detrimento dos de terceiros, garantindo assim um ambiente competitivo em que os usuários tenham acesso a uma ampla variedade de opções.
- Leonardo Tavares de Almeida 04/05/2023 às 08:47Isso deve ser considerado predatório e abusivo, visto que as plataformas não possuem caráter jornalístico e não podem dar preferência a conteúdos específicos com base em interesses privados da própria plataforma, considerando-se a igualdade, a publicidade e o livre acesso à informação em plataformas inerentemente gratuitas de busca de conteúdo.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:22[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A participação de mercado deve ser limitada, tanto de forma horizontal quanto vertical, de modo a evitar a conformação de monopólios e oligopólios, seja na camada de infraestrutura ou na de aplicações. Tanto em situações em que já se verifica forte concentração quanto em novos setores, é fundamental que sejam desenvolvidas políticas para estimular a participação de agentes com características e objetivos diversos, a partir do poder público, que também deve participar do provimento de serviços digitais.
A aferição da participação dos agentes nos diferentes setores deve ser periódica e avaliada por órgão regulador, pois a dinamicidade dos mercados digitais pode impactar a velocidade do crescimento das empresas (vide o caso da nova rede social Threads). - José Antonio Galhardo 16/07/2023 às 10:43Acho que ao invés de pensar em limitar, o que precisa ser feito é atualizar a metodologias de análise dos casos antitruste e de práticas anticompetitivas do Cade para a estrutura de negócios em rede das plataformas baseada em dados. E o que a regulação precisaria prever é o poder do Cade, talvez em conjunto com a agência especializada que vier a ser criada, em avaliar caso a caso a possibilidade de impedir uma fusão ou aquisição, ou determinar a venda de parte do negócio em razão do prejuízo da verticalização, cuja decisão deve estar baseada em sólida análise econômica que avalie os benefícios para os consumidores que podem ser perdidos com a eventual economia de escala que justifique a verticalização.
- Rodolfo Salema 16/07/2023 às 10:10Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Embora integrações verticais, do ponto de vista econômico antitruste tradicional, possam ser admitidas como eficientes, é fato que já existe no Brasil legislação e regulação setorial em determinados mercados que limitam ou impedem certas verticalizações. Os exemplos evidentes são a Lei do Serviço de Acesso Condicionado - SeAC (TV por assinatura) que impede que operadoras de telecomunicações ou de serviço de acesso condicionado possuam controle ou participação societária superior a 30% em produtoras ou programadoras de conteúdo audiovisual e a Portaria ANP nº 41/2023 que impede que distribuidoras de combustíveis sejam sócias de postos revendedores de combustíveis. Ou seja: argumentos genéricos e abstratos em defesa da liberdade de iniciativa, no caso concreto das plataformas digitais big techs, revelam novamente subterfúgio para se evitar regulação voltada a lidar com riscos e prejuízos concretos.
Com efeito, como já mencionado, a experiência internacional recente demonstra diversas possibilidades de limitações na verticalização ex post como soluções para problemas identificados em estudos setoriais (CMA anunciando que buscará medidas para cisão da divisão de publicidade digital do Google) e também em investigações de condutas anticompetitivas (US Departament of Justice, Comissão Europeia e outras autoridades solicitando a separação da divisão de publicidade digital do Google em que dominam não apenas o segmento específico em que opera sua ad exchange, mas também a Demand-Side Platform por meio do Double Click for Publishers e as Supply-Side Platform como o GoogleAds e o Vídeo360, como potenciais medidas ou remédios para reverter a situação de dominância atual. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 17:01A atuação em conglomerado ou verticalização, que se caracteriza pela prestação de mais de um serviço/produtos de forma complementar, deve ter atenção especial na regulação econômica de plataformas digitais. São exemplos da atuação em conglomerado: (i) fornecer anúncios e também ser uma rede social; (ii) ter um restaurante e também ser uma plataforma de entregas para terceiros e (iii) ter um marketplace e também vender produtos próprios.
O modelo de negócios das plataformas digitais se caracteriza pela coleta de dados pessoais para exploração econômica, logo a atuação em mercados verticalmente relacionados (ou melhor, em conglomerado ou ecossistema) tende a alavancar a atuação da plataforma, gerando riscos à economia digital, como já abordado na questão relativa ao compartilhamento de dados. Ainda, é importante considerar que as aquisições centradas em dados, vão além das verticais e horizontais que orientam as análises do antitruste clássico. A atuação em conglomerado das plataformas digitais é “transversal” ou mesmo “pulverizada”, podendo ser observada também em mercados não intuitivos.
A verticalização por si só não necessariamente precisa ser proibida, mas os efeitos e as preocupações na atuação verticalizada, em conglomerado ou ecossistema têm que ser analisadas no caso-a-caso. Nesse sentido, recomenda-se:
no âmbito concorrencial, a revisão dos critérios de notificação dos atos de concentração;
no âmbito regulatório, a determinação da obrigatoriedade da notificação de atos de concentração das plataformas reguladas, em especial àquelas já mais concentradas;
em alguns casos, a determinação do unbundling, como proposto pela Article 19 [1]
no mínimo, a limitação de favorecimento e de compartilhamento de dados entre empresas de um mesmo grupo econômico;
[1] ARTICLE 19. Taming Big Tech: a pro-competitive solution to protect free expression. Article 19, 2021. Disponível em: - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:27A atual legislação concorrencial e o recurso às melhores práticas internacionais dão às agências reguladoras o poder de remediar os problemas concorrenciais decorrentes da integração vertical.
A criação de limitações arbitrárias sobre quais agentes poderão ofertar determinados serviços, e de qual maneira, dará à administração pública a capacidade de escolher os vencedores e perdedores e limitará sobremaneira a liberdade econômica em detrimento da concorrência, incluindo o desincentivo a integrações empresariais que resultam em benefícios substanciais para os consumidores na forma de eficiências e de produtos e serviços complementares mais eficientes. Isso também diminuirá os incentivos para que as empresas inovem em favor dos consumidores. - IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 19:03A vedação geral e ex-ante de quaisquer iniciativas empresariais no sentido de verticalização (orgânica ou via aquisições) tende a gerar desestímulos a inovação por parte dos agentes econômicos. Como discutido em relação a outros dos pontos apresentados pelo IBRAC na presente Consulta Pública, a análise concorrencial empreendida por autoridades de todo o mundo – e também realizada no âmbito do SBDC – considera centralmente as especificidades da conduta observada, sendo necessária a avaliação de suas eficiências e efeitos líquidos para a determinação efetiva de seu caráter anticompetitivo.
Neste sentido, quaisquer iniciativas no sentido de limitação apriorística de práticas empresariais devem ser acompanhadas de robustos estudos e evidências que demonstrem consequências positivas ao bem-estar do consumidor. Também resta ausente uma definição clara acerca das infraestruturas-chave citadas, cuja identificação é imprescindível a qualquer política pública que venha a ser adotada para as “plataformas digitais”. - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:34A regulação deve considerar a necessidade de separar as empresas de tecnologia por segregação de serviços, como por exemplo, os serviços de curadoria e hospedagem de conteúdo. A unificação desses agentes em um único canal faz com que os serviços fiquem centralizados em poucos agentes, reduzindo a competitividade e o leque de opções dos consumidores.
- Alex Camacho Castilho 06/07/2023 às 14:03Limitar verticalizações em infraestruturas-chave: A limitação das verticalizações em infraestruturas-chave, em que outros agentes e mercados dependem das condições estabelecidas pela plataforma dominante, pode ajudar a evitar o abuso de poder econômico. Essa medida busca evitar que as plataformas dominantes exerçam controle excessivo em diferentes camadas do mercado, garantindo a separação de agentes e atividades para promover a competição justa e a inovação.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:22[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:14Conforme declarado acima, acreditamos que as amplas ferramentas antitruste já disponíveis no Brasil são suficientes para lidar com as questões antitruste nos chamados mercados digitais. Por exemplo, o artigo 36 da Lei de Concorrência do Brasil (12.529/2011) confere amplos poderes ao Conselho Administrativo de Defesa Econômica (CADE) para regulamentar atos que tenham por objetivo ou possam ter por efeito limitar ou restringir a livre concorrência.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:12Conforme declarado acima, acreditamos que as amplas ferramentas antitruste já disponíveis no Brasil são suficientes para lidar com as questões antitruste nos chamados mercados digitais. Por exemplo, o artigo 36 da Lei de Concorrência do Brasil (12.529/2011) confere amplos poderes ao Conselho Administrativo de Defesa Econômica (CADE) para regulamentar atos que tenham por objetivo ou possam ter por efeito limitar ou restringir a livre concorrência.
- Rodolfo Salema 16/07/2023 às 10:11Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
O arranjo anticompetitivo entre sistemas operacionais, lojas de aplicativos e meios de pagamento está sendo investigado de diversas formas por diversas autoridades, inclusive no Brasil.
O CADE abriu inquérito administrativo para avaliar condutas anticompetitivas da Apple envolvendo o mercado de distribuição de aplicativos para dispositivos com sistema iOS – impedindo a distribuição de aplicativos de terceiros e restringindo a utilização de outros sistemas de pagamentos em sua app store e nas compras in-app. O CADE também abriu inquérito administrativo contra o Google para investigar acordos que este tenha realizado com fabricantes de dispositivos móveis e operadoras de redes móveis para alavancar a posição dominante do Google Android.
No exterior, existem diversas investigações, que podem ser agrupadas em: (i) questões anticompetitivas envolvendo os sistemas operacionais Android e iOS e navegadores da web – como o processo do UK CMA nomeado “Apple and Google hold all the cards” e o processo do DOJ e mais 15 Estados contra o Google por questões envolvendo Android e o Chrome; (ii) questões anticompetitivas envolvendo lojas de aplicativos e meios de pagamentos – como os casos do CADE, Comissão Europeia, UK CMA, CMA da Holanda envolvendo a Google Play Store, Apple App Store, Apple Pay etc.
Um exemplo de regulação ex ante que segue nessa linha é o da Coreia do Sul, que promulgou uma lei que obriga Apple e Google a abrir suas app stores para sistemas de pagamentos alternativos. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:28A atual legislação concorrencial e o recurso às melhores práticas internacionais em sua aplicação já são capazes de remediar riscos associados à concentração de mercado e ao abuso de poder econômico, enquanto fomentam a concorrência, a inovação e o crescimento dos mercados.
- IBRAC Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (comentário inserido por: Bruno de Lucca Drago) 14/07/2023 às 19:03Tal qual apontado pelas contribuições do IBRAC no âmbito de outros itens da presente Consulta Pública, elementos de concentração econômica não são suficientes, por si só, para o estabelecimento de condutas necessariamente anticompetitivas. Neste sentido, a possibilidade de abuso de posição dominante deve ser discutida a partir da avaliação específica da conduta, podendo haver prejuízos para a inovação e concorrência no estabelecimento de regras apriorísticas que desconsiderem a complexidade dos segmentos regulados, a heterogeneidade dos modelos de negócios das plataformas impactadas e as particularidades e interesses dos mercados e agentes afetados pela atuação da plataforma (e a competição entre elas).
Tendo em vista seu potencial lesivo ao ambiente competitivo e aos consumidores, o abuso de posição dominante já é reprimido e previsto enquanto infração econômica na Lei 12.529 (artigo 36, IV). De fato, o termo “grandes plataformas” deve ser definido uma vez que, como já destacado, elementos de concentração econômica não implicam abusos de posição dominante ou infrações econômicas.
Desse modo, ainda que seja fundamental destacar que a atual estruturação do SBDC já dê conta da análise de condutas possivelmente anticompetitivas, regras comportamentais, como por exemplo obrigações que impeçam a discriminação injustificada por parte de plataformas e ou detentores de determinados serviços digitais, podem ser bem-vindas enquanto ferramentas para permitir a interação plena e saudável entre os diferentes lados do mercado. No entanto, destaca-se que obrigações genéricas de tratamento não-discriminatório também podem trazer consigo impactos negativos à inovação e gerar perdas competitivas ao elevar a uniformidade no mercado (Crémer, de Montjoye e Schweitzer (n 10) pg. 69). - Artigo 19 (comentário inserido por: Gabrielle Graça de Farias) 14/07/2023 às 17:35É imprescindível a definição de melhores regras de promoção de competitividade dentro dos aspectos negociais de aquisições e movimentações empresariais de plataformas, abarcadas pelo direito antitruste. Hoje, o antitruste tradicional (Escola de Chicago) não é capaz de mensurar e atuar dentro de casos que interferem no ambiente concorrencial envolvendo os mercados digitais em razão da desatualização dos instrumentos de investigação e repressão de condutas anticompetitivas. As tipificações tradicionais, as penalidades e meios de prova admitidos nas investigações de abuso de posição dominante devem ser atualizados considerando novas teorias do dano (como testes baseados em critérios de qualidade em detrimento de preço) para que as “lentes” do antitruste sejam adaptadas para realidade dos mercados digitais.
- Alex Camacho Castilho 06/07/2023 às 14:03Definir regras para evitar o abuso de posição dominante nas negociações com desenvolvedores dependentes: É importante estabelecer regras que impeçam o abuso de posição dominante por parte das grandes plataformas nas negociações com desenvolvedores que dependem de sua estrutura, como lojas de aplicativos. Essas regras podem incluir transparência nas políticas de negociação, garantia de condições justas e não discriminatórias, e mecanismos para resolver disputas de maneira equitativa.
- Leonardo Tavares de Almeida 04/05/2023 às 08:50Sou contra a intervenção em lojas de aplicativos, visto que fazem parte dos produtos criados pelos fabricantes e portanto sobre os quais entendo que eles podem ter poder de moderação e controle de conteúdo. Obriga-los a disponibilizar qualquer conteúdo pode representar uma ameaça severamente maior do que o risco de se ter apenas uma loja de aplicativos.
- EFF (comentário inserido por: Electronic Frontier Foundation) 16/07/2023 às 22:12Atualmente, a maioria dos elementos de nossas experiências on-line é projetada e regulada por grandes plataformas, que têm um poder de mercado significativo. Elas atuam como “gatekeepers” da maioria de nossas interações sociais, econômicas e políticas on-line. As plataformas são poderosas e seu poder vem de muitas fontes: a maioria das grandes empresas de tecnologia atuais tem um histórico de sufocar os concorrentes por meio de medidas técnicas, demandas judiciais estratégicas e aquisições de concorrentes. Com o tempo, as grandes plataformas se consolidaram por meio de efeitos de rede, de seu tamanho e dos recursos significativos à sua disposição. Isso é reforçado por regulações que, muitas vezes, tornam-se difíceis ou caras demais para serem implementadas por concorrentes menores. O resultado: os usuários se tornam reféns, presos em um labirinto de jardins murados.
Uma resposta importante para isso se inspira nos primórdios da Internet. O surgimento de muitos dos principais agentes econômicos de hoje foi auxiliado pela interoperabilidade, ou seja, a capacidade de fazer com que um novo produto ou serviço funcione com um produto ou serviço existente. Os atuais operadores dominantes fizeram fortuna construindo suas novas ideias em cima de produtos ou estruturas já existentes, criando assim uma interoperabilidade muitas vezes contra a vontade dos então operadores dominantes [1]. Nos primórdios da Internet, não apenas novas empresas e participantes do mercado floresceram, mas também usuárias e usuários tiveram muito mais opções e controle sobre os serviços e produtos que criaram suas experiências on-line.
(i) Obrigações de interoperabilidade
A visão da EFF é de um regime jurídico que promova a inovação e que dê maiores instrumentos às pessoas para decidirem suas experiências on-line. Acreditamos que a interoperabilidade tem um papel importante a desempenhar para dar vida a essa visão, por isso propomos a avaliação de obrigações de interoperabilidade para plataformas com poder de mercado significativo, a partir das peculiaridades dos tipos de serviços e aplicações, habilitando que plataformas concorrentes e não tradicionais interoperem com seus principais recursos. A interoperabilidade se soma à portabilidade de dados pessoais para dar maior controle a usuárias e usuários.
A interoperabilidade por meio de interfaces técnicas permitiria que as pessoas se comunicassem com seus amigos além das fronteiras das plataformas, ou que pudessem acompanhar seu conteúdo favorito em diferentes plataformas sem precisar criar várias contas. Usuárias e usuários não seriam mais forçados a permanecer em uma plataforma que viola sua privacidade, coleta secretamente seus dados ou coloca em risco sua segurança, por medo de perder sua rede social.
(ii) Limitar o uso comercial dos dados
Para evitar a exploração da interoperabilidade, os dados disponibilizados por meio da interoperabilidade não devem ser disponibilizados para uso comercial geral. A maioria das grandes plataformas se baseia em modelos comerciais que dependem do tratamento de dados de usuários, monetizando assim a sua atenção e explorando seus dados pessoais. Portanto, os dados fornecidos para fins de interoperabilidade devem ser usados apenas para manter a interoperabilidade, proteger a privacidade dos usuários ou garantir a segurança dos dados. Ao proibir o uso comercial dos dados usados para implementar ou manter a interoperabilidade, também queremos dar incentivos positivos aos concorrentes com modelos de negócios inovadores, responsáveis e que protejam a privacidade.
(iii) Privacidade e proteção de dados
É essencial garantir instrumentos suficientes para que usuárias e usuários possam controlar como, quando, por que e com quem seus dados são compartilhados. Isso significa respeitar os princípios fundamentais que sustentam a Lei Geral de Proteção de Dados e outras normas aplicáveis, como princípio da necessidade, privacidade desde a concepção e privacidade por padrão. Isso também deve incluir interfaces fáceis de usar, por meio das quais os usuários podem dar seu consentimento explícito em relação a qualquer uso de seus dados (bem como revogar esse consentimento a qualquer momento).
(iv) Segurança
Os dados e as comunicações de usuárias e usuários devem também ser mantidos seguros. As medidas de interoperabilidade devem sempre se concentrar na segurança dos usuários e nunca devem ser interpretadas como um motivo para impedir que as plataformas façam esforços para manter suas usuárias e usuários seguros. Entretanto, se as plataformas tiverem que suspender a interoperabilidade para resolver problemas de segurança, elas não devem explorar essas situações para quebrar a interoperabilidade, mas sim comunicar a questão de forma transparente, resolver o problema e reestabelecer as interfaces de interoperabilidade em um prazo razoável e claramente definido.
(v) Documentação e não discriminação
Por fim, é fundamental garantir que a interoperabilidade não se torne uma ferramenta para que as plataformas dominantes atuem como “gatekeepers” e consolidem ainda mais sua posição dominante. É preciso promover maior diversidade e pluralidade na Internet. Nesse sentido, a interoperabilidade deve beneficiar o maior número possível de concorrentes. O acesso às interfaces de interoperabilidade não deve discriminar entre diferentes concorrentes e não deve ser acompanhado de obrigações desproporcionais ou restrições de conteúdo. As interfaces de interoperabilidade, como as APIs, também devem ser fáceis de encontrar, bem documentadas e transparentes.
[1] https://www.eff.org/deeplinks/2019/10/adversarial-interoperability
Recursos adicionais:
Interoperability: Fix the Internet, Not the Tech Companies - https://www.eff.org/deeplinks/2019/07/interoperability-fix-internet-not-tech-companies
Privacy Without Monopoly: Data Protection and Interoperability - https://www.eff.org/pt-br/node/104583
How to Ditch Facebook Without Losing Your Friends (Or Family, Customers or Communities) - https://www.eff.org/deeplinks/2022/09/how-ditch-facebook-without-losing-your-friends-or-family-customers-or-communities
- Everton Rodrigues 16/07/2023 às 22:071) Transparência e acesso a dados: Exigir que as plataformas forneçam maior transparência sobre seus algoritmos, práticas de coleta e uso de dados, permitindo aos usuários entender como suas informações são usadas e tomarem decisões informadas sobre sua participação na plataforma.
2) Portabilidade de dados: Garantir que os usuários tenham o direito de transferir seus dados de uma plataforma para outra, facilitando a mudança entre diferentes serviços e promovendo a concorrência.
3) Auditoria: Estabelecer mecanismos de auditoria independentes para verificar o cumprimento das regras e regulamentações pelas plataformas, garantindo que elas não abusem de seu poder econômico.
4) Proteção do consumidor: Reforçar as regulamentações de proteção ao consumidor, assegurando que os usuários tenham informações nítidas sobre seus direitos, políticas de privacidade, funcionamento dos algorítmos, termos de uso. - INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:52Há um debate em curso sobre o poder alcançado pelas plataformas quanto a sua capacidade de influenciar a opinião pública. Este debate não é recente, vem sendo realizado há pelos menos uma década. Atualmente já se fala não apenas em “influencia da opinião pública”, mas no fato de as plataformas terem se tornado a própria esfera pública mediada por dispositivos tecnológicos. Neste cenário, é preciso não apenas constituir regras mais rígidas para evitar a consolidação de monopólios digitais, como também repensar a própria inserção destas plataformas nas democracias. Por isso, é urgente reconhecer as plataformas e aplicações de serviços não apenas como entes privados, mas como entes privados que ofertam um serviço de interesse público. E partir deste entendimento, produzir regulações que sejam condizentes com princípios e obrigações compatíveis com a oferta do serviço público, tal qual acontece em outros setores como transporte, telefonia, estabelecendo regras mais contundentes, inclusive, diversidade de players neste mercado, limites de alcance de usuários e de audiência.
De modo mais singular, uma alternativa para mitigação dos riscos associados à concentração de mercado e ao abuso de poder econômico, seria expandir o entendimento sobre propriedade cruzada e impedir o cruzamento de propriedade também das empresas de mídia e tecnologia, as chamadas Big Techs. Na prática, isso significaria criar regras para impedir que o mesmo conglomerado opere, por exemplo, serviços de mensageria, redes sociais, buscadores, serviços de e-mail, etc. Cada serviço deste seria, portanto, ofertado por empresas diferentes, que ficariam impedidas de formar grandes holdings para compartilhamento de capital e de base de dados/usuários.
Mas existem outras possibilidades de mitigação. O Marco Civil da Internet (Lei nº 12965/2014) estabeleceu a Internet como serviço essencial para garantia da cidadania. A garantia do provimento do acesso qualificado à internet é sem dúvidas um elemento que deve ser considerado. E isso, implica dizer, por exemplo, que deve ser PROIBIDA qualquer tentativa de vincular provimento de acesso à internet com empresas que ofertam plataformas, como acontece no chamado zero hating, quando acordos entre operadoras de internet e plataformas oferta uso ‘gratuito’ de dados para alguns serviços. Esta proibição deve se estender também sobre as possíveis vinculações entre empresa de infraestrutura de provimento de internet e empresa de oferta de serviços na camada de aplicação. É de conhecimento público que internacionalmente as Big Techs avançam sobre o mercado de infraestrutura de provimento, havendo diferentes consórcios internacionais sobre as estruturas de cabos submarinos. Mas é preciso pensar em regras para limitar esta vinculação em território nacional e a chegada da Starlink no Brasil lança luz sobre a necessidade desta proibição. Outra abordagem interessante vem sendo amadurecida pela Artigo 19 no Brasil sobre separação das plataformas em dois serviços distintos: servidor de conteúdo e curador de conteúdo. Esta separação possibilitaria, por exemplo, a desvinculação da publicidade ao serviço de hospedagem e junto com a segregação de dados e o impedimento de que uma mesma empresa controle ambos os serviços, poderia ser uma alternativa para dar mais poder de decisão ao usuário. - Rodolfo Salema 16/07/2023 às 10:12Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Devido à dependência de diferentes players e setores em relação às big techs, em que efetivas negociações não se realizam com alta assimetria em termos de poder de barganha, uma medida importante eventualmente de mitigação de riscos seria a adoção de previsão expressa de obrigatoriedade de negociação, por exemplo, de tais players com sites jornalísticos ou produtores de conteúdo quanto à remuneração por utilização de seus conteúdos, por um período específico e determinado, com introdução de mecanismos alternativos de solução de controvérsias como mediação ou arbitragem para resolver eventuais impasses ou intransigências negociais. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 17:07- Maior cooperação da autoridade concorrencial com autoridades de proteção de dados e de defesa de consumidores;
- Maior cooperação com autoridades estrangeiras (benchmarking e cooperação em casos concretos);
- Considerar que algumas práticas vem sendo realizadas somente em países do Sul Global e que precisamos endereçá-las considerando a realidade local (ex: políticas de privacidade menos protetivas no Brasil do que na União Europeia);
- Avaliar considerações sobre soberania tecnológica do Brasil também; - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:22A contratação de plataformas educacionais pelo poder público deve obedecer critérios como o estímulo ao desenvolvimento de modelos alternativos, o cooperativismo de plataforma, a infraestrutura nacional e o respeito aos direitos da criança. Ressaltamos que a adoção de plataformas digitais internacionais e de Big Techs para prestação de serviços educacionais pode gerar efeito de feedback, tornando os usuários mais habituados à utilização dessas plataformas e escolhendo-as em seu dia a dia.
- Tarcizio Silva 14/07/2023 às 12:08É preciso levar também em conta como a concentração de mercado e abuso de poder das plataformas prejudica a evolução do ecossistema midiático brasileiro - incluindo a necessária diversificação de temáticas e populações não só na representação mas também na propriedade e gestão. Como apontado pelo prof. doutor Paulo Victor Melo, “diversidade não apenas na representatividade em tela, mas também na propriedade de mídia, na gestão da comunicação pública, na governança da internet e nas instâncias de fiscalização da radiodifusão” (Fonte: Ideias para um programa preto nas comunicações no Brasil, publicado na CartaCapital em 01 Dez. 2022).
O Brasil não alcançou níveis de evolução do ecossistema midiático e jornalístico capaz de avançar as demandas sociais, políticas e econômicas do país. A transformação da oferta de veículos digitais capitaneada pelas plataformas as posicionou em condições desleais de oferta de mídia e publicidade hipersegmentada relativamente barata, sem considerações sobre qualidade do conteúdo e caráter estratégico para a soberania do país. Neste sentido, as medidas de mitigação dos problemas das plataformas quanto à concentração de mercado e abuso de poder econômico devem buscar fomentar mídias alternativas, regionais e populares. - Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:53No entender da ABRANET, outras medidas de mitigação para riscos associados à concentração de mercado e ao abuso de poder econômico que podem ser consideradas são: (i) a separação estrutural de atividades; (ii) a eliminação de cláusulas de exclusividade de fato ou de direito que estejam sendo utilizadas; e (iii) a garantia de acesso não discriminatório a infraestruturas críticas por concorrentes.
No que tange à possibilidade de separação estrutural de atividades enquanto medida mitigadora, é preciso destacar o comportamento de algumas plataformas digitais de estruturar ecossistemas – conjuntos de serviços, sendo alguns deles complementares, que se ligam entre si através de APIs privadas, as quais são acessíveis apenas a serviços do mesmo ecossistema – por vezes vinculados ainda em uma relação de especificidade entre hardware e software. Nesse sentido e para fins ilustrativos, quando se compra um smartfone hoje em dia, o consumidor se insere nas possibilidades de em um vasto ecossistema, que inclui não apenas sistema operacional, marketplace de aplicativos, sistema de pagamento e serviço de armazenamento em nuvem, mas também uma variedade de aplicativos inteligentes para uso doméstico – viabilizados pela Internet das Coisas – e outros dispositivos. Na mesma linha, o acesso a determinadas plataformas digitais viabiliza atividades tão díspares como assistir vídeos, mandar e-mails, jogar jogos, armazenar arquivos online, acessar mapas e comunicar-se virtualmente. O ecossistema é exatamente essa rede de possibilidades, oferecida de forma integrada por uma determinada plataforma digital.
É possível que a formação e o funcionamento dos ecossistemas sejam geradores de eficiências, diante das economias de escopo que podem surgir a partir da prestação de uma determinada atividade. Contudo, também é possível que os ecossistemas criem ou reforcem tendências à monopolização dos mercados de plataformas digitais, ao dificultar o uso simultâneo de serviços e/ou dispositivos de diversos agentes de mercado. Isso porque os ecossistemas digitais poderiam suscitar efeitos de lock-in, amarrando seus usuários à utilização de funcionalidades vinculadas apenas ao respectivo conjunto integrado de serviços e produtos que forma um determinado ecossistema. Diante disso, haveria um deslocamento do nível de concorrência nos respectivos mercados afetados: da concorrência entre agentes em cada um destes mercados para a concorrência entre ecossistemas, agregadores de agentes de diversos mercados.
Nesse sentido, aumentam-se os custos de troca para que o usuário passe a usar um aplicativo ou dispositivo diferente, na medida em que tal escolha implica em abandonar ecossistema já em uso e integrar todo um novo conjunto de serviços e funcionalidades. Este ônus dificulta a competição no mérito entre concorrentes a nível de cada mercado afetado pelo ecossistema – isso porque, a despeito da possibilidade de um agente de mercado oferecer um melhor serviço em determinado mercado, o consumidor precisa considerar a migração para este novo serviço ou dispositivo “no agregado”, dado os efeitos de lock-in do ecossistema que já utiliza. Diminui-se, portanto, a contestabilidade das posições de mercado das empresas incumbentes.
A separação estrutural de atividades ora sugerida pela ABRANET, enquanto medida mitigadora, é exatamente para endereçar esse tipo de risco. Verificados no caso concreto os efeitos deletérios da operação de determinado ecossistema, seria possível determinar a sua fragmentação, garantindo-se a contestabilidade dos mercados que antes eram afetados – e dominados – pela sua existência. Importa neste ponto também indicar que a separação estrutural de atividades já é medida prevista no rol de ações possíveis pela autoridade concorrencial brasileira, o Conselho Administrativo de Defesa Econômica (“Cade”) – fundamentalmente no controle de estruturas, conforme previsto no artigo 61 da Lei 12.529/2011. Dessa forma, a previsão de medida mitigadora similar no contexto da regulação de plataformas digitais, que ora se debate, não inovaria radicalmente no compêndio de remédios que podem ser empregados para lidar com questões de concentração de mercado e abuso de poder econômico no ordenamento brasileiro, o que pode facilitar a sua inclusão nesta iniciativa regulatória.
Uma segunda medida mitigadora vista pela ABRANET como pertinente é a eliminação de cláusulas de exclusividade de fato ou de direito que estejam sendo utilizadas. Novamente, tal medida já faz parte do conjunto de remédios amplamente considerados no país como possíveis para endereçar problemas concorrenciais, pelo que não implicariam em vasta reordenação do ordenamento brasileiro. Ilustrando esse ponto, recentemente o Tribunal do Cade celebrou um Termo de Compromisso de Cessação (“TCC”) com a empresa iFood. O acordo está relacionado ao inquérito administrativo que apura supostas infrações à ordem econômica no mercado nacional de marketplaces de delivery on-line de comida (Inquérito Administrativo nº 08700.004588/2020-47). De acordo com as investigações em curso, há indícios de que o iFood estaria abusando de sua posição dominante, por meio da imposição de compromissos de exclusividade aos restaurantes cadastrados na plataforma. Tais condutas estariam elevando barreiras à entrada de novos concorrentes no mercado e teriam efeitos exclusionários. Para estimular a competição e melhorar o acesso de outros aplicativos a esse setor, o TCC firmado com o iFood possui cláusulas que impedem ou limitam a exigência de exclusividade em contratos firmados pela plataforma com restaurantes parceiros.
Outro acordo firmado pelo Cade na mesma linha diz respeito a inquérito administrativo que apura supostas infrações à ordem econômica no setor de plataformas digitais agregadoras de academias de ginástica no Brasil. Nesse caso (Inquérito Administrativo nº 08700.004136/2020-65), as investigações buscam avaliar se a Gympass estaria abusando de sua posição dominante no mercado, especialmente pela imposição de cláusulas de exclusividade com as academias integrantes da plataforma, bem como de outras cláusulas de favorecimento que permitiriam à Gympass controlar o preço mínimo praticado pelas academias cadastradas, balizando os preços praticados no segmento em território nacional.
Em relação às obrigações previstas neste TCC, tem-se a (i) proibição de cláusulas de exclusividade da Gympass com as academias – nesse caso, ficam limitadas à comprovação de eficiências econômicas e, no máximo, a 20% da sua base de academias em municípios ou zonas de municípios; (ii) proibição de cláusulas de favorecimento; (iii) proibição de cláusulas que impeçam que academias parceiras contratem, após o encerramento da parceria, com outras plataformas digitais agregadoras de academia e (iv) proibição de imposição de cláusulas de exclusividade para contratos com os clientes corporativos.
Os exemplos indicados apontam que cláusulas de exclusividade já têm sido reconhecidas como podendo suscitar problemas concorrenciais no contexto de mercados de plataformas digitais, pelo que a ABRANET sugere que essas conclusões embasem a regulação de plataformas digitais que ora se debate, de forma a prever como possível esse tipo de medida mitigadora – a eliminação de cláusulas desta natureza.
Por fim, uma terceira sugestão que a ABRANET entende importante apresentar – enquanto medida mitigadora para lidar com riscos associados à concentração de mercado e ao abuso de poder econômico em mercados de plataformas digitais – é a garantia de acesso não discriminatório a infraestruturas críticas por concorrentes. Esse tipo de medida não é desconhecido de esforços de regulação no contexto das plataformas digitais, o que pode facilitar com que seja incorporado à presente regulação que ora se debate.
De fato, o Digital Markets Act (“DMA”), regulação aprovada pela União Europeia em 2022 para disciplinar os mercados de plataformas digitais – fundamentalmente na figura das empresas com controle essencial de acesso, chamadas de “gatekeepers” – já prevê esse tipo de medida. Conforme consta em seu artigo 6(5), a empresa qualificada como gatekeeper não pode tratar mais favoravelmente – no que concerne à classificação e à indexação e rastreio conexos a esse ordenamento – os produtos e serviços oferecidos por ela própria, em detrimento de produtos ou serviços similares oferecidos por um terceiro. Deve o gatekeeper aplicar condições transparentes, justas e não discriminatórias para elaborar essa classificação. A preocupação do DMA aqui é evitar práticas de auto-preferenciamento que podem acontecer, haja vista que não é infrequente que gatekeepers sejam empresas verticalmente integradas. Ao oferecer seus produtos e serviços, os gatekeepers poderiam reservar para si mesmos condições mais vantajosas de classificação na plataforma, abusando de sua posição de empresa com controle essencial de acesso para desequilibrar o jogo de mercado em prejuízo a seus concorrentes nessas outras atividades. É exatamente este tipo de preocupação que a ABRANET possui, pelo que sugere medida de teor semelhante para o regulamento brasileiro de plataformas digitais aqui em discussão. - Alex Camacho Castilho 06/07/2023 às 14:061. Separação estrutural: A separação estrutural envolve a divisão de empresas dominantes em entidades separadas, a fim de reduzir sua concentração de poder. Isso pode ser aplicado quando uma plataforma digital controla várias camadas da cadeia de valor, limitando assim a influência excessiva que ela pode exercer sobre os concorrentes e a competição. Essa medida visa promover a igualdade de oportunidades e a diversidade de provedores no mercado.
2. Acesso regulado aos dados: O acesso regulado aos dados permite que outras empresas e concorrentes tenham acesso a certos conjuntos de dados relevantes, que são controlados pelas plataformas dominantes. Isso ajuda a nivelar o campo de jogo e promover a competição justa, permitindo que empresas menores e novos entrantes tenham acesso a dados valiosos necessários para competir efetivamente.
3. Estabelecimento de normas de interoperabilidade: A definição de normas de interoperabilidade pode promover a concorrência e mitigar os riscos associados à concentração de mercado. Isso permite que diferentes plataformas se comuniquem e interajam de maneira eficiente, incentivando a competição, a escolha do usuário e a inovação. Normas técnicas abertas e compatíveis podem facilitar a entrada de novos concorrentes e a criação de ecossistemas mais dinâmicos.
4. Fortalecimento das agências reguladoras: O fortalecimento das agências reguladoras encarregadas da supervisão e aplicação das leis antitruste e de proteção da concorrência pode ser uma medida crucial para mitigar os riscos associados à concentração de mercado e ao abuso de poder econômico. Isso inclui fornecer recursos adequados, capacidade técnica e autoridade para investigar práticas anticompetitivas, impor penalidades e tomar medidas corretivas quando necessário.
5. Fomento à concorrência por meio de políticas de concorrência global: A cooperação internacional em políticas de concorrência pode ser uma medida eficaz para lidar com as preocupações de concentração e abuso de poder econômico em nível global. Esforços conjuntos entre países podem fortalecer a aplicação das leis antitruste, compartilhar informações e boas práticas, além de promover a convergência regulatória para garantir a concorrência justa no cenário internacional. - Gustavo Paiva 07/06/2023 às 09:42Complementando o item anterior, uma medida que considero muito positiva seria proibir o que a Apple faz no iPhone, impossibilitando a instalação de aplicativos que não venham da App Store oficial.
Na prática, isso se torna uma forma de controle de conteúdo. Aplicativos com conteúdo LGBT (e não precisa ser aplicativos de namoro, há também por exemplo jogos com conteúdo LGBT) frequentemente não conseguem entrar na App Store. Ao invés de entrar num debate dentro da política da empresa sobre qual tipo de conteúdo ela permite ou não e em que jurisdições, deveríamos combater diretamente o controle indevido que empresas como a Apple tem e exigir a permissibilidade de lojas de aplicativos diferentes, tal como o F-Droid para o Android.
Antes que se faça um argumento de que isso enfraqueceria a segurança do iOS de maneira inaceitável... Sejamos pragmáticos; será apenas uma pequena parcela de usuários que usaria esse recurso, um percentual muito baixo, tal qual ocorre com o F-Droid. Será insignificante para a Apple, porém será um percentual relevante, impactante e indispensável para desenvolvedores que hoje não tem como se adequar à política restritiva da Apple. - Rodrigo Pereira 11/07/2023 às 11:25Manter financiamentos, incentivos e editais sempre abertos para novas tecnologias "orgânicas" - não necessariamente digitais - para evitar que uma suposta revolução industrial desestimule a criatividade do engenho humano para necessidades importantes como educação, saúde, etc. É sempre perigoso manter recursos públicos a restrições de nicho, pois acaba favorecendo trustes donos dos meios de produção, concentrando recursos que deveriam ser democraticamente distributivos.
- ROSA VICARI 23/06/2023 às 15:45Em se tratando de tecnologia, a mitigação se faz com melhor tecnologia e não com a sua proibição.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:22[Contribuição do DiraCom - Direito à Comunicação e Democracia]
É fundamental que haja políticas públicas para o desenvolvimento de modelos alternativos às plataformas digitais privadas estadunidenses. Não obstante, tendo em vista o que ocorreu no setor de telecomunicações no Brasil, esses incentivos devem ser dados não às grandes empresas, mas especialmente àquelas de âmbito local. Além do tamanho, outros critérios devem ser considerados, como a relação com as comunidades em que atuam. É fundamental desnaturalizar a mercantilização da internet, com políticas que afirmem seu caráter como bem comum. - Alex Camacho Castilho 06/07/2023 às 14:09A garantia de prestação de assistência técnica e incentivos creditórios especiais pode ser uma medida relevante para mitigar os riscos associados ao desestímulo a modelos alternativos na economia de plataformas digitais. Essas medidas podem criar um ambiente propício para a criação, o desenvolvimento e a integração de modelos alternativos, promovendo a diversidade de opções e estimulando a inovação no setor.
A assistência técnica pode ser oferecida por meio de programas de apoio e orientação, como incubadoras de startups, centros de inovação ou aceleradoras. Esses programas podem fornecer recursos, conhecimentos especializados e mentoria para empreendedores que buscam desenvolver modelos alternativos de negócios em plataformas digitais. Além disso, a assistência técnica pode incluir a disponibilização de infraestrutura tecnológica e acesso a ferramentas e recursos necessários para o desenvolvimento desses modelos.
Os incentivos creditórios especiais também podem desempenhar um papel importante na promoção de modelos alternativos. Esses incentivos podem incluir linhas de crédito com condições favoráveis, como taxas de juros reduzidas ou prazos flexíveis de pagamento, direcionadas especificamente para empresas que estejam desenvolvendo ou integrando modelos alternativos de negócios em plataformas digitais. Isso pode ajudar a superar desafios financeiros e permitir que essas empresas inovadoras tenham acesso aos recursos necessários para competir no mercado.
Além dessas medidas, é importante promover um ambiente regulatório favorável que incentive a concorrência e evite barreiras desnecessárias à entrada de modelos alternativos. Isso pode incluir a revisão de regulamentações existentes para eliminar requisitos excessivamente onerosos ou desproporcionais para startups e empresas em estágio inicial, além do estabelecimento de políticas que incentivem a interoperabilidade e a portabilidade de dados entre plataformas, permitindo que modelos alternativos sejam facilmente integrados e ofereçam serviços competitivos.
Em suma, a garantia de assistência técnica e incentivos creditórios especiais, juntamente com um ambiente regulatório favorável, pode contribuir para a mitigação dos riscos associados ao desestímulo a modelos alternativos na economia de plataformas digitais, promovendo a diversidade, a inovação e a competição no setor. - Rodrigo Pereira 25/04/2023 às 19:48Exatamente, já comentado.
- Filipe Saraiva 16/07/2023 às 21:46Impedir o monopólio de redes sociais, como ocorre com a economia em geral.
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:23O direito à profissionalização (Art. 4º do ECA) e a educação para capacitação de mão de obra em um cenário de rápidas mudanças do trabalho, a fim de possibilitar uma economia criativa, produtora e de estímulo à invenção:
O cenário de plataformização tem agravado o cenário de desemprego estrutural. Nota-se, por exemplo, a rápida automatização do setor de serviços, a ampliação do uso de chatbots para atendimento ao cliente, a utilização de tradutores automáticos e a transformação rápida nas necessidades do mundo do trabalho. Ressaltamos que, nesse cenário, surgem oportunidades para novas profissões, inclusive na lógica de construção e prestação de serviços para plataformas. O fomento à diversificação da indústria nacional de plataformas, portanto, passa também por políticas educacionais que possam atender às demandas atuais e garantir mão de obra qualificada. Destacamos, ainda, que no contexto de plataformas e de novas perspectivas tecnológicas, uma multiplicidade de conhecimentos é necessária, que vai além apenas da técnica. Como exemplo, no desenvolvimento de jogos, contamos com funções de gerência, de design gráfico, de criação de storytelling, de UX/UI, dentre outras. O estímulo a modelos alternativos e nacionais, portanto, deve considerar, também, uma educação que solidifique o Art. 4º do ECA, e cumpra com o dever da sociedade em geral de garantir o direito às crianças e adolescentes à profissionalização. - Kenzo Soares Seto 14/07/2023 às 16:30-Criação de linhas de crédito dos Bancos e agências Públicos, BNDES, Caixa, FINEP para plataformas cooperativas
-Investimento no desenvolvimento de plataformas públicas a partir da capacidade técnica e de pesquisa das Universidades Públicas, SIMPRO, empresas municipais de dados e plataformas públicas já existentes (ex. Taxi Rio do Rio de Janeiro, plataforma de streaming de Maricá).
- Uma política nacional de plataformas públicas que permita a replicabilidade de plataformas públicas já existentes em escala nacional. Ex: Subsídios para que a plataforma pública de mobilidade do Rio de Janeiro, a Taxi Rio, possa ser ampliada ou replicada em outros municípios.
-A obrigação de implementação a médio e longo prazo de infraestrutura, servidores e capacidade computacional instalada para as grandes plataformas no país, de modo a favorecer um parque nacional de desenvolvimento de IA. - Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:54No entender da ABRANET, uma importante medida de mitigação de riscos de desestímulo a modelos alternativos para a economia de plataformas digitais que pode ser adotada é a diminuição de barreiras à entrada de novos agentes. Medida de caráter horizontal e que pode ser implementada de diversas maneiras, a redução de barreiras à entrada como um todo tem o benefício de deixar nas mãos dos agentes privados a definição de quais modelos alternativos para a economia de plataformas digitais são mais viáveis e/ou aderentes às demandas de utilização da sociedade. Nesse sentido, evita-se soluções pré-fabricadas e, principalmente, medidas que dependem da continuidade do auxílio público para serem economicamente viáveis. Dada a natureza dinâmica dos mercados digitais - constantemente sujeitos ao surgimento de inovações a pressionar os agentes – e a condição fiscal do Estado brasileiro, não exige demasiado esforço a constatação de que medidas que envolvam gastos públicos para criar alternativas competitivas nos mercados digitais demandarão gastos crescentes em um cenário de recursos consideravelmente escassos.
Diante deste panorama, ganham relevo soluções de mercado para a viabilização de modelos alternativos para a economia de plataformas digitais, sendo certo que a redução horizontal e ostensiva de barreiras à entrada é medida que permite amplamente o surgimento de entrantes nesses mercados, potencialmente podendo estruturar modelos alternativos para a economia de plataformas digitais que sejam viáveis e no interesse de toda a população. - Alex Camacho Castilho 06/07/2023 às 14:101. Incentivos fiscais e isenções: A implementação de incentivos fiscais e isenções específicas para empresas que desenvolvem e operam modelos alternativos de negócios em plataformas digitais pode ser uma medida eficaz. Isso pode incluir a redução de impostos sobre lucros, isenções de impostos sobre investimentos em pesquisa e desenvolvimento, ou benefícios fiscais para startups e empresas em estágio inicial. Esses incentivos podem reduzir os encargos financeiros e facilitar o crescimento de modelos alternativos.
2. Programas de capacitação e formação: A criação de programas de capacitação e formação voltados para empreendedores e profissionais envolvidos na economia de plataformas digitais pode ser uma medida importante. Esses programas podem fornecer treinamento em habilidades empresariais, tecnológicas e de marketing, bem como conhecimento sobre regulamentação e conformidade. Ao fortalecer as habilidades e o conhecimento dos participantes, essa medida pode encorajar o surgimento de modelos alternativos de negócios mais competitivos.
3. Estabelecimento de sandboxes regulatórios: Os sandboxes regulatórios são ambientes controlados onde novas empresas podem testar seus modelos de negócios em um ambiente regulatório flexível. Essa medida permite que empresas inovadoras experimentem soluções alternativas enquanto estão sujeitas a uma supervisão regulatória apropriada. Os sandboxes regulatórios podem fornecer um espaço seguro para a experimentação, reduzindo as barreiras à entrada e incentivando o desenvolvimento de modelos alternativos.
4. Promoção da cooperação público-privada: A promoção da cooperação entre o setor público e o setor privado pode ser uma medida efetiva. Isso pode incluir parcerias estratégicas, colaboração em projetos de inovação e programas de financiamento conjunto. A cooperação público-privada pode fornecer recursos adicionais, conhecimentos especializados e uma visão equilibrada das necessidades e desafios enfrentados pelos modelos alternativos na economia de plataformas digitais.
5. Investimento em pesquisa e desenvolvimento: A alocação de recursos para pesquisa e desenvolvimento de tecnologias e modelos de negócios alternativos pode ser uma medida relevante. Isso pode incluir financiamento de programas de pesquisa, concessão de bolsas para pesquisadores ou incentivos para empresas investirem em inovação. O investimento em pesquisa e desenvolvimento pode impulsionar a criação de modelos alternativos disruptivos e fomentar a competitividade no setor. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:29Quando falamos em riscos ligados a tecnologias digitais é preciso pontuar, inicialmente, que não estamos lidando com questões que envolvem certezas, mas sempre com tentativas de mapear a possibilidade de ocorrência desses riscos e as possibilidades de adotar medidas que sejam capazes de mitigá-los.
Também é importar destacar, preliminarmente, que os riscos destacados nas perguntas desta consulta são transversais a uma gama de tecnologias digitais com regulações específicas e não somente às plataformas digitais. Por isso, seria melhor abordá-los em regulações específicas de forma geral, sem o óbice de tratamentos específicos para certos casos na regulação de plataformas.
Assim, considerando que os riscos destacados nessa consulta guardam correspondência com (i) a soberania tecnológica e infraestruturas críticas; (ii) a segurança de informações e dados; e (iii) a própria segurança no ciberespaço (ameaças de espionagem, invasão de privacidade e operações de influência) e, por isso, constituem dimensões da cibersegurança, recomenda-se que a matéria seja tratada de forma mais extensa em regulação específica, inclusive já em debate no Anteprojeto de Lei da Política Nacional de Cibersegurança (PNCiber). Sobre o tema existe estudo realizado pelo Centro de Tecnologia e Sociedade (CTS) da FGV/Direito Rio, no qual foram mapeados os riscos e propostas medidas para sua mitigação. (BELLI, L, et al. Cibersegurança: uma visão sistêmica rumo a uma proposta de marco regulatório para um Brasil digitalmente soberano. Rio de Janeiro: FGV Direito Rio, 2023 )
É importante enfatizar que, tratando-se de tecnologias digitais, a fim de evitar sobreposição e conflito de entendimentos sobre as regulações, essas devem conter previsões a respeito de governanças multissetoriais que considerem o envolvimento de diferentes atores – públicos e privados – de setores e naturezas distintos na elaboração de conceitos, diretrizes, ferramentas, dentre outros. É essencial que se estabeleça uma governança que permita a cooperação e colaboração entre esses atores, bem como o compartilhamento de informações sobre riscos, ameaças e incidentes cibernéticos. Os riscos podem apresentar-se comuns a diferentes tecnologias e precisam ser endereçados de maneira uniforme, observando suas especificidades de acordo com a lente da tecnologia utilizada, seja ela uma plataforma, um sistema de Inteligência Artificial ou uma componente infraestrutural da internet.
É preciso criar mecanismos que tragam confiança aos atores para essa aproximação, que estabeleçam canais e meios para que essa integração ocorra e funcione, além de equipes específicas voltadas a promover esse diálogo entre os diversos setores de infraestrutura quando envolvam tecnologia digital.
Por fim, deve-se considerar que a regulação voltada à soberania digital deve ter como racionalidade a preservação de equilíbrio entre os sistemas e subsidiariedade da intervenção estatal, buscando dosar as medidas para mitigar os riscos mapeados e também os efeitos colaterais produzidos por elas.
Feita essa breve introdução, passa-se a analisar cada risco elencado na consulta. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:15A ideia de soberania digital é uma ideia bastante difusa, que pode comportar diversas preocupações diferentes. Entre os riscos existentes para a soberania digital, estão os riscos para a segurança e resiliência de produtos e serviços destinados aos usuários brasileiros, incluindo aí o sigilo de informações públicas e privadas, bem como a proteção da confidencialidade e integridade de dados pessoais.
- Sarah Martins 14/07/2023 às 19:07- Soberania Digital (Item 15):
O item 2.2 traz preocupações sobre ameaças à soberania nacional e ao desenvolvimento tecnológico, desconsiderando que o ecossistema da Internet se refere a uma infraestrutura interconectada digital e global.
O ecossistema digital global – incluindo ferramentas e plataformas online – expandiu-se dramaticamente, permitindo crescimento econômico, inovação e oportunidades sem precedentes, além de promover a Transformação Digital da sociedade. Essa conectividade também aumentou os riscos e as ameaças em constante evolução às redes, sistemas e dados. Isso significa que as soluções e os esforços de cibersegurança devem ser igualmente dinâmicos, altamente interoperáveis e adaptáveis, buscando enfrentar as ameaças em constante mudança que apresentam riscos a essas novas tecnologias.
Nesse sentido, muito embora se entenda o caráter prioritário de endereçamento das questões afetas a garantia da segurança cibernética, é fundamental que se reforce que a origem da tecnologia, o local de sua produção ou ainda do armazenamento dos dados não são o critério central a ser considerado para o atingimento deste objetivo. Soluções de cibersegurança não devem ser priorizadas só porque são produzidas localmente, mas sim quando demonstrarem estar alinhadas com as melhores práticas e padrões internacionais, independentemente de onde foram fabricadas.
Subsidiar, contratar e investir em empresas nacionais não significa mitigação de risco para a soberania tecnológica brasileira e leva a distorções da concorrência entre fornecedores em detrimento dos usuários. Ao introduzir um quadro regulatório que favorece um conjunto de provedores em relação a outros, há uma diminuição da concorrência por mérito, o que acaba levando a menos incentivos econômicos para investir e competir, podendo comprometer os níveis de qualidade disponíveis no Brasil. Em vez disso, a regulação deve ser neutra e igualmente aplicada para permitir a livre concorrência, de acordo com o preceito constitucional.
Além disso, a Brasscom entende que o governo brasileiro deveria se abster de determinar preferência em contratações ou investimentos em tecnologias nacionais que sejam aderentes aos critérios de uma definição de soberania tecnológica e, em vez disso, deve considerar custo-benefício, inovação e segurança.
Conforme explicado no relatório do ITIF intitulado “The False Promise of Data Nationalism”, a metodologia tecnológica e procedimental de armazenamento e transferência de dados, bem como o tipo de tecnologia empregada, experiência do usuário, conhecimento dos envolvidos e boas práticas institucionais irão determinar o quão segura é a informação, e não a localização da instalação onde os dados são armazenados. De fato, exigir a localização dos dados como base para sua segurança acarretaria uma falsa sensação de segurança, já que sua localização não tem impacto positivo em termos de cibersegurança. Pelo contrário, uma falsa percepção de que as informações estão melhor protegidas por estarem armazenadas localmente, apesar de empregar tecnologias menos avançadas, seria extremamente perigosa para os objetivos de segurança nacional, especialmente porque os criminosos cibernéticos têm melhor conhecimento de onde os dados estão localizados, facilitando assim os ataques e o comprometimento de informações relevantes. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:23[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Os riscos associados à concentração, sobretudo privada, das capacidades de tratamento de dados e da propriedade da infraestrutura crítica impactam diretamente a possibilidade de construção de uma soberania digital e popular. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:29Para enfrentar as ameaças à infraestrutura crítica do Brasil, o governo deve implementar uma estrutura de segurança cibernética flexível e baseada em riscos que utilize como referência padrões internacionais baseados em consenso e parcerias público-privadas. Abordagens colaborativas entre governo e setor privado são fundamentais para construir confiança e melhorar a segurança cibernética, já que o setor privado possui e opera a maioria das infraestruturas críticas. Portanto, iniciativas em segurança cibernética devem facilitar o compartilhamento bidirecional de informações e a colaboração operacional entre o governo e o setor privado, além de garantir uma estrutura legal apropriada que ofereça proteção ao setor privado pelo compartilhamento de informações. Um exemplo disso é o Joint Cyber Defense Collaborative da U.S. Cybersecurity and Infrastructure Security Agency (CISA), que reúne especialistas em segurança cibernética dos setores público e privado para trabalhar em um planejamento holístico de segurança cibernética, defesa cibernética e resposta a incidentes. Além disso, a segurança cibernética deve fazer parte de uma estrutura geral de gerenciamento de riscos que incorpore tecnologia, pessoas e processos. Um exemplo de uma estrutura bem conhecida é a Estrutura de Segurança Cibernética do Instituto Nacional de Padrões e Tecnologia (NIST) dos EUA, que compila padrões, práticas recomendadas e diretrizes para o gerenciamento de riscos cibernéticos.
- Filipe Saraiva 16/07/2023 às 21:48Com certeza, alto grau de risco no tópico citado.
- Rede de Pesquisa em Governança da Internet (comentário inserido por: Rede de Pesquisa em Governança da Internet) 16/07/2023 às 20:36A soberania digital pode ser considerada um dos elementos fundamentais do que tem sido tratado na literatura como colonialismo digital (Israel, 2021, Avelino, 2023, Faustino e Lippold, 2023), cuja ausência na realidade técnica brasileira dificulta o desenvolvimento social do país como um todo, e o processo de regulação das plataformas mais especificamente, haja vista a dificuldade de exercício jurídico sobre empresas sediadas em outras jurisdições. A atuação de plataformas em setores de interesse estratégico para o exercício da soberania não apenas tecnológica, mas em áreas que se digitalizaram, como a educação, coloca o risco de perda da soberania sobre informações estratégicas e de interesse nacional, como o campo científico. Um exemplo é o servidor de email das universidades públicas, USP e UNICAMP, que utilizam o Google, UFPR, que utiliza a Microsoft, etc. Acreditamos que, assim como a RNP desenvolveu o Conferência Web com funcionamento melhor que a principal plataforma americana para o mesmo fim, podemos investir como nação em endereçar outras necessidades da academia brasileira em termos de software e hardware de comunicação. No campo da educação, citamos ainda a feroz entrada das big tech na educação pública do Brasil com plataformas como Google drive e afins. Professoras/es estão discutindo esses pontos a nível local e esse tema não deveria ser desconsiderado no âmbito da regulação das plataformas. https://appsindicato.org.br/seminario-organiza-enfrentamento-a-plataformizacao-da-educacao-publica-no-parana/
- Laboratório de Estudos Sociotécnicos da Universidade Federal do Pará (comentário inserido por: Leonardo Ribeiro da Cruz) 16/07/2023 às 19:01Os serviços públicos nacionais, estaduais ou municipais não devem utilizar serviços digitais oferecidos por empresas privadas cujos servidores estejam alocados fora do país. Da mesma forma, o Estado deve prover infraestrutura digital para o armazenamento dos dados gerados pelos serviços públicos e deve incentivar a produção de plataformas digitais dentro do país, em especial nas universidades e institutos tecnológicos. Dados gerados por serviços públicos não devem ser base de valorização de empresas privadas cujo modelo de negócio se baseia na coleta e tratamento de dados.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 17:56Há inúmeros casos em que as plataformas tem acesso e capturam dados que não se relacionam direta ou indiretamente aos serviços oferecidos pelas plataformas, por exemplos, dados de saúde das pessoas que as utilizam. Isso deveria ser regulado e em última instância não deveria ser permitido.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:29Conforme já apontado na breve introdução acima realizada, temas que envolvam soberania digital e infraestruturas críticas melhor seriam abordados em uma regulação específica sobre cibersegurança. Cabe, contudo, uma ressalva sobre a necessidade de se definir o conceito de estruturas críticas e quais as dimensões que seriam consideradas, como, por exemplo, se essas estruturas se relacionam com todos os tipos de prestação de serviços essenciais aos cidadãos. Ressalva-se que um conceito muito extenso pode acabar não concedendo as prioridades necessárias. Definido, portanto, um grupo de serviços correlatos ao interesse público, que podem ser prestados através de plataformas digitais, caberia ao regulador adotar medidas para mitigar esses riscos de forma a manter o controle efetivo das infraestruturas e dados digitais e evitar casos de dependência nacional perante empresas estrangeiras e a “colonização digital” (AVILA PINTO, R. Digital sovereignty or digital colonialism? New tensions of privacy, security and national policies. Sur-International Journal on Human Rights, v. 27, n. jul, p. 15–27, 16 jul. 2018).
Ao contrário, a elaboração e a implementação de estratégias de soberania digital que pode reverter a tendencia à colonialismo digital supracitado e proporcionar não somente a capacitação, mas, sobretudo, o desenvolvimento tecnológico nacional, numa perspectiva de estímulo à “boa soberania digital”. (BELLI, L. Building Good Digital Sovereignty through Digital Public Infrastructures and Digital Commons in India and Brazil. G20’s Think 20, T20 India 2023, jun. 2023). Como já destacamos em vários trabalhos e veículos de imprensa: “A soberania digital refere-se à capacidade de exercer poder e controle sobre infraestruturas digitais e dados, e implica entender os efeitos – positivos e negativos – que cada escolha tecnológica determina. Neste sentido, é essencial ter uma visão sistêmica para entender como os diferentes elementos dos ecossistemas digitais se interrelacionam e como desenvolver, usar e regular a tecnologia ao invés de ser regulado por ela.” (BELLI, L. Brasil precisa reconstruir sua soberania digital. Estadão, 1 de mar. 2023).
Por fim, uma ressalva deve ser feita. Apesar do recorte de soberania digital nesta consulta ser restrita “à capacidade de o país proteger e desenvolver sua infraestrutura digital autonomamente e garantir a proteção de dados pessoais e estratégicos de seus cidadãos”, o estudo sobre cibersegurança já mencionado nesta introdução trouxe uma abordagem mais ampla que seja “capaz de entender a relevância e a interconexão de i) dados, ii) software, iii) hardware, iv) educação e treinamento e v) governança. - Rafael Evangelista 16/07/2023 às 15:04Sim, o Estado deve manter controle (no sentido de capacidade de supervisão, conhecimento detalhado do funcionamento e acesso total aos dados) de todas as tecnologias que utiliza. Entre os exemplos citados adicionaria o campo da saúde. O Estado deve não somente ter acesso a dados para formular políticas como deve utilizar-se de tecnologias livres e abertas que permitam a seus quadros estudar melhor o funcionamento da plataforma
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:04Tais riscos devem ser considerados para a regulação de plataformas digitais. A ameaça que estas oferecem à soberania tecnológica brasileira sobre infraestruturas críticas - e também a outros aspectos a elas atreladas, como controle sobre dados pessoais - já é bastante comentada em diversas áreas. É possível mencionar, por exemplo, a da educação.
Muitas universidades e escolas brasileiras utilizam como principais meios de comunicação e de armazenamento de dados os serviços oferecidos pelas Big Techs Google e Microsoft. No caso do ensino básico, O Observatório Educação Vigiada (https://educacaovigiada.org.br/pt/mapeamento/brasil/) verificou 76 secretarias de educação do país a nível estadual e municipal (capitais e municípios com mais de 500 mil habitantes). Nesse caso, observou-se paridade entre o uso dos serviços: 38 secretarias utilizam Google/Microsoft; e 38 se baseiam em alternativas.
Já na esfera do ensino superior, o Observatório mapeou 144 instituições públicas no Brasil, sendo que dessas, 79,17% utilizam os serviços disponibilizados por Google/Microsoft, e apenas 20,8% recorrem a alternativas.
Essa situação levanta 3 preocupações que se entrelaçam (https://educacaovigiada.org.br/pt/sobre.html; https://cartasoberaniadigital.lablivre.wiki.br/carta/):
(i) as Big Techs têm acesso a uma grande quantidade de dados pessoais, também de crianças e adolescentes; além de dados comportamentais e de rendimento relativos ao ambiente acadêmico;
(ii) os dados científicos e demais conhecimentos produzidos no país são armazenados em empresas estrangeiras e dependem, cada vez mais, dessa infraestrutura para continuarem a serem produzidos e mantidos;
(iii) a falta transparência de como esses dados são tratados pela empresa, o que impacta diretamente a questão de privacidade e proteção de dados dos titulares que são submetidos aos serviços, bem como impede a avaliação de riscos e a tomada de decisão consciente sobre a sua adoção e uso.
Nessa toada, é possível também mencionar os riscos associados ao contexto do capitalismo de vigilância, conceito trazido pro Shoshana Zuboff e que remonta ao uso de informações sobre as experiências e vivências das pessoas como objeto para práticas comerciais não transparentes, direcionamento de comportamentos, etc. (ZUBOFF, S. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. 2019). Sendo assim, chama-se atenção para a extensa extração de dados e a busca de monetização e lucro, por parte das empresas estrangeiras, a partir das atividades de perfilização e monitoramento/ vigilantismo sobre os usuários.
Recorda-se que tais empresas, em diferentes contextos, possuem acesso a dados pessoais de milhões de brasileiras e brasileiros, e a dados relacionados a conhecimentos produzidos e outras informações possivelmente estratégicas para o país, inclusive a nível governamental. Mencionou-se acima o caso da educação, mas também é sabido que a Administração Pública brasileira utiliza, por exemplo, os serviços oferecidos pela Microsoft em sua atuação (https://cyberbrics.info/ciberseguranca-uma-visao-sistemica-rumo-a-uma-proposta-de-marco-regulatorio-para-um-brasil-digitalmente-soberano/, p. 79). - José Antonio Galhardo 16/07/2023 às 10:46O maior risco à soberania do país está debaixo d’água. A rede de cabos submarinos que faz tudo isso funcionar. Não seria o caso de regular as plataformas digitais mas sim estabelecer políticas de proteção cibernética para áreas estratégicas do país (energia, comunicações, defesa, saúde, sistema financeiro, transportes).
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:27Coleta indevida de dados de estudantes por plataformas de educação a distância endossadas pelo poder público
Um relatório produzido e divulgado em abril de 2022 pela ONG Human Rights Watch comprovou que dados privados de crianças e adolescentes de 49 países, incluindo o Brasil, foram coletados indevidamente por plataformas digitais de educação durante a pandemia de Covid-19. O documento “Como se atrevem a entrar na minha vida privada?”, em tradução livre, aponta que 89% dos 165 produtos analisados entre março e agosto de 2021 para educação a distância “colocaram em risco ou violaram diretamente a privacidade e outros direitos das crianças para fins não relacionados à sua educação”
Do Brasil, então, foram analisadas nove plataformas, dentre as quais duas são oferecidas por empresas estrangeiras. Uma dessas nove plataformas colocava em risco a privacidade dos estudantes, enquanto oito a violavam. De acordo com o estudo, falta informação sobre as políticas de uso das ferramentas analisadas. No caso dos serviços brasileiros, assim, dois não possuíam nenhum tipo política de privacidade divulgada.
Fonte: Estudantes, não produtos: Relatório mostra como dados de crianças e adolescentes coletados por plataformas educativas são usados para fins comerciais em 49 países, inclusive no Brasil. - Kenzo Soares Seto 14/07/2023 às 16:36A hospedagem em territórios submetidos a outras legislações de grande volume de informações científicas e estratégicas levou a Suécia a proibir suas instituições públicas de adotar os sistemas do Google (PARRA et al., 2018).
No Brasil, igualmente o Decreto n° 8135/2013, editado pela Presidenta Dilma Roussef, previa:
as comunicações de dados da administração pública federal direta, autárquica e fundacional deverão ser realizadas por redes de telecomunicações e serviços de tecnologia da informação fornecidos por órgãos ou entidades da administração pública federal, incluindo empresas públicas (BRASIL, 2013, apud PARRA et al., 2018, p. 90).
Contudo sua suspensão levou a substituição de soluções próprias (como as da UNICAMP e UFRJ) por ambientes de aprendizagem e suítes de serviços de educação de corporações como a Microsoft e a Alphabet nas Universidades e sistemas municipais e estaduais de educação públicos, acelerada na Pandemia. Esse domínio corporativo abre espaço para que informações sensíveis (Patentes, pesquisas, dados industriais e de reservas naturais) para o desenvolvimento nacional sejam espoliadas, além de permitir que essas corporações se neguem a compartilhar com pesquisadores e orgãos de formulação de políticas públicas dados e informações essenciais produzidas a partir da comunidade educacional brasileira (Dados referentes a ensino, aprendizagem, atenção dos estudantes e docentes)
Na saúde, bases de dados biométricos da população brasileira são constituídos a partir da utilização de dispositivos biométricos (smart watches, etc) ou produzidos a partir de Big Data, como os modelos de cartografia do contágio por Covid-19 das grandes plataformas, além da utilização de sistemas privados de gestão da saúde em hospitais públicos e privados, que poderiam, desde que com dados anonimizados, ser integrados a bases de dados e iniciativas de dados abertos para o desenvolvimento da ciência brasileira e de políticas públicas na área de saúde.
Principalmente no caso de plataformas conveniadas a órgãos públicos, mas também deveria existir a opção para que o usuário final da plataforma pude-se compartilhar por vontade própria os dados biométricos produzidos a partir de seus dispositivos com o DATA SUS e iniciativas públicas de pesquisa. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 16:35Sim. Os dados coletados sobre serviços essenciais, somado à falta de transparência das plataformas, pode colocar em risco o desenvolvimento de políticas públicas e de atividades estratégicas do Estado Brasileiro, ficando este à mercê dos interesses dessas empresas.
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 16:20A soberania digital para garantia da proteção de dados pessoais importante, visto que grande parte das plataformas estão sediados em países do norte global. Assim, assegurar que a legislação nacional seja aplicada nos casos que envolvam os dados pessoais e estratégicos de usuários brasileiros, não importando onde estejam localizados, é essencial para este processo.
- Tarcizio Silva 14/07/2023 às 12:33Sim, a regulação de plataformas digitais deve levar em conta diferentes infraestruturas críticas e o que já sabemos sobre possibilidades de influência indevida em camadas críticas como educação, esfera pública, entretenimento e outras. Do ponto de vista da percepção das plataformas digitais como mediadoras da esfera pública, é essencial lembrar que as principais empresas de big tech já usaram de seu poder comunicacional desproporcional para tentar pressionar o governo ao colocar toda a população em risco. Aqui podemos citar diversos casos, mas posso destacar o bloqueio de notícias nos países onde se estabelecem. Ver, por exemplo, matérias "Google bloqueia sites de notícias na Austrália, e governo reage", publicada em 14 Jan. 2021 no 'O Globo' ou "Em reação a projeto de lei, Facebook bloqueia notícias no Canadá”, publicada na Folha em 03 Jun. 2023.
- Alex Camacho Castilho 06/07/2023 às 14:16Riscos associados a ameaças à soberania tecnológica brasileira sobre infraestruturas críticas: A dependência excessiva de plataformas digitais estrangeiras para infraestruturas críticas, como comunicações, energia, educação, entre outros, pode representar um risco para a soberania tecnológica do Brasil. Isso ocorre porque o controle dessas infraestruturas por entidades estrangeiras pode limitar a capacidade do Estado de definir políticas e estratégias que atendam aos interesses nacionais. Portanto, é importante considerar medidas regulatórias que promovam a diversificação e o fortalecimento das capacidades tecnológicas nacionais, incentivando o desenvolvimento de soluções internas e a proteção da infraestrutura crítica brasileira.
- Casa de Cultura Tainã / Rede Mocambos (comentário inserido por: Vincenzo Tozzi\) 06/07/2023 às 09:13Como colocamos na oficina no CGI todas essas questões e riscos são consequência de uma internet centralizada e corporativa. O modelo que propomos resgatar e fomentar é da internet das origens, uma rede de redes.
Descentralizar a rede com infraestruturas e pessoas nos territórios cuidando dos dados resolve ou amenize a maioria das problemáticas aqui colocadas. A internet ainda pode ser uma rede de redes.. embora fazer em vez de regular as big tech que nem no Brasil estão. - Jose Vieira 19/06/2023 às 14:08É necessário definir a questão de soberania nacional sobre os dados. A liberdade não coloca em risco a soberania, mas a fortalece.
Todo conhecimento gera discussões e permite o crescimento intelectual.
Tentar inibir informações sob o discurso de garantir soberania se aproxima muito de censura - Leonardo Tavares de Almeida 04/05/2023 às 08:53Isso é de extrema importância. Deve ser considerado o mais grave e mais punível, inclusive com sanções de suspensão de atividades por 1 ano ou mais e banimento do país..
- Rodrigo Pereira 25/04/2023 às 19:51A este risco estão associados outros projetos de lei, como por exemplo a questão dos bens reversíveis e violação do pacto entre o Estado e as empresas de telefonia e de internet que querem ter posse da infraestrutura construída com dinheiro público por décadas. Se o poder público preservar o interesse público estes riscos a soberania tecnológica podem ser mitigados.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:23[Contribuição do DiraCom - Direito à Comunicação e Democracia]
O armazenamento e tratamento de dados de cidadãos fora de seu país de origem (onde a coleta foi realizada) está na base do funcionamento das principais plataformas digitais. Ao mesmo tempo, entretanto, que o fluxo transfronteiriço é prática corrente no setor, há que se considerar riscos de vazamento que podem ocorrer ao longo deste processo; disputas de jurisprudência sobre que normativas o tratamento dos dados devem seguir (o que resulta, muitas vezes, no desrespeito a legislações vigentes no Brasil); e dificuldades injustificadas de acesso aos dados por autoridades e cidadãos brasileiros, titulares dos mesmos. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:30O ecossistema digital global – incluindo ferramentas e plataformas online – expandiu-se dramaticamente, permitindo crescimento econômico, inovação e oportunidades sem precedentes. No entanto, essa conectividade também aumentou os riscos e as ameaças em constante evolução às redes, sistemas e dados. Isso significa que as soluções e os esforços de segurança cibernética devem ser dinâmicos, altamente interoperáveis e adaptáveis para lidar com as ameaças em constante mudança impostas a essas novas tecnologias.
Conforme explicado em um relatório do Information Technology and Innovation Foundation (ITIF) chamado “The False Promise of Data Nationalism” , é o método tecnológico e processual de armazenamento e transferência de dados, bem como o tipo de tecnologia usada, experiência dos usuários, conscientização das partes interessadas e boas práticas institucionais que determinam a segurança e proteção da informação, não a localização geográfica onde os dados são armazenados. De fato, exigir a localização de dados com base na segurança levaria a uma falsa sensação de segurança, visto que a localização geográfica não impacta positivamente a segurança. Pelo contrário, a percepção de maior segurança ao usar tecnologia menos avançada pode ser extremamente perigosa para os objetivos de segurança nacional, especialmente porque os cibercriminosos teriam uma melhor percepção de onde os dados estão localizados.
A privacidade e a confiança do usuário são essenciais para os negócios e operações globais de nossas empresas associadas, e a ITI endossa fortes proteções para fluxos de dados globais. O governo brasileiro deve buscar políticas que assegurem consistência com as estruturas internacionais de proteção de dados e privacidade para reduzir a probabilidade de obstáculos que impeçam as empresas de transferir dados com segurança do Brasil para outras jurisdições e vice-versa. Por exemplo, a Autoridade Nacional de Proteção de Dados (ANPD) deveria autorizar o uso de acordos contratuais que as empresas tenham em vigor se esses contratos contiverem proteções substantivas suficientemente semelhantes às exigidas pela Lei Geral de Proteção de Dados (LGPD), incluindo o padrão da UE e do Reino Unido de Cláusulas Contratuais-Padrão (SCCs) e outros acordos sob medida com base nos Artigos 33 (II)(b) e 35 da LGPD, bem como participar do sistema Global Cross Border Privacy Rules (CBPR) e considerar decisões de adequação para terceiros países abrangidos por um Decisão de adequação da UE ou do Reino Unido que sejam consideradas adequadas para os fins dos Artigos 33 (I) e 34 da LGPD. Sem dúvida, as restrições aos fluxos de dados criariam mais incerteza aos negócios, bem como atritos no ambiente de negócios brasileiro que retardariam a inovação de dados, sem aumentar a proteção de dados. - Rede de Pesquisa em Governança da Internet (comentário inserido por: Rede de Pesquisa em Governança da Internet) 16/07/2023 às 20:44
De forma ampla, quando pensamos a circulação de dados a partir de uma etnografia do código, do ponto de vista da infraestrutura da internet e de seus protocolos de rede, é gritante a circulação de dados do sul global no norte global, quando o inverso não se verifica (Rosa, 2022). Nesse sentido, as características transfronteiriças da internet afetam as populações globals de maneira diferente dependendo de onde estamos situades nessa infraestrutura.
De maneira mais específica e observando o conteúdo que circula na rede, o risco de perda de exercício de soberania sobre setores estratégicos, como o científico, é indissociável da característica transfronteiriça de circulação de dados. A atuação de empresas como Google e Microsoft em universidades brasileiras, gerindo serviços de e-mail e armazenamento de conteúdos, coloca a soberania científica em situação de vulnerabilidade, sujeita a transferência de dados para outras jurisdições. Tais dados podem ser tratados e assimilados em infraestruturas americanas, sem que seja sequer possível identificar sua extração.
Ademais, observa-se uma tendência de contração de empresas multinacionais para o gerenciamento de informações da administração pública, como a adoção de Inteligência Artificial da Microsoft para o Sistema Nacional de Emprego, para realizar o perfilamento dos desempregados, com vistas a encontrar o emprego apropriado a cada perfil. Ver: https://news.microsoft.com/pt-br/sistema-nacional-de-emprego-sine-testa-uso-de-inteligencia-artificial-para-aumentar-eficiencia-na-oferta-de-oportunidades-de-trabalho/
A atuação de plataformas privadas em serviços públicos atenta contra a soberania não apenas nacional, mas também individual, na medida em que o acesso a serviços públicos se dê de modo condicional à sujeição compulsória da população à monetização de seus dados, visto que a mineração de dados ou metadados é parte essencial do modelo de negócios das plataformas. Outro exemplo terrível foi a tentativa de privatização da SERPRO no governo Bolsonaro, barrada via decreto em 2023 pelo governo Lula. Não podemos ficar à mercê do direcionamento político dos governantes, é necessário ter um entendimento legal que impeça a venda de dados e infraestrutura de dados nacionais.
- ITS Rio (comentário inserido por: Carlos Affonso Souza) 16/07/2023 às 19:06O debate sobre fluxos transfronteiriços e internacionais de dados deve ser encarado como prioritário para a formulação de uma moldura regulatória para plataformas digitais. Veja-se, nesse sentido, os desdobramentos na União Europeia. Recentemente, a Autoridade de Proteção de Dados da Irlanda multou a Meta em 1.3 bilhão de euros por irregularidades na transferência internacional de dados pessoais de usuários do Facebook entre o continente europeu e os EUA. Embora essa seja uma questão primordialmente de proteção de dados (regulada, portanto, por instrumentos como o GDPR e a LGPD), ainda há muita incerteza jurídica diante de decisões como as da Corte de Justiça da União Europeia que invalidaram acordos bilaterais a exemplo do Privacy Shield (UE-EUA). Assim, uma regulação de plataformas no Brasil deve considerar os riscos associados às transferências internacionais de dados no contexto de plataformas digitais (em especial redes sociais, buscadores e aplicativos de mensageria privada), contribuindo para a construção de soluções regulatórias robustas e levando em consideração sua interlocução com outros sistemas normativos.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:30No que se refere aos riscos ligados à proteção de dados, o meio mais adequado para endereçá-los seria via um solido marco regulatório de proteção de dados, que seja implementado de maneira efetiva e eficiente. Considerando, entretanto, que o modelo de negócios desenvolvido pelas plataformas digitais tem como motor principal o uso de dados e formação de grandes bases, que, na maioria das vezes, são processadas em servidores que não se situam em território brasileiro, seria importante explorar as consequências e riscos específicos determinados pela localização dos ditos servidores, ponto que não foi previsto pela Lei Geral de Proteção de Dados (LGPD). Além disso, cabe frisar que os mecanismos de transferência internacional de dados, que se tornaram instrumentos chave para o desenvolvimento da economia digital e, também, para a garantia da efetiva dos direitos à proteção dos dados pessoais, até a presente data ainda não foram regulados pela Agência Nacional de Proteção de Dados (ANPD). (BELLI, L. et al. Hacia un modelo latinoamericano de adecuación para la transferencia internacional de datos personales. in PALAZZI, P. (Org.) Protección de Datos personales: Doctrina y Jurisprudencia, CETYS, CDYT, 2023, Buenos Aires).
É interessante considerar que determinados dados sejam guardados em território nacional como forma de mitigar os riscos com eventuais tratamentos e acesso a certas bases de dados fora do país. Como exemplo, podemos observar que nos últimos anos as políticas de localização de dados foram adoptada por mais que setenta países (CORY, N. & DASCOLI, L. How Barriers to Cross-Border Data Flows Are Spreading Globally, What They Cost, and How to Address Them. Information Technology & Innovation Foundation, 2021) impulsionadas pelo exemplo da Rússia que, desde 2015, adotou algumas disposições normativas restritivas para o fluxo transfronteiriço de dados, em resposta as revelações de Edward Snowden sobre o esquema se vigilância global orquestrado pela National Security Agency estadunidense. (BELLI, L. & DONEDA, D. Data protection in the BRICS countries: legal interoperability through innovative practices and convergence Luca Belli, Danilo Doneda International Data Privacy Law, Volume 13, Issue 1, February 2023) - Rafael Evangelista 16/07/2023 às 15:05O Estado deve demandar que dados pessoais e sensíveis de cidadãos brasileiros estejam localizados em território nacional. A Europa tem dado exemplos nesse sentido, fiscalizando a troca de dados com os EUA. O Estado brasileiro deve fazer valer suas leis locais para o tratamento de dados de seus cidadãos
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:09Nesse ponto, menciona-se um risco relacionado a argumentos de soberania digital. Por exemplo, a depender dos tipos de limitação de circulação de dados e informações impostas por outros países, ou até mesmo pelo próprio Brasil, os cidadãos brasileiros podem ter seu direito de informação e de acesso livre à Internet prejudicados.
Cerca de 64% dos brasileiros recebem e compartilham notícias por meio das plataformas de redes sociais e mensageria como YouTube, Facebook, Instagram, WhatsApp, Telegram e TikTok. Não restrito ao Brasil, e com relação a esta última rede, notou-se também um aumento de seu uso para o consumo de notícias entre jovens de 18 a 24 anos (informações retiradas de https://ajor.org.br/uso-do-tiktok-como-fonte-de-noticias-aumenta-cinco-vezes-entre-os-jovens-diz-pesquisa/). Dessa forma, bloqueios do uso de plataformas digitais, como o que ocorreu com o TikTok na Índia em 2020 (https://g1.globo.com/economia/tecnologia/noticia/2020/07/03/tiktok-se-distancia-de-pequim-apos-india-banir-aplicativo.ghtml) podem dificultar o acesso à informação. - José Antonio Galhardo 16/07/2023 às 10:47Já há entendimento na Organização Mundial de Comércio que dados que não sejam pessoais, capazes de identificar uma pessoa, não representam risco e são essenciais para o comércio internacional. O risco está no fluxo dados pessoais, principalmente com o crescimento de dados gerados por IoT, e relacionados a instalações estratégicas para a defesa nacional.
- Tarcizio Silva 15/07/2023 às 19:06Sim, são riscos com danos já observados. A condenação do Facebook realizada em março deste ano, pelo Tribunal de Justiça do Maranhão, a pagar multa a 8 milhões de brasileiros é um dos muitos exemplos já registrados.
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 16:36Sim, visto que falta transparência em relação à forma como os dados de cidadãos brasileiros são armazenados e quais partes possuem acesso a eles.
- Alex Camacho Castilho 06/07/2023 às 14:17Riscos associados a ameaças relacionadas ao fluxo transfronteiriço de informações e dados: O fluxo transfronteiriço de informações e dados, especialmente quando envolve dados de cidadãos brasileiros, pode apresentar riscos à soberania digital. Isso ocorre porque os dados podem ser armazenados e processados em jurisdições estrangeiras, sujeitos a diferentes leis e regulamentações de proteção de dados. Essa situação pode gerar preocupações com a privacidade, a segurança e o controle sobre as informações sensíveis dos cidadãos. Portanto, é essencial considerar medidas regulatórias que protejam a privacidade e a segurança dos dados pessoais, estabelecendo salvaguardas adequadas e promovendo a soberania digital do país.
- Jose Vieira 19/06/2023 às 14:10Deve ser considerado, embora tenha pouco relevância
- Leonardo Tavares de Almeida 04/05/2023 às 08:55Deve também ser considerado
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:24[Contribuição do DiraCom - Direito à Comunicação e Democracia]
O tratamento de dados de cidadãos brasileiros feitos fora do país, sobretudo quando realizado em países alvos de operações de espionagem e influência, pode acabar resultando no acesso indevido dessas informações, mesmo que os/as brasileiros não sejam os alvos diretos e prioritários de tais campanhas. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:33O avanço da confiabilidade e segurança da tecnologia e dos serviços é indispensável para proteger os dados dos cidadãos contra hackers, ladrões cibernéticos e aqueles que causariam danos físicos. O setor de tecnologia incorpora fortes recursos de segurança em seus produtos e serviços para aumentar a confiança, incluindo o uso de algoritmos como nossa abordagem de criptografia padrão, pois eles têm a maior confiança entre as partes interessadas globais e limitam o acesso às chaves de criptografia. O ITI encoraja os governos a aproveitar totalmente a criptografia forte, globalmente aceita e implantada, bem como outros padrões de segurança que permitem a confiança e a interoperabilidade.
- Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:32O ecossistema digital global – incluindo ferramentas e plataformas online – expandiu-se dramaticamente, permitindo crescimento econômico, inovação e oportunidades sem precedentes. No entanto, essa conectividade também aumentou os riscos e as ameaças em constante evolução às redes, sistemas e dados. Isso significa que as soluções e os esforços de segurança cibernética devem ser dinâmicos, altamente interoperáveis e adaptáveis para lidar com as ameaças em constante mudança impostas a essas novas tecnologias.
Conforme explicado em um relatório do Information Technology and Innovation Foundation (ITIF) chamado “The False Promise of Data Nationalism”* , é o método tecnológico e processual de armazenamento e transferência de dados, bem como o tipo de tecnologia usada, experiência dos usuários, conscientização das partes interessadas e boas práticas institucionais que determinam a segurança e proteção da informação, não a localização geográfica onde os dados são armazenados. De fato, exigir a localização de dados com base na segurança levaria a uma falsa sensação de segurança, visto que a localização geográfica não impacta positivamente a segurança. Pelo contrário, a percepção de maior segurança ao usar tecnologia menos avançada pode ser extremamente perigosa para os objetivos de segurança nacional, especialmente porque os cibercriminosos teriam uma melhor percepção de onde os dados estão localizados.
A privacidade e a confiança do usuário são essenciais para os negócios e operações globais de nossas empresas associadas, e a ITI endossa fortes proteções para fluxos de dados globais. O governo brasileiro deve buscar políticas que assegurem consistência com as estruturas internacionais de proteção de dados e privacidade para reduzir a probabilidade de obstáculos que impeçam as empresas de transferir dados com segurança do Brasil para outras jurisdições e vice-versa. Por exemplo, a Autoridade Nacional de Proteção de Dados (ANPD) deveria autorizar o uso de acordos contratuais que as empresas tenham em vigor se esses contratos contiverem proteções substantivas suficientemente semelhantes às exigidas pela Lei Geral de Proteção de Dados (LGPD), incluindo o padrão da UE e do Reino Unido de Cláusulas Contratuais-Padrão (SCCs) e outros acordos sob medida com base nos Artigos 33 (II)(b) e 35 da LGPD, bem como participar do sistema Global Cross Border Privacy Rules (CBPR) e considerar decisões de adequação para terceiros países abrangidos por um Decisão de adequação da UE ou do Reino Unido que sejam consideradas adequadas para os fins dos Artigos 33 (I) e 34 da LGPD. Sem dúvida, as restrições aos fluxos de dados criariam mais incerteza aos negócios, bem como atritos no ambiente de negócios brasileiro que retardariam a inovação de dados, sem aumentar a proteção de dados.
*Disponível em: https://www2.itif.org/2013-false-promise-data-nationalism.pdf - Nina Da Hora 16/07/2023 às 21:59Ataques cibernéticos a instituições financeiras: Nos últimos anos, o Brasil tem enfrentado ataques cibernéticos a instituições financeiras, como bancos. Hackers têm usado técnicas avançadas para obter acesso não autorizado a sistemas, roubar dados pessoais e realizar fraudes financeiras. Esses ataques comprometem a privacidade e a segurança financeira dos indivíduos afetados.
Espionagem industrial: O Brasil é um país com setores estratégicos importantes, como energia e petróleo. Houve casos de espionagem industrial envolvendo empresas desses setores, nos quais informações confidenciais foram obtidas por agentes estrangeiros ou concorrentes para obter vantagens competitivas. Esses casos destacam a importância da proteção de informações sensíveis para preservar a competitividade e a segurança econômica do país.
Manipulação e polarização: As plataformas digitais também contribuíram para a polarização política durante as eleições. Algoritmos de recomendação e segmentação de conteúdo podem criar bolhas de filtro, reforçando visões e opiniões já existentes e limitando a exposição a diferentes perspectivas. Isso pode aprofundar as divisões sociais e dificultar o diálogo construtivo entre os eleitores. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:31Questões ligadas à espionagem, invasão de privacidade e operações de influência são preocupações que foram expostas desde as revelações trazidas por Edward Snowden e também guardam íntima conexão com estudos do tema cibersegurança e soberania digital. As revelações de Snowden nos ensinaram, exatamente há dez anos, que a tecnologia é uma ferramenta libertadora, mas é também utilizada como instrumento de vigilância, espionagem, e preservação de vantagem competitiva. Seria altamente ingênuo pensar que ao longo da última década a situação evoluiu de maneira radicalmente diferente. É exatamente neste sentido que em julho 2020 o Tribunal de Justiça Europeu decidiu anular o Privacy Shield, mecanismo que permitia o fluxo transatlântico de dados entre a UE e os EUA, com o fundamento de que o sistema de vigilância dos EUA torna impossível garantir a proteção de dados pessoais exigida pelo Regulamento Geral de Proteção de Dados da UE. (BELLI L. & DONEDA D. “Rede Limpa” ou segurança da informação? O novo valor estratégico da proteção de dados. China Hoje. 24 feb. 2021)
Incidentes cibernéticos, que muitas vezes podem ocorrer em decorrência do uso de plataformas digitais, podem afetar o provimento de serviços essenciais à população, fragilizar a proteção de dados pessoais, afetar a confiança que as populações depositam nas instituições públicas, dentre outras consequências. Esses problemas podem advir de práticas de invasão de dispositivos tecnológicos, mas também podem ser consequência de comportamentos inseguros dos próprios usuários ou adotados pelos desenvolvedores de tecnologias e softwares e sistemas digitais. Dessa forma, as autoridades reguladoras (idealmente uma Agência Nacional de Cibersegurança) devem observar que riscos associados a incidentes cibernéticos e plataformas digitais (espionagem e outros) podem ter diferentes causas, pelo que as medidas mitigadoras devem considerar ações tanto voltadas para organizações privadas e públicas como também os usuários. Algumas delas, que serão retomadas no item abaixo, são: (a) Controles de contratação de software de invasão de dispositivo; (b) fomento da cultura de segurança da informação; (c) educação digital, com foco para a segurança da informação. (BELLI, L. et al. Cibersegurança: uma visão sistêmica rumo a uma proposta de marco regulatório para um Brasil digitalmente soberano. Cit. Supra.)
Questões relacionadas a riscos sobre privacidade e proteção de dados, conforme antes mencionado, são endereçadas na regulação de proteção de dados e segurança cibernética. Contudo, é preciso destacar que as plataformas digitais têm o desenvolvimento do seu modelo central de negócios através da utilização dos dados de seus usuários. Por isso, eventual regulação sobre plataformas pode endereçar medidas específicas que envolvam transparência sobre o uso dos dados dos usuários em seus sistemas de recomendação, tendo como ponto principal o respeito à autodeterminação do indivíduo. Preocupações a respeito de incidentes de segurança por eventuais falhas também deve ser uma preocupação da regulação, vez que tais acidentes tornam-se cada mais inevitáveis.
Por fim, considerando o aumento da conectividade e uso de plataformas digitais para diversos serviços, os riscos sobre operações de influência podem trazer sérias consequências para a sociedade, economia e democracia brasileira. Um exemplo concreto desse risco para as infraestruturas democráticas é a ameaça de desinformação, entendida aqui como operações que tentam influenciar o comportamento dos cidadãos e desestabilizar a democracia.
Em estudo acima realizado pelo CTS sobre cibersegurança foi pontuado que ataques de desinformação, ocorridos por meio de plataformas digitais, traz como consequências: (a) Efeitos nos processos eleitorais; (b) Dispersão de discursos de ódio, intolerância, racismo, machismo, e preconceitos de outras naturezas; (c) Desestabilização da política, de instituições e da economia local de um país (ou organização social de outra natureza); (d) Impactos de natureza geopolítica, como impactos negativos na relação entre diferentes Estados; e, (e) Impacto na saúde coletiva e integridade física das pessoas.
Como medidas de mitigação, que serão colocados no item correspondente, devem ser adotadas análises de riscos sistêmicos pelas plataformas digitais com o estabelecimento de deveres de cuidado, devendo necessariamente ser considerada a escala das medidas a serem adotadas em razão do alcance que as plataformas podem proporcionar ao problema. - Rafael Evangelista 16/07/2023 às 15:06Em comunicações estratégicas e oficiais, o Estado deve fazer uso apenas de tecnologias, incluindo hardware e software, sobre as quais tenha pleno domínio e garantia de segredo das comunicações.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:11Novamente relacionado ao conceito de capitalismo de vigilância, as plataformas digitais podem coletar diversos dados que não são estritamente necessários para a prestação de seus serviços, mas que de uma forma ou de outra são úteis para os seus interesses comerciais. Por mais que essas questões, a nível nacional e em termos de proteção de dados pessoais, busquem ser mitigadas com a aplicação dos princípios da Lei Geral de Proteção de Dados (LGPD), as plataformas digitais também podem tratar dados e informações não pessoais, e que sejam estratégicos para o desenvolvimento de empresas e até mesmo de governos. Sendo assim, eventuais violações de privacidade podem significar grandes riscos para os países.
Nessa toada, cita-se o exemplo da plataforma de videochamadas Zoom, que teve um grande aumento de usos durante o período da pandemia de Covid-19. Contudo, falhas de segurança diversas fizeram com que ela fosse banida em diversas empresas, agências de governos e governos em 2020. Como falhas, alegou-se: vazamento de informações pelo uso da ferramenta de gravação; ausência de criptografia ponta-a-ponta; uso de dados do LinkedIn sem a autorização dos usuários; falhas de segurança no aplicativo que permitiam que terceiros (hackers) pudessem acessar a câmera e o microfone dos usuários do Zoom; vazamento de dados de e-mail e senha dos usuários; entre outros (https://www.cybersecurity-insiders.com/reasons-why-zoom-app-is-being-banned-by-governments-across-the-world/).
Dentre os países e entidades que baniram o uso do Zoom em 2020, tem-se: Taiwan, NASA, Ministérios das Relações Exteriores da Alemanha, o senado dos EUA, e a Australian Defense Force (https://www.techrepublic.com/article/who-has-banned-zoom-google-nasa-and-more/).
Outro exemplo nesse sentido que tem sido bastante presente nos últimos meses é o debate entre EUA e China com relação ao TikTok. O governo dos EUA tem algumas ressalvas com relação ao aplicativo, argumentando que (i) ele seria utilizado como uma forma do governo chinês espionar os cidadãos estadunidenses em razão do fato de a empresa dona do aplicativo ser chinesa e de que esta teria uma exigência de repassar dados ao governo chinês; e (ii) o algoritmo do aplicativo serviria para influenciar a opinião pública (https://www1.folha.uol.com.br/mundo/2023/04/entenda-como-o-tiktok-chegou-a-disputa-geopolitica-entre-eua-e-china.shtml).
Outros países optaram por suspender o uso do aplicativo no setor público por conta de cibersegurança “(...) sob a justificativa de que políticos e servidores têm acesso a informações potencialmente sensíveis em seus celulares profissionais”. Dentre eles, estão: Canadá, Dinamarca, Holanda, Letônia, Noruega, Reino Unido, Nova Zelândia, França e Bélgica (temporariamente) (https://www1.folha.uol.com.br/mundo/2023/04/entenda-como-o-tiktok-chegou-a-disputa-geopolitica-entre-eua-e-china.shtml). - Tarcizio Silva 16/07/2023 às 11:32As maiores empresas de plataformas digitais historicamente expuseram seus desejos e/ou capacidades de realizar operações de influência em diferentes contextos. Neste campo, a regulação de plataformas no Brasil pode ser considerada atrasada em uma década se considerarmos os perigos já explícitos.
Em 2012, cientistas do Facebook publicaram na Nature o trabalho "A 61-million-person experiment in social influence and political mobilization" provando que um teste com 61 milhões de usuários durante 2010 gerou mais votos ('voter turnout'). O experimento usou o mecanismo de "influencia social" através de ajustes na plataforma para exibir ou não os cartões de "Número N de seus amigos já votaram".
Em 2014, o artigo "Experimental Evidence Of Massive-Scale Emotional Contagion Through Social Networks" foi um experimento massivo com mais de 600 mil usuários que não deram consentimento para este tipo de estudo. O Facebook provou que conseguiu influenciar, através de mudanças nos feeds, as emoções das pessoas usuárias.
Para além dos absurdos éticos e contra científicos dos dois experimentos, os casos deveriam ser alertas à época do poder das plataformas em realizar operações de influência. Depois de escândalos de vazamento de dados e casos como o Cambridge Analytica, as empresas detentoras das plataformas passaram a ser mais discretas sobre os projetos internos de pesquisa e influência, mas sem transparência absoluta devemos estabelecer regulação forte em prol da defesa da soberania brasileira. - Weizenbaum Institut - Núcleo de Tecnologia do MTST (comentário inserido por: Alexandre Costa Barbosa) 16/07/2023 às 05:28Nós do Núcleo de Tecnologia do MTST defendemos a proibição da utilização de softwares proprietários na Administração Pública Federal, inclusive no que tange os repositórios em que os códigos fontes estão armazenados
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 16:39Sim, pelo motivo anterior (prevalência de interesses privados e de dados localizados e armazenados em lugares físicos fora do Brasil), além do uso dessas informações para influenciar campanhas políticas como aconteceu na eleição presidencial de 2018 (eleição de Jair Bolsonaro) e da utilização de robôs para o compartilhamento em massa de notícias falsas através de aplicativos de mensageria instantânea.
- Ricardo de Holanda Melo Montenegro 12/07/2023 às 10:10Todas essas questões passam por um fortalecimento do mercado nacional para tecnologia da informação e comunicação, plataformas digitais (Big Techs) e até na prestação direta de serviços pelo Estado ou em composição societária (público-privado), considerando esse como indutor e desenvolvedor nacional para soluções de futuras indústrias tecnológicas (Big Techs).
Enquanto o Estado brasileiro não acordar para possuir ilhas de tecnologia nas várias regiões do país e necessária massificação de mão de obra tecnológica, criar oportunidades e gerar empregos tecnológicos em massa, visando criar soluções para serviços digitais semelhantes e concorrentes às Big Techs estrangeiras, não há falar em soberania (digital), seremos uma sociedade hiperconectada e “controlada” por outras nações. - Rodrigo Pereira 11/07/2023 às 11:40Desenvolvimento pressupõe passo a passo. Se não tivermos primordialmente tecnologia segura, com profissionais que possam manter criptografia e demais proteções básicas, não faz sentido empurrar internet das coisas, se as coisas "inteligentes", ou melhor, espertas (smarts) podem servir à invasão de privacidade. A responsabilidade pelo controle social das entidades sociais reside muito neste aspecto: Prevenir danos e gerenciar a evolução das tecnologias dentro de critérios básicos como respeito à privacidade, à saúde à garantia de que não haverá violações de direitos e demais legalidades. Tudo tem seu momento para ser implementado. Toda revolução industrial teve cerca de 100 anos para mudar, então se estamos há cerca de 50 anos do toyotismo, temos que questionar a afobação das empresas da era digital, e esfriar seus ânimos, para prevenir que todos as questões de legalidade, ainda não bem equilibradas na sociedade, sejam agravadas pelos novos aparatos tecnológicos. Aliás toda tecnologia deveria estar atenta aos interesses públicos legais antes de seduzir a sociedade sobre seus benefícios. Afinal, se é para melhorar as condições de vida, para facilitar a vida, não deveriam ignorar as questões legais sobre privacidade, bem estar social, etc. Até onde podemos constatar, a era digital não demonstrou seu papel civilizatório, pelo contrário: as polarizações, as guerras, as intolerâncias e demais desmazelos socioculturais vem aumentando ao invés de melhorando com a era digital. Aguardamos mais responsabilidade, monitoramento e avaliação de resultados neste sentido, se pretendem ser um benefício para as relações humanas, para além da propaganda...
- Alex Camacho Castilho 06/07/2023 às 14:17Riscos associados a ameaças de espionagem, invasão de privacidade e operações de influência: As plataformas digitais podem ser alvo de atividades de espionagem, invasão de privacidade e operações de influência, representando riscos significativos para a soberania digital de um país. Essas ameaças podem ser perpetradas por entidades estrangeiras com o objetivo de obter informações confidenciais, influenciar a opinião pública ou minar a estabilidade política e social. Para mitigar esses riscos, é importante considerar medidas regulatórias que fortaleçam a segurança cibernética, promovam a transparência das práticas das plataformas digitais e incentivem a cooperação entre os setores público e privado na detecção e prevenção de atividades maliciosas.
- Jose Vieira 19/06/2023 às 14:13Aqui temos um embate técnico que dificilmente uma lei possa coibir.
É praticamente impossível evitar que dispositivos IOT por exemplo com servidores na China, Russia etc, não tenha acesso a dados de usuários.
Uma lei para proteger isso, teria que obrigar as empresas que oferecem esses serviços ou outros como mensageiros, plataformas sociais, etc. Tenham datacenters dentro do país que o conceito de nuvem seja repensado.
Em outras palavras. Pouco provável a aplicação de uma regra eficiente para isso - Anderson Nascimento Nunes 26/05/2023 às 13:35A questão da segurança de eletrônicos não está sem questionamentos ainda. Os EUA mesmo estão preocupados com possíveis usos clandestinos de equipamentos de transmissão.
"Tecnicamente não é difícil fazer um dispositivo que esteja em conformidade com a FCC que escute bandas não públicas, mas que aguarde silenciosamente por algum gatilho de ativação para ouvir outras bandas”, disse Eduardo Rojas, que lidera o Laboratório de Espectro de Rádio da Embry-Riddle Aeronautical University na Flórida. "Tecnicamente, é viável."
Para provar que um dispositivo tinha capacidades clandestinas, disse Rojas, seria necessário que especialistas técnicos reduzissem um dispositivo "ao nível de semicondutor" e "engenharia reversa o projeto". Mas, disse ele, isso pode ser feito.
https://www.linkedin.com/posts/dciber-org_investiga%C3%A7%C3%A3o-do-fbi-determinou-que-equipamentos-activity-6959175828093980672-w2xQ
Confiar sem investigar é convite para oportunismo.
#segurançanacional #semicondutores #espionagem - Leonardo Tavares de Almeida 04/05/2023 às 08:54Se apurada qualquer dessas práticas contra membros do executivo, congresso, senado ou tribunais superiores, o banimento da plataforma no país deve ser sumário.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:31Um risco relacionado à soberania digital e ao desenvolvimento tecnológico que não foi mencionado é a crescente verticalização entre operadores de conteúdo e aplicações através de práticas de zero rating. Essa integração vertical ocorre na medida que as operadoras conectam seus serviços a aplicativos de conteúdo, isto é, a determinadas plataformas digitais, e, com isso, produzem incentivos para que certas companhias controlem o tráfego de conteúdo e imponham barreiras de entrada no mercado para novos competidores.
Como destacado em vários trabalhos e veículos de imprensa:
“a soberania digital é soberania sobre dados. Continuamos a proclamar que os dados são o petróleo do Século XXI, mas de fato entregamos uma concessão para explorar essa riqueza ad infinitum para as mesmas pouquíssimas empresas estrangeiras implicadas nas revelações de Snowden de 2013. Na verdade, no Brasil, a enorme maioria dos usuários de Internet são de fato meros usuários de redes sociais, que estão entre os pouquíssimos aplicativos subsidiados nas franquias dos planos de internet móvel. Essa situação leva os usuários mais pobres, ou seja, a enorme maioria, a usar principalmente redes sociais nos próprios smartphones porque são as únicas percebidas como “de graça.” Não é de se maravilhar se os internautas brasileiros passam em média 4 horas por dia em redes sociais – principais espalhadores de desinformação – e 95% deles usa sua conexão principalmente em aplicativos de mensageria instantânea, como destaca o IBGE. Não é de se maravilhar se as big tech concentram dados e mercado, realizando lucros bilionários que não são devidamente tributados. Nossa política de acesso à internet móvel garante que o insumo valioso (dados) seja extraído gratuitamente somente por algumas empresas que processam e geram renda e inovação – e informações altamente estratégicas – em servidores estrangeiros com tributação mínima no Brasil.” (BELLI, L. Brasil precisa reconstruir sua soberania digital. Estadão, 1 de mar. 2023).
O MCI prevê o princípio da neutralidade da rede, isto é, proíbe a discriminação entre os vários conteúdos, aplicativos, serviços ou equipamentos terminais, preservando, assim, uma internet livre e aberta. No entanto, no Brasil, esse princípio não tem sido respeitado. Como medida mitigadora desse risco a proibição expressa de práticas de zero rating poderia fomentar o efetivo desenvolvimento de uma soberania digital. A proibição desse tipo de prática permite que os dados da população brasileira não sejam concentrados apenas por plataformas dominantes, o que favorece o florescimento de um ecossistema digital nacional, da concorrência e inovação local (BELLI, et al, 2023). - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:20Um dos riscos que merece atenção é a possibilidade de descompasso de investimentos e o sucateamento da infraestrutura crítica de comunicação nacional. Conforme matéria do Estadão (https://www.estadao.com.br/economia/cresce-briga-entre-operadoras-de-telefonia-e-big-techs-por-cobranca-de-trafego-excessivo-na-internet/), as Big Techs Meta, Google e Netflix representam a maior parte do uso de tráfego de dados nas redes oferecidas pelas operadoras de internet móvel e fixa. Ainda segundo a matéria, “esse aumento no consumo de banda exige investimentos das teles para aumentar a capacidade dos seus serviços de internet fixa e móvel”.
Nesse sentido, com o intenso consumo dos serviços oferecidos por essas empresas e a impossibilidade de repasse dos custos para o consumidor final em razão da neutralidade da rede (que não deve ser eliminada), as operadoras possuem um alto custo de manutenção e desenvolvimento da infraestrutura de rede. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:15A ideia de soberania digital é uma ideia bastante difusa, que pode comportar diversas preocupações diferentes. Entre os riscos existentes para a soberania digital, estão os riscos para a segurança e resiliência de produtos e serviços destinados aos usuários brasileiros, incluindo aí o sigilo de informações públicas e privadas, bem como a proteção da confidencialidade e integridade de dados pessoais.
- Weizenbaum Institut - Núcleo de Tecnologia do MTST (comentário inserido por: Alexandre Costa Barbosa) 16/07/2023 às 05:24Nós do Núcleo de Tecnologia do Movimento dos Trabalhadores/as Sem Teto (MTST) entendemos que a soberania digital deve ser popular. Ressaltamos que nossa definição de soberania digital foi a única mencionada no Fórum da Internet no Brasil além da citada acima proveniente da Fundação Getúlio Vargas (CTS).
Os riscos devem levar em consideração a apropriação tecnológica para organização e poder popular, que reivindique acesso significativo à Internet real, educação digital e tecnológica crítica e que desenvolva e promova plataformas de propriedade dos trabalhadores e trabalhadoras. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:28Riscos relacionados às vulnerabilidades das múltiplas infâncias do Sul Global em um contexto de crescente globalização:
Mais recentemente, em 2021, o Unicef divulgou documento intitulado ´Investigating risks and opportunities for children in a digital world: A rapid review of the evidence on children´s Internet use and outcomes´ , apresentando uma valiosa revisão das pesquisas mais recentes sobre as experiências das crianças em relação à Internet e às tecnologias digitais, bem como suas oportunidades e riscos. Com o objetivo de informar legisladores, educadores, especialistas em proteção infantil, indústria e famílias sobre as mais recentes evidências, também propõe uma agenda futura de pesquisa. Importante destacar, a respeito das conclusões deste estudo, que as desigualdades socioeconômicas, especialmente, no sul global, são apontadas como fatores preponderantes na existência de maiores riscos e menos oportunidades às crianças. Seja porque enfrentam mais barreiras ao acesso de qualidade à Internet, seja porque têm menos recursos disponíveis quanto a uma adequada mediação e apoio para desfrutarem as tecnologias digitais . Nesse sentido, o documento conclui que, em muitos casos, maiores vulnerabilidades existentes na vida offline estão relacionadas a maiores vulnerabilidades online. (...)
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques. Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf
Riscos relacionados à posição do Brasil como provedor de dados primários e consumo passivo de tecnologias digitais, consumindo tecnologias que não consideram aspectos culturais específicos da nossa realidade:
Esse duplo padrão de comportamento empresarial amplia os riscos e a possibilidade de ocorrência de danos nas crianças do sul global. Isso sem falar na falta de acesso de qualidade às tecnologias digitais presentes nos países do sul global e na ameaça do colonialismo digital , no sentido de que países em desenvolvimento, como o Brasil, tornem-se meros provedores de dados primários, enquanto sejam obrigados a pagar pela inteligência digital gerada com o uso de seus dados ou, se não, meros consumidores passivos das tecnologias digitais desenvolvidas no norte global .
(...)
“A maior parte das ferramentas utilizadas hoje no Sul Global foi desenvolvida por empresas do Norte, desconsiderando, em geral, aspectos culturais específicos da nossa realidade. Os conjuntos de dados mais populares são centrados nos Estados Unidos e na Europa ocidental, e dados de outras localidades, quando existem, costumam ser negligenciados pelos arquitetos de sistemas que desconhecem aquela cultura. É muito comum, por exemplo, que um sistema de reconhecimento de imagem classifique a fotografia de uma mulher em um vestido branco como uma cerimônia de casamento, mas dificilmente fará o mesmo para uma noiva trajando sári em uma celebração indiana.
Grandes empresas estão buscando alternativas para essa questão, como o projeto Crowdsource, da Google, que disponibiliza um site e um aplicativo para que as pessoas adicionem conteúdos regionais de forma a expandir sua base de dados.”
CORTIZ, Diogo. Inteligência Artificial: equidade, justiça e consequências. In CETIC.BR – CENTRO REGIONAL DE ESTUDOS PARA O DESENVOLVIMENTO DA SOCIEDADE DA INFORMAÇÃO SOB OS AUSPÍCIOS DA UNESCO. Panorama Setorial, número 1, ano 12, 2020.
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques. Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf
Riscos relacionados à compreensão da noção de soberania digital envolvem, ainda, a compreensão de que há tratamentos diferenciados realizados por Big Techs, que vulnerabilizam a segurança e a proteção das múltiplas infâncias do Sul Global
Em julho de 2021, o Data Privacy Brasil realizou uma análise comparativa explorando as diferenças nos Termos e Condições oferecidos aos usuários brasileiros, indianos e europeus do WhatsApp, incluindo usuários menores de 18 anos. Eles descobriram que:
● As crianças europeias desfrutam de proteções mais robustas contra o compartilhamento desnecessário de dados. A política europeia prevê uma maior limitação na possibilidade de compartilhamento de dados entre o WhatsApp e a Meta (anteriormente Facebook). Isso reflete níveis fundamentalmente diferentes de integração de dados permitidos legalmente entre o WhatsApp e o Facebook, decorrentes das regulamentações europeias. Isso significa que as crianças europeias têm mais limitações de finalidade no uso do WhatsApp (ou uso restrito de dados) do que as crianças indianas ou brasileiras. Por exemplo, as políticas brasileira e indiana permitem o uso de dados para personalização dos serviços das empresas do Grupo Facebook ("melhorar, corrigir e personalizar nossos Serviços e vinculá-los aos Produtos das Empresas do Facebook que você pode usar"), enquanto a política europeia se restringe a elementos de funcionalidade e melhoria do serviço, sem uma redação equivalente em relação aos "produtos das empresas do Facebook".
● As crianças europeias têm mais clareza sobre a exclusão de dados e o que isso significa. A política europeia fornece mais clareza e compromisso sobre os dados que são excluídos. Ela declara explicitamente o backup para fins de segurança da informação e o período de 90 dias. (Observe que leva até 90 dias a partir do início do processo de exclusão para excluir suas informações do WhatsApp). A política europeia também fornece mais detalhes sobre as informações retidas em caso de exclusão da conta, deixando claro que excluir o aplicativo móvel não exclui a conta do WhatsApp. Embora todas as políticas prevejam um período genérico de armazenamento de dados, a política europeia fornece mais detalhes sobre isso, especialmente em relação aos prazos para exclusão de dados.”
Fonte: Global platforms, partial protections: Design discriminations on social media platforms, link: https://fairplayforkids.org/wp-content/uploads/2022/07/design-discriminations.pdf - Internet Society Capítulo Brasil (comentário inserido por: GT-RI ISOC Brasil) 14/07/2023 às 15:20SOBRE OS DIFERENTES CONCEITOS DE SOBERANIA DIGITAL
É importante que uma regulação que trate de alguma forma a temática da soberania digital tome o cuidado de não impor ou vincular o termo a uma definição única e estanque que prejudique a compreensão de outras ações/políticas que também podem fazer parte desse conceito “guarda-chuva”.
É possível atribuir diferentes significados ao termo “soberania digital”, cujas noções, por vezes, podem se interseccionar. Uma das primeiras concepções de soberania digital é aquela vinculada à noção de controle e poder do Estado sobre o digital como um todo, seja com relação às diferentes camadas que compõem esse ambiente (infraestrutura física, códigos, softwares, hardwares, protocolos de operação, entre outros), seja com relação à garantia de segurança nacional, ao fluxo de dados e de informação, e ao estabelecimento de normas para o meio digital (e às formas de garantir a aplicação dessas regras) [1].
Uma segunda perspectiva, também vinculada ao poder e políticas provenientes do Estado, é a que preza pelo desenvolvimento da indústria local de tecnologias, plataformas e serviços digitais diversos [2]. Sob tal prisma, visa-se reduzir a dependência de serviços oferecidos por empresas estrangeiras e, consequentemente, prover maior autonomia econômica ao país e maior capacidade competitiva do mercado interno.
Por fim, também é possível tratar da soberania digital em termos da autonomia/autodeterminação de indivíduos, grupos e movimentos sociais. Sob esse guarda-chuva, o conceito refere-se à capacidade de um indivíduo, bem como de grupos, comunidades e movimentos sociais, de poderem atuar e tomar decisões sobre suas informações e fluxos de dados de maneira autônoma e independente, de acordo com seus próprios interesses, valores e cultura [3]. Também envolve o desenvolvimento de sistemas, tecnologias e infraestruturas próprias. Como exemplos, é possível mencionar as medidas buscadas com relação aos dados da população Maori na Nova Zelândia; e à definição de soberania digital apresentada pelo MTST no Brasil:
“A third approach aligns digital sovereignty with individual and/or collective sovereignty. This is manifested in measures to enhance the rights of individuals and/or communities in relation to data about or created by them. In its data sovereignty guidance, the New Zealand government calls for institutions to choose cloud services that respect indigenous Māori data rights. It upholds the Māori Data Sovereignty Charter, which urges greater Māori access to, and ownership of, data collected about them by other entities, and empowers the Māori to govern their data according to their customs and priorities” [4].
“Nós, do Núcleo de Tecnologia do Movimento dos Trabalhadores Sem Teto (MTST), entendemos a soberania digital como a soberania tecnológica dos movimentos sociais. Entendemos essa soberania a partir do uso e desenvolvimento de tecnologias por e para quem faz as lutas sociais. Isto é, além de não ficar para trás na corrida do digital, poder apontar qual caminho é realmente emancipatório, mostrando como podemos promover a tecnologia para o fortalecimento da organização do poder popular”[5].
Dessa forma, nota-se que o conceito de soberania digital aparece com diferentes contornos, sendo importante que uma regulação que trate sobre a temática não imponha uma definição única e estanque, sob pena de prejudicar a compreensão de outras ações/políticas como também sendo parte desse conceito “guarda-chuva”. Sendo um conceito multifacetado, a definição escolhida para soberania digital e suas respectivas ações de implementação têm o potencial de impactar outros atores e elementos-chave da infraestrutura da Internet global, como a conectividade e a Neutralidade da rede.
SOBRE OS CONCEITOS DE FRAGMENTAÇÃO DA INTERNET E SEUS RISCOS
Em defesa da Internet aberta, globalmente conectada, segura e confiável, chama-se a atenção aos riscos não apenas decorrentes da operação de plataformas digitais em contextos nacionais, tal como observado na Consulta, mas aos riscos de opções regulatórias que fragmentem indevidamente a experiência do cidadão brasileiro conectado à rede.
A proposta parte da expansão da conceituação clássica de Fragmentação da Internet. Uma das mais difundidas, em razão do extenso trabalho da organização nesse campo e na proteção de uma Internet aberta, conectada globalmente, segura e confiável, é o da Internet Society. O conceito é guiado pela preocupação com a preservação desses elementos fundamentais, sendo especialmente relevante aqui a conexão global, a abertura e a confiabilidade da tecnologia, que podem ser severamente afetadas em processos de fragmentação. Importante comentar que existem diferentes tipos de fragmentação, a depender do conceito utilizado. Alguns deles, quando sob o controle consciente e intencional do usuário final que controla a ponta da rede e recebe a informação, podem ser considerados positivos. Vide https://www.internetsociety.org/blog/2016/01/hey-someone-fragmented-my-internet-and-didnt-even-tell-me/
Afinal, para a Internet existir na forma que a conhecemos hoje, é necessária a combinação de cinco propriedades fundamentais críticas: (i) uma infraestrutura acessível com um protocolo comum, permitindo a colaboração global sem fronteiras nacionais; (ii) uma arquitetura aberta de blocos de construção interoperáveis e reutilizáveis, estimulando a inovação ao manter a Internet simples; (iii) gerenciamento descentralizado e um único sistema de roteamento distribuído, permitindo que a rede evolua de forma eficiente priorizando que a informação chegue ao seu destino; (iv) identificadores globais comuns, garantindo que as comunicações cheguem ao endereço correto da ponta da rede; e (v) uma rede tecnologicamente neutra e de uso geral, permitindo a inovação pela falta de propósitos específicos.
Assim, para a ISOC, a antítese da Internet é o que ela chama de “splinternet”, ou, em tradução livre, uma “rede fragmentada”, resultado de processos de fragmentação mais incisivos. Essa é a ideia de que a Internet aberta e globalmente conectada que todos nós usamos se fragmente em uma coleção de redes isoladas controladas por governos ou corporações, ainda que continuem compartilhando os mesmos protocolos e nomes da rede global que conhecemos hoje. Ou seja, interrompe-se o livre fluxo da informação, e o que você recebe como um usuário da ponta do sistema é profundamente controlado (ou mesmo bloqueado) por terceiros, que podem inclusive te direcionar para um endereço virtual que não é o originalmente desejado (vide: https://isoc.org.br/noticia/como-proteger-a-internet-de-se-tornar-a-splinternet).
Em outras palavras, a Internet, tão caracterizada por ser uma tecnologia transfronteiriça (ainda que sejam legítimas algumas variações de país para país) passa a ter fronteiras rígidas e que geram experiências radicalmente diferentes quando você passa de um lado ao outro. O exemplo da China (Great Firewall), ou das tentativas no mesmo sentido da Rússia (RuNet), são regularmente mencionados (vide: https://www.internetsociety.org/blog/2022/03/what-is-the-splinternet-and-why-you-should-be-paying-attention/.). Porém, é importante notar que existem vários exemplos de processos fragmentantes no ocidente, com múltiplos exemplos na Europa, no Canadá e nos EUA (https://www.internetsociety.org/blog/2023/03/misguided-policies-the-world-over-are-slowly-killing-the-open-internet/).
Exemplos importantes de processos de fragmentação que levam a uma splinternet são desligamentos (shutdowns) da Internet, decisões politizadas sobre acesso à Internet e sua infraestrutura (especialmente quando afetam outros países) e políticas ou decisões de negócios que não levam em consideração, como um elemento prioritário, a proteção das funcionalidades da Internet.
Assim como apontado pela Internet Society, a PNIF (Rede de Políticas sobre Fragmentação da Internet), vinculada ao IGF (Internet Governance Forum), também conceitua as diferentes formas de fragmentação da Internet a partir dos riscos existentes para a operação global dessa rede de redes.
A PNIF conceitua a fragmentação a partir de três dimensões principais: (i) da experiência do usuário; (ii) da camada técnica da Internet; e, (iii) da governança e coordenação da Internet. A primeira, fragmentação da experiência do usuário, se baseia principalmente no acesso aos conteúdos, serviços e aplicações disponíveis na Internet, tratando das distintas possibilidades de experimentação do usuário nesse meio, resultante da ausência de acesso efetivo à infraestrutura ou do controle do fluxo de informações operada por intervenções estatais ou de corporações. Nesse cenário, a estrutura de Direitos Humanos e a necessidade de manter um fluxo livre de dados serviriam como referências para avaliar quais medidas afetam a experiência do usuário e como evitar aquelas que a afetam negativamente. O aumento da censura e bloqueios da Internet em épocas de eleições e/ou protestos são exemplos de formas de fragmentação que ferem os direitos humanos (conhecidos como Internet shutdowns). Neste contexto, o capítulo brasileiro da ISOC Brasil acredita que incluir esta chave conceitual no debate sobre marcos regulatórios é estratégia frutífera para prevenir riscos indesejados que possam decorrer de iniciativas nacionais.
A segunda dimensão destacada pela PNIF é baseada na fragmentação da camada técnica da Internet, referindo-se, assim, às medidas que causam potenciais riscos à interoperabilidade da infraestrutura e do funcionamento da Internet global. São citadas, como causas possíveis desses riscos, interferência no núcleo público da Internet, criação de “internets nacionais” limitadas por fronteiras geográficas e roteamento do tráfego de Internet via infraestrutura privada por grandes empresas de tecnologia.
A terceira dimensão é a de fragmentação da governança e coordenação da Internet, podendo se manifestar através de mudanças no compromisso de gestão multissetorial da Internet ou da ausência de um compromisso global e multissetorial para abordar questões de políticas globais de Internet, a partir de uma perspectiva de direitos humanos e livre fluxo de dados. O compromisso multissetorial com o desenvolvimento de políticas e regulamentos é destacado como um ponto de crucial relevância, tendo por certo que, caso um dos setores interessados deseje fazer interesses próprios se sobreporem em detrimento do interesse dos demais, é colocada em risco a camada técnica e, consequentemente, também a experiência dos usuários.
Vale ressaltar, ainda, que se reconhece a existência de alguns níveis de fragmentação que podem ser condizentes com o desenvolvimento da Internet. No entanto, há preocupações de que o fenômeno esteja piorando e possa impactar o cenário global de interoperabilidade da Internet, o que reforça a necessidade de atenção de legisladores e de toda a comunidade brasileira de Governança na Internet na contínua construção do ambiente legal e regulatório que é aplicado à Internet no Brasil.
Nessa conjuntura, o espaço multissetorial de Governança da Internet, por agregar ao debate diversas partes interessadas, está intrinsecamente ligado com os diálogos necessários para que possa evitar a fragmentação. Nesse sentido, a partir da discussão entre variados atores, algumas premissas básicas foram estipuladas: a Internet aberta deve ser globalmente conectada, disponível para todos e baseada nos direitos humanos; a transparência e a proteção da privacidade são fundamentais, incluindo a possibilidade de controle da própria experiência online; a concorrência, escolha e inovação devem ser protegidas; e o debate sobre moderação de conteúdo deve ser aprofundado.
Com efeito, compreende-se que, no que diz respeito à experiência do usuário, as discussões sobre a fragmentação e o futuro da Internet devem abandonar a perspectiva individualista e passar para um paradigma coletivo; e, em relação à Governança da Internet, passar de um modelo de apenas cooperação entre os atores para um modelo que vise também o empoderamento mútuo destes.
Por fim, no contexto nebuloso de busca pela definição da fragmentação da Internet, é necessário ter uma compreensão nítida do que não se enquadra como fragmentação ou uma consequência dela, ao mesmo tempo que a definição e o discurso em torno da fragmentação não devem ser modulados para excluir exemplos de fragmentação que são aceitos, como, por exemplo, certas ações de aplicação da lei contra conteúdo nocivo e/ou regulamentação excessiva.
PRÁTICAS REGULATÓRIAS QUE PODEM FRAGMENTAR A INTERNET: O caso do Sending Party Network Pays (SPNP) na Coreia do Sul
Um exemplo de como práticas regulatórias podem impactar a Internet é o caso do Sending Party Network Pays (SPNP) na Coreia do Sul. O Internet Impact Brief (relatório elaborado com o objetivo de analisar como diferentes políticas ou novas tecnologias podem impactar nas propriedades críticas que garantem o funcionamento e o desenvolvimento da Internet. Saiba mais em: https://www.internetsociety.org/issues/internet-way-of-networking/internet-impact-assessment-toolkit/) elaborado pela Internet Society analisa as novas regras de interconexão entre provedores de serviços de internet (ISPs) e provedores de serviços de valor agregado às telecomunicações (VSPs) na Coreia do Sul. Essas regras incluem taxas pelo uso de redes e requisitos de qualidade de serviço. O Ministério da Ciência, TIC e Planejamento de Futuro da Coreia do Sul implementou os Padrões de Interconexão para Instalações de Telecomunicações em 2016, exigindo que os ISPs cobrem pelo tráfego recebido uns dos outros. Essa prática é conhecida como Sending Party Network Pays (SPNP) e impõe custos adicionais aos provedores de conteúdo. A política SPNP foi reforçada por alterações no Telecommunications Business Act, exigindo que os provedores de conteúdo atendam a certos requisitos e firmando contratos com ISPs locais.
Essas regras afetam as propriedades críticas da Internet. Elas interferem na autonomia da Internet como uma rede gerenciada descentralizada, impondo acordos de negócios entre os agentes para o uso das redes e restringindo a flexibilidade das redes. A política SPNP também limita a escalabilidade na entrega de conteúdo interativo e streaming devido à infraestrutura de conectividade e troca de tráfego inadequada que ela impõe. Além disso, essas regras violam o princípio da neutralidade da rede e fragmentam a Internet, limitando o acesso dos usuários a serviços online que não têm contrato com ISPs locais.
A política SPNP impõe ônus aos provedores de conteúdo para manter a qualidade do serviço, podendo resultar em downgrade ou suspensão de seus serviços. Isso pode ser usado pelos ISPs locais para favorecer um provedor de conteúdo em detrimento de outros, prejudicando a experiência do usuário e ameaçando a ideia de uma Internet global e de propósito geral. No Brasil, a Agência Nacional de Telecomunicações (Anatel) propõe uma política regulatória semelhante (https://apps.anatel.gov.br/ParticipaAnatel/VisualizarTextoConsulta.aspx?TelaDeOrigem=2&ConsultaId=10120), que poderia transferir custos e impor restrições aos provedores de conteúdo, criando dificuldades de acesso e segregação virtual de usuários.
Essa regulação brasileira tem o potencial de reduzir a inovação na Internet, impor barreiras ao desenvolvimento de tecnologias e criar fragmentação na experiência do usuário. Transferir custos de infraestrutura para os provedores de conteúdo pode limitar o alcance e o acesso a determinados conteúdos. Portanto, uma regulação de plataformas com objetivos semelhantes corre o risco de afetar negativamente as propriedades críticas da Internet.
SOBERANIA, REGULAÇÃO E PRINCÍPIOS DA INTERNET
Ao se pensar regulação sob o prisma da soberania digital, é imperativo ponderar um equilíbrio entre as necessidades e direitos dos Estados e a preservação dos princípios universais da Internet, garantindo sua natureza global, aberta e acessível. Deve-se ter em conta que essa natureza principiológica impacta significativamente a direção futura de seu desenvolvimento.
A regulação da Internet deve ser sempre orientada por um compromisso com o bem comum global, buscando proteger sua integridade e universalidade. Dessa forma, a regulação requer um forte compromisso com os princípios fundamentais da Internet, entre os quais podemos citar:
1) UNIVERSALIDADE E IGUALDADE: A Internet deve ser acessível a todos, independentemente de sua localização, raça, gênero, idade ou status econômico. A igualdade de acesso é essencial para garantir que todos possam se beneficiar das oportunidades oferecidas pela Internet.
2) ABERTURA: A natureza aberta da Internet tem sido fundamental para o seu crescimento e sucesso. As normas devem promover a abertura e a transparência, permitindo que todos contribuam para o seu desenvolvimento e evolução e que novos serviços e tecnologias sejam incorporados facilmente.
3) SEGURANÇA: A segurança é um aspecto crítico da Internet. A regulação deve se concentrar na garantia de que os sistemas sejam robustos e resilientes a uma variedade de ameaças.
4) INTEROPERABILIDADE: As normas devem promover a interoperabilidade entre redes e dispositivos, garantindo que eles possam funcionar juntos de forma eficaz.
5) NEUTRALIDADE DA REDE: Este princípio assegura que todos os dados na Internet sejam tratados de forma igual, sem discriminação ou preferência.
6) DESCENTRALIZAÇÃO: Este é um princípio fundamental da Internet, que não tem um controle centralizado, e permite a todos a oportunidade de criar, inovar e compartilhar informação de maneira equitativa.
7) MODELO DE PARTICIPAÇÃO MULTISSETORIAL: A criação e implementação de normas deve ser um processo inclusivo e participativo, que permita a contribuição de todas as partes interessadas.
A complexidade da tarefa regulatória reside na necessidade de equilibrar a preservação desses princípios fundadores da Internet com objetivos multifacetados da regulação, que incluem a manutenção da segurança, a proteção dos direitos dos usuários, a promoção da concorrência justa, a garantia da privacidade, a mitigação da disseminação de conteúdo desinformativo, a proteção dos direitos humanos, dentre outros. Ao se pensar regulação sob o prisma da soberania digital, é imperativo ponderar um equilíbrio entre as necessidades e direitos dos Estados e a preservação dos princípios universais da Internet, garantindo sua natureza global, aberta e acessível. Essa tarefa demanda uma abordagem cooperativa e multissetorial, que não comprometa a essência interconectada e descentralizada da Internet.
[1] INTERNET SOCIETY. Navigating Digital Sovereignty and its Impact on the Internet. 2022. Disponível em: https://www.internetsociety.org/wp-content/uploads/2022/11/Digital-Sovereignty.pdf; FALKNER, G. et al. Digital Sovereignty – Rhetoric and Reality. Framework Paper for the Online Conference 28-29 April 2022. Disponível em: https://eif.univie.ac.at/downloads/veranstaltungen/2022/2022%20Falkner%20et%20al.%20Digital%20Sovereignty%20Framework%20Paper.pdf; CHANDER, A.; SUN, H. Sovereignty 2.0. Georgetown University Law Center, 2021. Disponível em: https://scholarship.law.georgetown.edu/facpub/2404/; POHLE, J.; THIEL, T. Digital Sovereignty. In: HERLO, B. et al (Eds.). Practicing Sovereignty: Digital Involvement in Times of Crises. Bielefeld: transcript Verlag, 2021.
[2] INTERNET SOCIETY. Op. cit.; POHLE, J.; THIEL, T. Op. cit.
[3] INTERNET SOCIETY. Op. cit.; COUTURE, S.; TOUPIN, S. What does the notion of “sovereignty” mean when referring to the digital? New Media & Society v. 21, Issue 10, 2019. Disponível em: https://journals.sagepub.com/doi/10.1177/1461444819865984; POHLE, J.; THIEL, T. Op. cit.
[4] INTERNET SOCIETY. Op. cit. p. 18-19.
[5] NÚCLEO DE TECNOLOGIA DO MTST. A soberania digital a partir dos movimentos sociais. Blog Boitempo, 2022. Disponível em: https://blogdaboitempo.com.br/2022/11/11/a-soberania-digital-a-partir-dos-movimentos-sociais/ - Ricardo de Holanda Melo Montenegro 12/07/2023 às 10:16A soberania digital se perde quando a cultura digital está nas mãos de outros países.
Medidas de mitigação à violação da soberania digital podem ser: criar fundos (tributário) para democracia digital, universalizar os novos serviços digitais e fomentar soluções concorrentes às Big Techs. - Alex Camacho Castilho 06/07/2023 às 14:191. Dependência de tecnologia estrangeira: A dependência excessiva de tecnologia estrangeira pode representar um risco para a soberania digital de um país. Para mitigar esse risco, é importante promover o desenvolvimento e a adoção de tecnologias nacionais. Isso pode ser feito por meio de políticas de incentivo à pesquisa e ao desenvolvimento tecnológico, financiamento de startups e empresas locais, e estabelecimento de parcerias estratégicas com instituições de pesquisa e setor privado.
2. Transferência não equitativa de conhecimento tecnológico: Em acordos de cooperação ou parcerias com empresas estrangeiras, é importante garantir que haja uma transferência equitativa de conhecimento tecnológico para o país. Isso pode ser feito por meio de cláusulas contratuais que estipulem o compartilhamento de tecnologias, a capacitação de profissionais locais e a transferência de propriedade intelectual, visando fortalecer a capacidade tecnológica nacional e reduzir a dependência externa.
3. Vulnerabilidades em infraestruturas críticas: As infraestruturas críticas, como sistemas de comunicação, energia, transporte e saúde, estão cada vez mais dependentes de tecnologias digitais. Essa dependência aumenta o risco de ciberataques e comprometimento da soberania digital. Para mitigar esse risco, é necessário investir em medidas de segurança cibernética robustas, como monitoramento constante, detecção de ameaças, implementação de protocolos de segurança e fortalecimento da resiliência dessas infraestruturas.
4. Desigualdades digitais e exclusão digital: A exclusão digital e as desigualdades no acesso e na capacitação tecnológica podem comprometer a soberania digital de uma nação. Para mitigar esse risco, é importante implementar políticas que promovam a inclusão digital, como programas de acesso à internet em áreas remotas, capacitação tecnológica para grupos marginalizados e estímulo à participação de todos os cidadãos na economia digital.
5. Dependência de provedores de serviços em nuvem estrangeiros: A dependência de provedores de serviços em nuvem estrangeiros pode representar um risco para a soberania digital, uma vez que os dados podem estar sujeitos às leis e regulamentações de outros países. Para mitigar esse risco, é necessário incentivar o desenvolvimento de provedores de serviços em nuvem nacionais, que estejam sujeitos à legislação local e garantam a proteção e privacidade dos dados dos usuários.
6. Fortalecimento de capacidades de inteligência artificial (IA) e segurança cibernética: A IA desempenha um papel cada vez mais importante na economia digital e na segurança cibernética. Para garantir a soberania digital, é necessário investir na pesquisa, no desenvolvimento e na capacitação em IA, bem como na segurança cibernética avançada. Isso inclui o estabelecimento de centros depesquisa em IA, programas de formação em segurança cibernética e o fortalecimento de parcerias com especialistas e instituições de renome. - ROSA VICARI 23/06/2023 às 15:52Risco do desaparecimento de línguas (indígenas e a própria língua portuguesa, que deve ser tratada conjuntamente com os demais países falantes).
- Roberto Cardoso Freire da Silva 20/06/2023 às 12:28Para se falar em soberania digital deve-se antes tratar dos recursos disponibilizados pelo Estado no interesse público. Isso inclui: a oferta de Internet de qualidade pública e gratuita, fomento ao desenvolvimento de plataformas públicas enquanto formas alternativas de interação, campanhas e ações de multiletramento sob uma perspectiva crítica.
- Anderson Nascimento Nunes 26/05/2023 às 13:37Todos os processadores devem ser analisados para verificar a existência de implantes de hardware que possam ser usados para sabotagem e espionagem.Rafael Evangelista 13/07/2023 às 17:59boa!
- Leonardo Tavares de Almeida 04/05/2023 às 09:001. Prática de lobbying. Essas empresas estão acostumadas a fazer isso nos EUA e devem ser severamente punidas com multas multimilionárias e banimentos temporários se forem pegas fazendo isso, por si ou por seus dirigentes, para desestabilizar e manipular nossos processos legislativos.
2. Uso de seus espaços para veicular conteúdo opinativo com ou sem caráter político que convirja com seus interesses econômicos, institucionais, estratégicos ou qualquer outra natureza de motivação de forma unilateral sem apresentar contrapartidas amplas, claras, completas e estruturadas da mesma maneira que o artigo original, ou sem ceder a palavra ao polo narrativo oposto. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:15A ideia de soberania digital é uma ideia bastante difusa, que pode comportar diversas preocupações diferentes. Entre os riscos existentes para a soberania digital, estão os riscos para a segurança e resiliência de produtos e serviços destinados aos usuários brasileiros, incluindo aí o sigilo de informações públicas e privadas, bem como a proteção da confidencialidade e integridade de dados pessoais.
- Sarah Martins 14/07/2023 às 19:08- Desenvolvimento de Solução e Aplicação digital nacional (Item 17):
Conforme exposto, o chamado ecossistema digital e sua infraestrutura não apenas geram empregos qualificados e contribuem para a economia brasileira, mas também ajudam a desenvolver a digitalização e promover o acesso em todo o território nacional a soluções com tecnologia de ponta e a preços competitivos. Exemplos disso são soluções de produtividade online (como programas de escritório ou videoconferência), topologias de redes e de aplicações para atendimento de diversas soluções tecnológicas, como bancos de dados ou computação em nuvem (cloud), que auxiliam o Poder Público a realizar seus mandamentos essenciais de eficiência e transparência, bem como a cumprir objetivos que lhe foram postos na Lei de Governo Digital (Lei º 14.179/2021), favorecendo acima de tudo o cidadão.
Nesse sentido, normas que tenham por efeito obstar a participação de empresas de tecnologia estrangeiras, mesmo que instaladas no país, em processos licitatórios ou ainda de estabelecer regras de discriminação contra servidores localizados no exterior afetariam os princípios centrais da internet livre e democrática, e teriam, em última análise, consequências prejudiciais para a própria digitalização no Brasil, inclusive do Poder Público.
Essas eventuais e não desejadas consequências, altamente desvantajosas para o cidadão e para o desenvolvimento tecnológico nacional, devem servir como advertência de que a regulação não pode se basear exclusivamente nos excepcionais casos em que há uma falha para cumprir com a regulação. Criar uma regulação baseada na exceção pode forçar um excesso de implementação de regras que é desproporcional com relação aos fins visados, ou até pode potencializar o que se pretende mitigar. Em vez disso, a regulação deve se basear na dinâmica geral do mercado, que não requer proibições a mecanismos democráticos que permitem, desde a popularização da internet, a inovação e a livre circulação de dados. - Rodrigo Pereira 25/04/2023 às 19:54Excelente. Também já comentei acima sobre a garantia dos bens públicos, investimentos em inscrições de concorrência nacional, sem secar a fonte de investimentos fora da bolha de criatividade restrita aos meios de produção digitais.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:24[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:34Subsidiar, contratar e investir em empresas nacionais não significa mitigação de risco para a soberania tecnológica brasileira e leva a distorções da concorrência em detrimento dos consumidores. Ao introduzir um quadro regulatório que favorece um conjunto de provedores em detrimento de outro, há uma diminuição da concorrência por mérito, o que acaba levando a menos incentivos econômicos para competir. Esses regimes regulatórios prejudicam as empresas que, de outra forma, teriam sucesso fornecendo produtos e serviços inovadores de alta qualidade, baixo preço e serviços para os clientes. Em vez disso, a regulamentação deve ser neutra e igualmente aplicada para permitir a concorrência com base nos méritos.
Manter e aumentar a capacidade de desenvolver tecnologias-chave e garantir sua disponibilidade para o Brasil no futuro é uma preocupação legítima e um objetivo inquestionável de qualquer governo. A indústria de tecnologia reconhece os sinceros objetivos de interesse público que o Brasil está considerando abordar nos setores críticos de infraestrutura e comunicações, e queremos ser um parceiro ativo e construtivo do Brasil para alcançar esses objetivos.
No entanto, questionamos a premissa subjacente a esta questão, que sugere que a incorporação de preferências por tecnologias nacionais apoiaria a soberania tecnológica do Brasil. Apoiamos uma abordagem que exclua o protecionismo e a discriminação como ferramentas para alcançar a soberania tecnológica. Deixar de fazê-lo prejudicaria os interesses do Brasil, minando o acesso a tecnologias-chave e afetando negativamente o progresso em direção a objetivos sociais e econômicos mais amplos, como a busca por inovação, prosperidade, paz e segurança.
A direção que esta questão considera, no entanto – fornecer preferências em contratações ou investimentos para lidar com riscos percebidos relacionados à “soberania tecnológica” – parece baseada em uma falsa premissa de que excluir ou tratar entidades estrangeiras de forma diferente é o caminho para fortalecer a autonomia tecnológica do Brasil. Uma economia brasileira aberta é, de fato, uma importante fonte de ganhos de produtividade e investimento privado, que por sua vez fomentam novas tecnologias, pesquisa e inovação no Brasil. Embora as considerações econômicas possam não ser o que impulsiona as demandas por “soberania tecnológica”, não se pode e não se deve esquecer que a globalização também beneficia a inovação brasileira.
Muitos apresentaram sugestões para alcançar a “soberania tecnológica” por meio, por exemplo, de compras públicas; mecanismos de autorização; procedimentos de teste e requisitos de transparência em cadeias de valor para infraestrutura crítica; ou restrições estratégicas ao financiamento da pesquisa brasileira. A maioria dessas ideias pode ser implementada de maneira compatível com os compromissos de longa data do Brasil com o livre comércio e os mercados abertos.
Os ecossistemas de pesquisa e desenvolvimento e as cadeias de suprimentos de hoje são baseados em cadeias de valor internacionais que veem a concepção, o design e a produção acontecerem em uma série de etapas em muitos países. A natureza global de muitas empresas é um elemento crucial de sua estratégia de inovação, sua contribuição para o objetivo do Brasil de manter e aumentar a capacidade de desenvolver competências e tecnologias-chave e garantir sua disponibilidade no futuro, seus esforços para criar empregos e aumentar a competitividade no Brasil.
O governo brasileiro deve abster-se de contratar serviços apenas com base no fato de serem desenvolvidos nacionalmente e, em vez disso, deve considerar custo-benefício, inovação e segurança. Para dar um exemplo de como políticas baseadas em “soberania” podem impactar negativamente a segurança de um país – em 2015, a Ucrânia aprovou uma lei exigindo que todas as empresas armazenem e processem dados pessoais em servidores localizados no país. Essa lei criou um único ponto de falha, tornando mais fácil para outros países espionar a Ucrânia e interromper sua rede implantando malware e outros ataques a empresas locais. Uma semana antes da invasão russa, o parlamento da Ucrânia aprovou uma legislação que permite que os dados fossem transferidos para fora do país usando tecnologia de nuvem estrangeira. Essa ação frustrou os ataques de limpeza russos às redes de computadores da Ucrânia uma semana depois. Esse exemplo mostra que o Brasil não deve se basear apenas em questões de segurança nacional ao tomar decisões sobre a contratação de serviços ou investimentos em tecnologias desenvolvidas nacionalmente.
- Filipe Saraiva 16/07/2023 às 21:51Com certeza. Determinar preferência para software e infraestrutura que funcione em território nacional, e que disponibilize a solução como código aberto, com os dados passíveis de serem acessados e migrados para outros fornecedores.
- Rafael Evangelista 16/07/2023 às 15:14Sim, é perfeitamente legítimo e desejável que o Estado prefira tecnologias nacionais, que empreguem mão de obra local e que impliquem num domínio nacional da tecnologia em questão. A soberania deve estar acima de questões de "eficiência"
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 16:49Uma boa medida, porém, para viabilizá-la será necessária a definição e instauração de políticas públicas que apoiem o desenvolvimento tecnológico e a inovação no país.
- Tarcizio Silva 14/07/2023 às 15:59Esta medida de mitigação é válida e desejável, em especial se combinada a critérios estratégicos como: a) colaboração dos fornecedores em políticas e planos para universalização do acesso; b) solidez de datacenters em território nacional; c) investimento e diálogo com setores da sociedade civil e academia; d) uso de software de código aberto, quando apropriado; e) priorização de fornecedores terceiros nacionais; f) aderência à boas práticas de comunicabilidade e explicabilidade de sistemas algorítmicos; g) distribuição regional; h) políticas de diversidade e inclusão na gestão.
- Alex Camacho Castilho 06/07/2023 às 14:29Essa medida busca promover a preferência por tecnologias desenvolvidas nacionalmente, desde que atendam aos critérios de uma definição de soberania tecnológica. Isso pode ser feito por meio de políticas de compras governamentais, incentivos fiscais ou investimentos específicos em empresas e projetos nacionais. O objetivo é fortalecer a capacidade tecnológica nacional, reduzir a dependência externa e garantir o controle sobre infraestruturas críticas de informação e comunicação.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 14:07Regular plataformas digitais para contratação pelo setor público? Qual é a lógica disso? Geralmente os investimentos massivos em geração de tecnologia neste sentido vem do setor privado e não do público. Os governos podem fomentar as iniciativas, mas impor preferências não é uma alternativa que vá ao encontro da liberdade dos usuários. Infelizmente o Brasil é muito atrasado na geração destes tipos de tecnologia.
- Anderson Nascimento Nunes 26/05/2023 às 13:39A contratação de tecnologia nacional deve se precaver quanto a possibilidade de que criminosos usando espionagem eletromagnética tentem sabotar o desenvolvimento de tecnologias seguras.
Sou graduado em Ciências da Computação pela UFAL. Faço pesquisa científica afim de criar algoritmo com base em inteligência artificial e ondas eletromagnéticas que permita obter o monólogo interno de uma pessoa. Por conta do potencial disso para espionagem, grupos que já a desenvolveram tentam sabotar a descoberta independente por outros países. Estou sendo ameaçado para que cesse minhas pesquisas e para que não revele quais grupos já atuam no Brasil se valendo de espionagem eletromagnética para cometer crimes contra crianças, jornalistas, ativistas, políticos, contra o sistema eleitoral e a soberania nacional. Recentemente manifestei publicamente minha intenção de oferecer notícia-crime sobre infração aos artigos 312 e 317 no dia da eleição de 2022, momento no qual revelarei em detalhes como as eleições são fraudadas por razão de usarem processadores com dispositivo embutido projetado para permitir manipulação externa por meio de rádio. Em decorrência disso, fui expressamente ameaçado de ter a integridade física do meu corpo debilitada com a exposição do meu cérebro/olhos/mucosas à radiação acima do limite previsto pela regulação da Anatel - em violação ao regimento N.º 700 de 2018. Em caso de vias de fato com resultado de grave lesão corporal resultante da exposição à intensidade extrema de radiação não ionizante, que seja considerado crime premeditado e que seja comunicada a Anatel para apuração dos equipamentos responsáveis. Embora o crime seja praticado por agente desconhecido em solo nacional, para apuração do mandante, deve ser considerado Eric Emerson Schmidt, ex-presidente do Google e agora lobista do governo americano. Schmidt fez declaração pública de que os Estados Unidos da América deve usar de todo tipo de tática necessária para garantir o monopólio tecnológico, incluindo a inserção de dispositivos de sabotagem em chips projetados nos EUA, exatamente a técnica de que já se valem para cometer crimes no Brasil e que usaram para me ameaçar. - Leonardo Tavares de Almeida 04/05/2023 às 09:01Poderiam ser aventadas formas de incentivo, mas não acho eficiente impor preferência
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:24[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Filipe Saraiva 16/07/2023 às 21:56É imperativo o investimento em infraestrutura de conexão de alta velocidade, interligando inclusive os municípios mais complexos de serem ligados, como os que ficam nas regiões de floresta, sertão, e outros locais. Também é necessário investir na construção de grandes datacenters para processamento e armazenamento de dados no país, possibilitando também que empresas nacionais possam hospedar serviços a baixo custo no Brasil.
- Rede de Pesquisa em Governança da Internet (comentário inserido por: Rede de Pesquisa em Governança da Internet) 16/07/2023 às 20:45Sugerimos que haja discussões públicas urgentes sobre o uso de satélites de baixa órbita para atender a populações indígenas e regiões de difícil acesso a pequenos provedores; roteadores, antenas e tecnologias de rádio para facilitar o desenvolvimento de redes autônomas e comunitárias urbanas e rurais. Tais ações poderiam ajudar a barrar projetos em curso de provedores de internet americanos que têm expandido seus serviços em territórios indígenas no Brasil sem nenhum tipo de controle e regulação, como o caso da Starlink de Elon Musk. https://www.cnnbrasil.com.br/nacional/terra-yanomami-instala-internet-de-empresa-de-elon-musk-que-ajudara-servicos-de-saude/
As discussões sobre satélites devem ocorrer considerando também a pasta de Meio Ambiente já que as explorações do espaço pelo mercado e países desenvolvidos estão gerando lixo espacial exponencialmente nos últimos anos, sem nenhum tipo de regulação e governança. Além disso, é fundamental atentar para as ações já em curso e bem sucedidas em comunidades, como os projetos da Rede Mucambos, do Lablivre UFABC, o Égua Tech, Educação Vigiada, etc. - Laboratório de Estudos Sociotécnicos da Universidade Federal do Pará (comentário inserido por: Leonardo Ribeiro da Cruz) 16/07/2023 às 19:07É imprescindível que o Estado brasileiro invista em infraestrutura de armazenamento de dados (datacenters) para as universidades públicas, institutos públicos de pesquisa e institutos tecnológicos do país. Atualmente, segundo o Observatório Educação Vigiada (educacaovigiada.org.br), 80% dos e-mails institucionais das instituições públicas de ensino superior do país estão armazenados em datacenters das empresas Google e Microsoft, localizados fora do país e fora do controle das instituições. Isso, além de aumentar a dependência do funcionamento institucional a um pequeno número de grandes empresas, representa um risco para a soberania do desenvolvimento científico e tecnológico do país
- Rafael Evangelista 16/07/2023 às 15:09Sim, garantir acesso dos diversos grupos sociais brasileiros a plataformas de distribuição de conteúdos culturais. O próprio Estado pode oferecer infraestruturas de distribuição de conteúdo interoperável na web, garantindo o adequado espaço para a publicação de conteúdos nacionais e distribuição aos seus cidadãos
- Tarcizio Silva 16/07/2023 às 11:46Sim, é preciso desenvolver redes de infraestrutura que incluam datacenters, infraestrutura de conexão, fomento à redes comunitárias, supercomputadores públicos.
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 16:52Sim. Sistemas e redes que propiciem o acesso a telefone e Internet em lugares remotos do Brasil, como por exemplo cidades com menos de 10 mil habitantes. A instalação de redes comunitárias para recepção de sinal via satélite e antenas, por exemplo.
- Kenzo Soares Seto 14/07/2023 às 16:41Deve ser desenvolvida a capacidade computacional nacional de modo a atender o volume necessário atualmente para o desenvolvimento de Inteligências Artificiais. Se somamos a capacidade computacional instalada dos supercomputadores da Petrobrás, os maiores da América latina, incluindo aqueles exclusivamente destinados ao desenvolvimento de soluções de I.A, eles não são uma fração da capacidade que foi necessária o desenvolvimento do Chat GPT pela Open AI.
Isso sem mencionar os bancos de dados necessários. Devem ser desenvolvidos bancos de dados públicos baseados em dados anonimizados, compartilhados por todas as plataformas que prestam serviços conveniados a órgãos públicos, como na saúde e educação, e por aqueles usuários que devem ter a opção ofertada de compartilhar seus dados das plataformas com instituições de pesquisa públicas. - Alex Camacho Castilho 06/07/2023 às 14:30O investimento em infraestruturas críticas de comunicação pública pode ser uma medida importante para fortalecer a soberania tecnológica brasileira. Essas infraestruturas podem incluir redes de comunicação seguras, sistemas de armazenamento e processamento de dados, plataformas de serviços digitais e outros elementos que garantam a autonomia e o controle do Estado em áreas estratégicas. As infraestruturas públicas a serem desenvolvidas podem abranger áreas como comunicação de emergência, governança eletrônica, sistemas de informação para serviços públicos, entre outros.
- Casa de Cultura Tainã / Rede Mocambos (comentário inserido por: Vincenzo Tozzi\) 06/07/2023 às 09:18Como Rede Mocambos defendemos o fomento das iniciativas comunitárias e da sociedade civil que mais se aproximam do povo. A Casa de Cultura Tainã criou um datacenter comunitária que hospeda serviços para atender as demandas da Casa e d@s parceir@s. A Casa Tainã já esta apoiando outras iniciativas parecidas tendo apoiado a instalação de um datacenter comunitário indígena em um aldeia Xavante Wede'Rã na TI Pimentel Barbosa. Essa metodologia e modelo pode ser uma política publica nacional.
- Anderson Nascimento Nunes 26/05/2023 às 13:39Desenvolvimento de tecnologias próprias para fabricação de processadores.
- Rodrigo Pereira 25/04/2023 às 19:56Não perder de vista meios orgânicos e incentivos ao terceiro setor no auxílio à melhor tratamento da comunicação pública, através de redes concretas de pessoas, grupos, federações, associações, etc.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:35(Contribuição da Coalizão Direitos na Rede)
A opção por licenças e tecnologias livres e abertas deve ser uma política de Estado, promovendo estímulos e priorizando seu desenvolvimento e implementação. Isso permitiria um desenvolvimento coletivo incremental e contínuo das tecnologias e sistemas usados no poder público, que se refletiria em maiores níveis de segurança, harmonização, interoperabilidade e transparência. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:24[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Nina Da Hora 16/07/2023 às 22:03O governo pode estabelecer políticas e diretrizes que incentivem ou até mesmo exijam o uso de software de código aberto em projetos e contratos governamentais. Isso pode ser feito por meio da criação de normas de interoperabilidade, diretrizes de segurança cibernética ou requisitos de licenciamento favoráveis ao código aberto.
- Filipe Saraiva 16/07/2023 às 21:58Com certeza. O governo deve priorizar a adoção de ferramentas em software livre, cujos dados e os códigos possam ser reutilizados por outros fornecedores.
- Rafael Evangelista 16/07/2023 às 15:07SIM! Todo software incentivado/apoiado/subsidiado com recursos público precisa ser mais do que aberto, precisa ser LIVRE
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:16Segurança Aberta
Os sistemas abertos e interoperáveis, construídos com base em padrões internacionais, apresentam vários benefícios:
Podem adotar rapidamente as inovações de segurança mais recentes, independentemente de sua origem
Podem aproveitar a infraestrutura distribuída globalmente, que é muito mais resiliente e resistente a ataques de negação de serviço
São guiados por processos de governança multistakeholder, debate aberto e engajamento global de pesquisadores de segurança. Este é um caminho muito melhor e mais inclusivo para a confiabilidade. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:15Segurança Aberta
Os sistemas abertos e interoperáveis, construídos com base em padrões internacionais, apresentam vários benefícios:
Podem adotar rapidamente as inovações de segurança mais recentes, independentemente de sua origem
Podem aproveitar a infraestrutura distribuída globalmente, que é muito mais resiliente e resistente a ataques de negação de serviço
São guiados por processos de governança multistakeholder, debate aberto e engajamento global de pesquisadores de segurança. Este é um caminho muito melhor e mais inclusivo para a confiabilidade. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:29Oportunidades - Desenvolvimento de plataformas e estímulos à utilização de softwares de código aberto e softwares livres dialogam, também, com a capacitação de profissionais e o mapeamento de demandas
No 13º Fórum da Internet no Brasil, o Instituto Alana organizou o Painel “Dados, plataformas e o direito à educação: caminhos para regulação”, na qual foram apresentados dados sobre a falta de mão de obra qualificada para desenvolvimento de plataformas de aprendizagem através do software livre, de código aberto, Moodle. As Painelistas teceram comentários sobre as oportunidades de desenvolvimento de plataformas, inclusive educacionais, que atendessem às demandas das múltiplas infâncias e adolescências do Sul Global e que fomentassem uma cultura de inovação e de aprendizagem pelo desenvolvimento. Esse é um exemplo de janela de oportunidades
Link: https://www.youtube.com/watch?v=O7YhDxVnkdQ - Rafael Evangelista 14/07/2023 às 19:22SIM! Todo software incentivado/apoiado/subsidiado com recursos público precisa ser mais do que aberto, precisa ser LIVRE
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:02Sim. Softwares de código aberto propiciam mais transparência, podem viabilizar personalizações de acordo com à necessidade nacional, além de permitir o acesso a qualquer pessoa.
- Alex Camacho Castilho 06/07/2023 às 14:30Estimular o desenvolvimento de software de código aberto, de qualidade, seguro, auditável e aberto para adequação aos interesses e necessidades do Estado pode ser uma medida eficaz. O software de código aberto permite que o governo e outras instituições tenham acesso ao código-fonte e possam adaptá-lo às suas necessidades específicas. Além disso, promove a transparência e a colaboração entre desenvolvedores, permitindo auditorias independentes e aumentando a confiança na segurança e na integridade do software utilizado nas infraestruturas críticas. Incentivos como financiamento de projetos, parcerias com universidades e estímulos fiscais podem ser implementados para promover o desenvolvimento de software de código aberto por empresas nacionais.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 14:12Não sei se esse é o foco da discussão. Desenvolver software para o Estado? Plataformas sociais servem para outra finalidade.
- Anderson Nascimento Nunes 26/05/2023 às 13:41Código aberto executado em hardware contendo trojans não garante a segurança de quaisquer plataformas. Enquanto se fizer uso de processadores inseguros nenhuma segurança é possível.
- Leonardo Tavares de Almeida 04/05/2023 às 09:03Precisa ser estabelecido se essas infraestruturas são internas ou externas a essas plataformas. Caso sejam externas, sou contra conceder mais esse poder (ainda que revestido de responsabilidades) às plataformas
- Filipe Saraiva 16/07/2023 às 22:00Importante retornarmos a adoção das medidas de que e-mail, sistemas de comunicação, infraestrutura de produtividade como editores de texto, por órgãos federais sejam fornecidos por empresas no Brasil e que utilizem software livre, de forma auditável. É necessário que tenhamos controle de nossas comunicações quando falamos em soberania tecnológica.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:35Um dos sentidos da soberania digital é o correspondente à autodeterminação estatal, isto é, o livre desenvolvimento econômico, político, social e cultural de um país. Para que uma nação tenha a capacidade de entender e desenvolver tecnologias digitais, de forma a permitir a expansão de suas infraestruturas digitais e controle dos seus dados, é preciso que se estabeleça políticas que envolvam a educação, pesquisa e desenvolvimento. É preciso centrar os esforços na capacitação da pessoa (cidadão) e não apenas nas empresas, conforme as medidas de mitigação acima propostas.
Para a plena realização de soberania digital é essencial forte capacitação e treinamento multigeracional que prepare a população como um todo para os desafios da tecnologia digital. É preciso que haja empoderamento da população com capacidade crítica para que se possa alcançar a soberania digital, modernizando radicalmente suas políticas educacionais. Como medidas mitigadoras faz-se necessário a atualização de currículos escolares e investir na formação, além da pesquisa e desenvolvimento antes mencionados. Aprender a programação de software livre, por exemplo, deveria ser parte dos currículos de ensino básico. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:16A ideia de soberania digital é uma ideia bastante difusa, que pode comportar diversas preocupações diferentes. Entre os riscos existentes para a soberania digital, estão os riscos para a segurança e resiliência de produtos e serviços destinados aos usuários brasileiros, incluindo aí o sigilo de informações públicas e privadas, bem como a proteção da confidencialidade e integridade de dados pessoais.
- Weizenbaum Institut - Núcleo de Tecnologia do MTST (comentário inserido por: Alexandre Costa Barbosa) 16/07/2023 às 05:32Nós do Núcleo de Tecnologia do MTST defendemos a criação de plataformas públicas e nacionais
As grandes plataformas -- de mensageria, redes sociais, contratação de serviços e marketplace, por exemplo -- são hoje ambientes centrais e fundamentais da vida de cidadãos de muitos países, inclusive do Brasil. Milhões de pessoas fazem uso rotineiro dessas plataformas, que ganharam, assim, um caráter público e estrutural, tal como ruas e avenidas.
Dada a enorme importância desses novos espaços, seu controle, a coleta dos dados neles gerados e a definição de suas regras de funcionamento não podem ficar a cargo de monopólios privados estrangeiros. Esses espaços precisam ser efetivamente públicos e nacionais. Defendemos, assim, a criação de plataformas com tais características, que podem utilizar incentivos tais como a ausência de taxas e a disponibilização exclusiva de serviços e informações estatais para estimular à adesão dos cidadãos. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 17:10Importante trazer um exemplo de soberania tecnológica e da importância de termos infraestruturas digitais públicas: o Pix surgiu quase no mesmo contexto que o anúncio do WhatsApp Pay (que inclusive foi objeto de análise pelo Bacen e pelo Cade). O WhatsApp Pay traria facilidades de integração dentro dessa plataforma utilizada por 98% dos brasileiros, mas ao mesmo tempo traria uma quantidade de dados ainda maior dentro da plataforma. Uma solução pública disseminada a todos os cidadãos de maneira gratuita parece ser um bom mecanismo de soberania tecnológica.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:57As medidas de mitigação para riscos associados a ameaças à soberania tecnológica brasileira sobre infraestruturas críticas de informação e comunicação mencionadas pela presente Consulta (questionamento 15) podem ser resumidas em: (i) preferência em contratações ou investimentos em tecnologias nacionais que sejam aderentes a uma definição de “soberania tecnológica”; (ii) investimento em infraestruturas críticas de comunicação de natureza pública; e (iii) incentivo a que empresas nacionais desenvolvam software de código aberto, para adequação a interesses e necessidade do Estado.
Uma alternativa que não foi cogitada pela presente Consulta é incentivar o desenvolvimento de novas empresas nacionais inovadoras, capazes de competir com as plataformas digitais incumbentes, especialmente aquelas dominantes e de larga escala. Tal proposta busca resguardar o funcionamento do mercado, intervindo apenas se demonstrada a necessidade e pertinência da atuação pública.
No presente caso, diverge da opção apresentada em 15.ii por não reconhecer condições que justifiquem a atuação direta por parte do Poder Público, haja vista existir uma miríade de atores privados capazes de executar a mesma função. Quanto a 15.i e 15.iii, a proposta apresentada pela ABRANET não tenta conformar a forma de atuação do agente privado, garantindo-lhe liberdade para desenvolver a infraestrutura crítica de informação e comunicação que é necessária e desejada – sem lhe impor, como nos itens indicados, critérios de “soberania tecnológica” ou requisitos quando à natureza dos softwares a serem desenvolvidos (de código aberto).
No entender da Associação, a soberania tecnológica seria adequadamente protegida pelo desenvolvimento de empresas nacionais, sem a necessidade de demais critérios incidentes. Caso o Poder Público tivesse demandas específicas que demandassem compatibilização, essas poderiam ser previstas e negociadas via contrato, sem distorcer seja o surgimento de novos agentes de mercado ou sua forma de interação com demais empresas e consumidores. - Alex Camacho Castilho 06/07/2023 às 14:321. Estabelecimento de padrões e certificações de segurança: Definir padrões e certificações de segurança específicos para infraestruturas críticas de informação e comunicação é essencial para garantir a proteção contra ameaças à soberania tecnológica. Esses padrões podem abranger aspectos como segurança cibernética, criptografia, proteção de dados, resiliência e continuidade de operações. A adoção e a conformidade com esses padrões devem ser exigidas das empresas que fornecem soluções e serviços para infraestruturas críticas.
2. Fortalecimento da capacidade de resposta a incidentes cibernéticos: Investir na criação e no fortalecimento de equipes especializadas em resposta a incidentes cibernéticos é fundamental para proteger as infraestruturas críticas contra ataques e ameaças à soberania tecnológica. Essas equipes devem ser treinadas e capacitadas para detectar, responder e mitigar ataques cibernéticos de forma rápida e eficiente, garantindo a resiliência das infraestruturas e a recuperação adequada em caso de incidentes.
3. Fomento à pesquisa e desenvolvimento de tecnologias estratégicas: Incentivar a pesquisa e o desenvolvimento de tecnologias estratégicas no âmbito nacional é uma medida importante para fortalecer a soberania tecnológica brasileira. Isso envolve o apoio a projetos de pesquisa em áreas-chave, como segurança cibernética, redes de comunicação seguras, criptografia, inteligência artificial e outras tecnologias críticas para a proteção das infraestruturas críticas de informação e comunicação.
4. Parcerias público-privadas estratégicas: Estabelecer parcerias estratégicas entre o setor público e o setor privado pode ser benéfico para fortalecer a soberania tecnológica. Essas parcerias podem envolver o compartilhamento de conhecimento e recursos, o estabelecimento de programas de pesquisa conjunta, a promoção de startups e empresas nacionais inovadoras, e a colaboração na definição de políticas e estratégias para proteção das infraestruturas críticas.
5. Monitoramento e auditoria das infraestruturas críticas: Realizar monitoramento constante e auditorias independentes das infraestruturas críticas de informação e comunicação é importante para garantir a conformidade com os requisitos de segurança, bem como identificar e corrigir possíveis vulnerabilidades. Essa prática assegura que as infraestruturas estejam em conformidade com os padrões estabelecidos, reduzindo os riscos de ameaças à soberania tecnológica. - ROSA VICARI 23/06/2023 às 15:56Acredito que estas questões precisem ser tratadas com blocos de países, por exemplo, MERCOSUL. A UE consegue fazer valer sua legislação por atuar em bloco. Considero muito difícil para um único país fazer frente a estas novas realidades, em termos de legislação.
- Jose Vieira 19/06/2023 às 14:15Educar, treinar fortalecer entidades nacionais para que desenvolvam plataformas internas com igual abrangência e relevância que os sistema atuais
- Anderson Nascimento Nunes 26/05/2023 às 13:42Todos os sistemas informáticos crítico devem ser protegidos de influência eletromagnética externa através de meios de blindagem.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:16A regulamentação deve permitir e promover transferências internacionais de dados, em vez de proibi-las ou restringi-las. As transferências internacionais de dados são tecnicamente necessárias para o funcionamento da internet, sustentam as economias global e brasileira e fornecem benefícios diretos para os cidadãos acessarem diversas informações e se conectarem socialmente em todo o mundo.
O Brasil deve reconhecer que a proteção da privacidade e os fluxos de dados podem andar de mãos dadas e trabalhar com outros países para promover a coerência internacional entre diferentes sistemas de privacidade e estruturas reconhecidas internacionalmente, como GDPR ou por meio de acordos comerciais regionais e bilaterais.
Devido à forma como a internet global foi construída e evoluiu, o tratamento de dados além das fronteiras nacionais ocorre como parte de quase todas as comunicações ou atividades online, muitas vezes incluindo aquelas que são totalmente domésticas. As redes nas quais os dados circulam geralmente são independentes da “jornada” física dos dados e, em vez disso, otimizam a navegação em tempo real para reduzir a latência, aumentar a resiliência da rede e permitir conexões em tempo real.
A este respeito, recomendamos considerar as diretrizes introduzidas pelo Conselho Europeu de Proteção de Dados (EDPB ) como uma ferramenta útil para explicar essas complexidades. O Brasil deve garantir que quaisquer pré-condições que devem ser atendidas antes da transferência dos dados não sejam tão onerosas a ponto de resultar na localização de dados concretos de fato – ou seja, um cenário em que os dados só podem ser processados, acessados e armazenados na jurisdição onde foram criados. Uma estrutura ou orientação impossível ou extremamente onerosa de cumprir na prática prejudicará cidadãos e empresas brasileiras.
Nesse sentido, a LGPD já contempla a questão das transferências internacionais de dados pessoais, e a ANPD está prestes a adotar regulamentação secundária para especificar melhor o regime que se aplica a elas. As leis que regem as transferências internacionais de dados devem ser estritamente adaptadas para que se apliquem às transferências legais entre agentes de tratamento de dados pessoais em que um deles esteja fora do Brasil, em vez de qualquer tratamento de dados (incluindo dados não pessoais) que ocorra no mundo Internet. Estes últimos são tecnicamente necessários para o funcionamento da internet.
Foi reconhecido que as transferências internacionais:
impulsionam o comércio internacional, o comércio e o desenvolvimento. (...)
sustentam a inovação, a pesquisa e o desenvolvimento em vários setores. (...)
apoiam a cooperação internacional, inclusive para comércio internacional, aplicação da lei e segurança nacional;
permitem-nos permanecer emocional e socialmente conectados uns aos outros.”
De fato, permitir fluxos de dados transfronteiriços contribui para os benefícios universais do acesso à Internet, incluindo a criação de empregos e oportunidades econômicas, permitindo o acesso a serviços públicos essenciais, como educação e informações sobre saúde, promovendo os direitos humanos e a justiça e garantindo a transparência e a transparência do governo. responsabilidade.
Fluxos de dados transfronteiriços promovem produtividade, inovação e eficiência; diminuem as barreiras ao comércio internacional e ao investimento na economia doméstica; aumentam o acesso de empresas e consumidores locais a uma ampla variedade de produtos e serviços de todo o mundo; mantêm os custos mais baixos para empresas e consumidores, reduzindo custos de conformidade desnecessários; garantem que as empresas brasileiras possam atender os consumidores no país e no exterior; e permitem que as empresas aproveitem as melhores práticas de privacidade e segurança de dados.
Por outro lado, impedir os fluxos de dados transfronteiriços ao impor restrições ou pré-condições onerosas às transferências de dados ou impor requisitos de localização de dados: mina a segurança cibernética e a privacidade dos dados; introduz danos econômicos significativos às economias locais; e prejudica os direitos dos usuários da Internet à privacidade, liberdade de expressão e acesso à informação.
Além disso, as atividades globais de tratamento de dados são tecnicamente necessárias para o funcionamento da Internet e ocorrem em quase todas as comunicações ou atividades online, muitas vezes incluindo aquelas que são totalmente domésticas. Portanto, este tópico deve levar em consideração a atuação da LGPD/ANPD sobre o assunto e garantir que a Internet não se fragmente, que pessoas em todas as partes do mundo possam ter proteções adequadas para informações pessoais e que todos os países colham os ganhos da inovação digital.
Além disso, a ideia de soberania digital é uma ideia bastante difusa, que pode comportar diversas preocupações diferentes. Entre os riscos existentes para a soberania digital, estão os riscos para a segurança e resiliência de produtos e serviços destinados aos usuários brasileiros, incluindo aí o sigilo de informações públicas e privadas, bem como a proteção da confidencialidade e integridade de dados pessoais. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:34A regulação deve permitir e promover as transferências internacionais de dados, ao invés de as proibir ou restringir. As transferências internacionais de dados são tecnicamente necessárias para o funcionamento da internet, sustentam as economias global e brasileira e fornecem benefícios diretos para os cidadãos acessarem informações diversas e se conectarem socialmente em todo o mundo. O Brasil deve reconhecer que a proteção da privacidade e os fluxos de dados podem andar de mãos dadas e trabalhar com outros países para promover a coerência internacional entre diferentes sistemas de privacidade e estruturas reconhecidas internacionalmente, como o GDPR ou por meio de acordos comerciais regionais e bilaterais.
Por conta de como a internet global foi construída e evoluiu, o processamento de dados através das fronteiras nacionais ocorre como parte de quase todas as comunicações ou atividades online, muitas vezes incluindo aquelas que são totalmente domésticas. As redes em que os dados viajam são geralmente agnósticas da "jornada" física dos dados e, ao em vez disso, otimizam o roteamento em tempo real para reduzir a latência, aumentar a resiliência da rede e permitir conexões em tempo real. A este respeito, recomendamos considerar as orientações introduzidas pelo Comitê Europeu de Proteção de Dados (EDPB) enquanto uma ferramenta útil para explicar essas complexidades e pormenores.
O Brasil deve garantir que quaisquer condições prévias que devam ser atendidas antes da transferência de dados não sejam tão onerosas a ponto de obrigar o chamado “hard data localization” ou seja, um cenário em que os dados só podem ser processados, acessados e armazenados na jurisdição onde foram criados. Uma estrutura ou orientação que seja impossível ou extremamente onerosa de cumprir prejudicará, na prática, os cidadãos brasileiros e as empresas.
Nesse sentido, a LGPD já contempla a questão das transferências internacionais de dados pessoais, e a ANPD está prestes a adotar regulação secundária para especificar melhor o regime que se aplica a elas. As leis que regem as transferências internacionais de dados devem ser estritamente adaptadas para que se apliquem a transferências legais entre agentes de processamento de dados pessoais em que um deles está fora do Brasil, em vez de a qualquer processamento de dados (incluindo dados não pessoais) que acontece na internet global - que são tecnicamente necessários para o funcionamento da internet.
É tido como público e notório que as transferências internacionais:
(i) impulsionam o comércio internacional, o comércio e o desenvolvimento. (...)
(ii) apoiam a inovação, a investigação e o desenvolvimento em múltiplos setores. (...)
(iii) apoiam a cooperação internacional, incluindo o comércio internacional, a aplicação da lei e a segurança nacional.
(iv) nos permitem permanecer emocionalmente e socialmente conectados uns aos outros.
Com efeito, permitir fluxos transfronteiriços de dados contribui para os benefícios universais do acesso à internet, incluindo a criação de empregos e oportunidades econômicas, a possibilidade de acesso a serviços públicos essenciais, como a educação e a informação sobre saúde, o avanço dos direitos humanos e da justiça, e a garantia de transparência e accountability.
Os fluxos transfronteiriços de dados promovem a produtividade, a inovação e a eficiência; reduzem as barreiras ao comércio internacional e ao investimento na economia nacional; aumentam o acesso dos negócios e consumidores locais a uma grande variedade de produtos e serviços de todo o mundo; mantêm os custos mais baixos para empresas e consumidores, reduzindo custos desnecessários de compliance; permitem que as empresas brasileiras possam atender consumidores em território nacional e no exterior; e viabilizam que as empresas possam aplicar as melhores práticas para privacidade e segurança de dados.
Por outro lado, impedir os fluxos transfronteiriços de dados - impondo restrições ou condições prévias onerosas ou criando requisitos de localização de dados - reconhecidamente prejudica a segurança cibernética e a proteção dos dados, gera danos econômicos significativos às economias locais e prejudica os direitos dos usuários da internet à privacidade, à liberdade de expressão e ao acesso à informação.
Além disso, as atividades globais de processamento de dados são tecnicamente necessárias para o funcionamento da internet como um todo e ocorrem em quase todas as comunicações ou atividades online, muitas vezes incluindo aquelas totalmente domésticas. Portanto, este tópico deve levar em conta as disposições e atribuições da LGPD/ANPD sobre o assunto e garantir que (i) não ocorra uma balcanização da internet, (ii) as pessoas em todas as partes do mundo possam ter proteções adequadas para suas informações pessoais e (iii) todos os países colham os ganhos da inovação digital. - Rodrigo Pereira 25/04/2023 às 19:57É preciso de planejamento para investimentos a longo prazo afim de não permanecer refém de infraestruturas externas
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:25[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:35As transferências internacionais de dados são essenciais para promover a produtividade, inovação e a pesquisa e desenvolvimento em múltiplos setores bem como para gerar comércio internacional, apoiar a cooperação internacional para a execução das leis e manter as pessoas socialmente conectadas. Possibilitar os fluxos internacionais de dados contribui para os benefícios de acesso à internet, incluindo facilitando a geração de postos de trabalho, permitindo o acesso a serviços públicos essenciais e ampliando o acesso pelos consumidores a uma maior variedade de bens e serviços. Além disso, os fluxos internacionais de dados também beneficiam a segurança e privacidade de dados, assegurando que as empresas de todos os portes possam se beneficiar de soluções descentralizadas para armazenamento de dados e sistemas compartilhados, que são resilientes a interrupções por mau funcionamento ou desastres naturais e acesso não autorizado por terceiros.
O Brasil deve reconhecer que a proteção da privacidade e os fluxos de dados podem andar de mãos dadas e trabalhar com outros países para promover a coerência internacional entre diferentes sistemas de privacidade e estruturas reconhecidas internacionalmente, como General Data Protection Regulation (GDPR), ou por meio de acordos comerciais regionais e bilaterais. Devido à forma como a internet global foi construída e evoluiu, o processamento de dados além das fronteiras nacionais ocorre como parte de quase todas as comunicações ou atividades online, muitas vezes incluindo aquelas que são totalmente domésticas. As redes nas quais os dados viajam geralmente são independentes da “jornada” física dos dados e, em vez disso, otimizam o roteamento em tempo real para reduzir a latência, aumentar a resiliência da rede e permitir conexões em tempo real.
Facilitar as transferências internacionais de dados e assegurar uma expressiva proteção à privacidade não são metas mutuamente excludentes ou antagonistas. Vários regimes existentes refletem a necessidade de preservar múltiplas abordagens para as transferências internacionais de dados, sem o enfraquecimento das salvaguardas de privacidade.
Uma ferramenta para abordar as transferências internacionais de dados é o “modelo de adequação”, o qual envolve a designação do que seria essencialmente uma lista de países que oferecem graus “adequados” de proteção à privacidade. No entanto, a inclusão pela LGPD de diversos mecanismos alternativos para as transferências de dados nos termos do Artigo 33(II) indica que a LGPD considera uma abordagem de adequação por si só como insuficiente para lidar com as pressões e desafios de um mundo de dados onipresentes e interconectados. Ainda, o modelo de adequação apresenta desafios de recursos para as agências regulatórias, as quais devem avaliar com precisão e abrangência estruturas de privacidade em evolução e suas respectivas implementações em todas as economias (e verificar com regularidade a validade de cada avaliação).
Outros instrumentos que podem complementar e apoiar a fundação de um modelo mais robusto e com menor intensidade de recursos para as transferências de dados são aas cláusulas modelo, NCGs, certificações, selos independentes e estruturas multilaterais, tais como CBPRs, e as disposições de acordos comerciais bilaterais e multilaterais que garantam o livre fluxo de dados entre os países. Recomendamos que os regimes de privacidade oficialmente reconheçam e desenvolvam uma complementação ampla de ferramentas corregulatórias alternativas, o que reduziria os custos administrativos, de execução e compliance oriundos dos esforços para a adesão a um patchwork internacional de regulamentações sobre proteção de dados. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:17Acreditamos que uma abordagem melhor à segurança é focar nos fundamentos de desenvolvimento de software seguro, fortes controles criptográficos nos dados e que abertura e transparência são totalmente compatíveis com forte segurança -- na verdade, acreditamos que uma internet aberta é uma internet mais segura.
Nos últimos anos, governos apresentaram inúmeras propostas que buscam alcançar a proteção e segurança de dados por meio da sua localização dentro de limites geográficos definidos. Mesmo quando bem intencionadas, as políticas de localização de dados podem reduzir os benefícios econômicos da colaboração e inovação internacionais, ao mesmo tempo em que aumentam os custos de processamento e armazenamento para diversas organizações.
Essas propostas também falham em reconhecer como a transferência de dados entre fronteiras pode realmente apoiar os objetivos de políticas públicas de proteção da privacidade, de segurança e compliance.
Por exemplo, no setor de serviços financeiros, a capacidade de transferir e analisar dados em tempo real entre fronteiras é necessária para combater fraudes financeiras, lavagem de dinheiro ou outras transações financeiras ilícitas. As ferramentas de operações de segurança que monitoram padrões de tráfego, identificam anomalias e desviam ameaças potenciais dependem do acesso global a dados em tempo real.
Requerimentos de localização de dados também podem prejudicar a segurança e a resiliência, impedindo que as organizações escalem recursos para combater ataques de negação de serviço ou transferir seus dados para locais mais seguros quando ameaçados por um desastre natural ou conflito armado.
A criptografia forte e o controle do cliente sobre as chaves de criptografia são meios superiores de proteção de dados confidenciais do que os requisitos que exigem a localização física dos dados. - Alex Camacho Castilho 12/07/2023 às 14:17Essa medida busca estabelecer categorias de dados que possuam importância estratégica para o país, como dados sensíveis de cidadãos, informações governamentais e dados relacionados à segurança nacional. Ao classificar os dados em categorias, é possível implementar mecanismos que exijam a sua localização em território brasileiro, garantindo maior controle e segurança sobre esses dados. Isso pode ser feito por meio de regulamentações específicas e acordos internacionais para promover a cooperação em relação ao armazenamento e ao acesso a esses dados.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 17:59Considerando a existência e aplicabilidade da Lei Geral de Proteção de Dados Pessoais e do art. 11 do Marco Civil da Internet, não existem fundamentos razoáveis para a criação de obrigações e mecanismos de data localization no Brasil, conforme questionado no presente item.
Levando em conta que as proteções estabelecidas pelos normativos supracitados já são extensas e completas na proteção dos direitos fundamentais dos titulares de dados, não haveria razões suficientes para que um novo normativo imponha mais obrigações para este fim.
O argumento de “importância estratégica” dos dados para o Brasil não é profundo e tampouco prevê eficiências ou proteções o suficiente para justificar a atribuição deste ônus aos agentes e aos titulares - visto que, com excessivas obrigações de localização dos dados, é possível que a usabilidade e a extensão dos serviços oferecidos sejam prejudicadas. Mesmo que se possa alegar questões como “facilitação do enforcement”, “segurança e privacidade dos dados”, entre outros argumentos que geralmente são invocados nesse tipo de debate, essas ainda deveriam ser sopesadas de acordo com as particularidades dos agentes no Brasil e seus efeitos concretos.
Nesse sentido, considerando que a implementação destes mecanismos significaria um custo técnico e financeiro elevado aos controladores - além de possuir o condão de reduzir eficiências, pela reestruturação de determinados segmentos de dados de uma estrutura de escala global (por exemplo, clouds regionais) - prejudica-se o crescimento e desenvolvimento econômico, ao onerar excessivamente os agentes menores. Estes já enfrentam dificuldades em contestar os grandes agentes de mercado da economia de plataformas, que possivelmente terão condições de implementar os mecanismos aqui considerados. Portanto, os efeitos adversos das medidas apresentadas para comentário são consideráveis, o que inviabiliza que se argumente por sua viabilidade.
Em razão de mecanismos normativos já existentes no Brasil para a proteção da privacidade e segurança dos dados dos brasileiros - e em razão da desproporcionalidade entre os possíveis ganhos (que, como sustentado, não são profundos o suficiente para serem analisados) e os prejuízos - a ABRANET entende que não deveria haver obrigações do tipo no regulamento das plataformas digitais que ora se discute. - carolina christofoletti 26/06/2023 às 14:14No caso de remoções de contas e conteúdos relacionados à difusão, criação e compartilhamento de materiais de abuso sexual infantil, é recomendada a criação em território brasileiro de um centro nacional capacitado para o recebimento e processamento destas informações - a fim de habilitar um melhor entendimento (pesquisa) do funcionamento destas redes à nível Brasil, assim como permitir a construção, em um sistema de feedback, de recomendações instruídas em dados para as plataformas sociais.
No caso de conteúdo eleitoral e de interesse à segurança nacional, a criação de centros especializados com a mesma finalidade é igualmente recomendada - a anonimização dos dados, a fim de facilitar o seu processamento, sendo uma outra faceta previsível de um tal modelo.
Breve, é necessário a criação de um mecanismo autônomo de avaliação, a fim de que as recomendações regulatórias possam ater-se ao nível do concreto.
- Leonardo Tavares de Almeida 04/05/2023 às 09:05Não devem ser criados mecanismos para localização. A localização do dispositivo do usuário deve ser estimulada a ser por esses conhecida, entendida e configurada conforme suas preferências e conforme suas preocupações com privacidade e direito de ir e vir. Estipular mecanismos de obrigar plataformas a obter localização representa um risco de segurança aos fabricantes dos dispositivos, que propiciam meios cada vez mais eficazes de impedir que plataformas acessem e usem maliciosamente ou secretamente a localização do usuário, e esse texto pode piorar esse cenário.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:25[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Alex Camacho Castilho 12/07/2023 às 14:18A construção de redes federadas é uma medida que visa fortalecer a infraestrutura de comunicação e transmissão de dados tanto em território nacional quanto internacional. Essas redes permitem a troca segura e eficiente de informações, garantindo a integridade e a confidencialidade dos dados. Além disso, as redes federadas podem facilitar a implementação de mecanismos de controle e governança sobre o fluxo de dados, permitindo maior transparência e proteção dos interesses nacionais. É importante estabelecer parcerias estratégicas com outros países e investir no desenvolvimento de infraestrutura de comunicação avançada para suportar essas redes federadas.
- Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:35O objetivo de proteger os dados seria prejudicado pelos requisitos de localização de dados, pois criaria um ponto vulnerável de falha, apresentaria um alvo para uma intrusão ou ataque cibernético e reduziria o acesso a soluções de ponta em todo o mundo. Por exemplo, em 2015, a Ucrânia começou a exigir que todos os dados fossem armazenados e processados localmente. Isso criou um único ponto de falha para ataques cibernéticos russos. No entanto, durante o início da invasão russa, a Ucrânia teve que mover dados governamentais e pessoais para fora do país com rapidez e segurança, usando tecnologia de nuvem estrangeira para proteger dados críticos do governo, do setor privado e pessoais. Medidas eficazes de proteção da privacidade não dependem de requisitos de localização de dados e há poucas evidências sugerindo que as obrigações de localização aumentem a proteção de dados.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:35Conforme antes abordado, certos dados devem ser guardados em território nacional. Por isso, normas que introduzam uma política de localização de dados revelam-se adequadas para mitigar problemas com o fluxo transnacional de dados e informação.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:17A ideia de soberania digital é uma ideia bastante difusa, que pode comportar diversas preocupações diferentes. Entre os riscos existentes para a soberania digital, estão os riscos para a segurança e resiliência de produtos e serviços destinados aos usuários brasileiros, incluindo aí o sigilo de informações públicas e privadas, bem como a proteção da confidencialidade e integridade de dados pessoais.
- José Antonio Galhardo 16/07/2023 às 10:48Estabelecer limites ou condições de consentimento para o fluxo transfronteiriço de informações e dados pessoais, principalmente captados de forma passiva por dispositivos de IoT.
- Weizenbaum Institut - Núcleo de Tecnologia do MTST (comentário inserido por: Alexandre Costa Barbosa) 16/07/2023 às 05:26Nós do Núcleo de Tecnologia do MTST defendemos que deva existir diretrizes e mecanismos que assegurem a soberania dos dados de povos originários e movimentos sociais. A regulação deve ser proativa nesse sentido e estimular iniciativas desses grupos vulnerabilizados.
- Alex Camacho Castilho 12/07/2023 às 14:201. Estabelecimento de acordos internacionais de proteção de dados: A assinatura de acordos internacionais de proteção de dados pode contribuir para mitigar os riscos associados ao fluxo transfronteiriço de informações e dados. Esses acordos podem definir princípios e normas comuns de privacidade e proteção de dados, garantindo que os dados dos cidadãos sejam tratados com segurança e em conformidade com as leis aplicáveis. Além disso, esses acordos podem estabelecer mecanismos para a cooperação entre os países envolvidos, facilitando a troca de informações e ações conjuntas para enfrentar ameaças à segurança dos dados.
2. Fortalecimento da capacidade de governança de dados: Investir na capacidade de governança de dados é essencial para mitigar os riscos associados ao fluxo transfronteiriço de informações e dados. Isso envolve a criação de agências reguladoras especializadas, a definição de políticas claras de proteção de dados, a implementação de mecanismos de fiscalização e aplicação das leis, e o desenvolvimento de estruturas e padrões para a governança de dados. Ao fortalecer a capacidade de governança, o país pode melhorar a proteção dos dados transfronteiriços e garantir que as empresas e os usuários estejam em conformidade com as regulamentações vigentes.
3. Fomento à pesquisa e ao desenvolvimento de tecnologias de segurança de dados: Investir em pesquisa e desenvolvimento de tecnologias de segurança de dados é fundamental para mitigar os riscos associados ao fluxo transfronteiriço de informações e dados. Isso envolve o apoio a iniciativas de pesquisa acadêmica, colaboração entre universidades e empresas, e incentivos para o desenvolvimento de soluções de segurança avançadas, como criptografia, autenticação de dados e sistemas de detecção de ameaças. Ao promover o desenvolvimento de tecnologias de segurança de dados, o país pode fortalecer sua capacidade de proteger informações sensíveis durante o fluxo transfronteiriço.
4. Educação e conscientização sobre proteção de dados: A educação e a conscientização sobre proteção de dados são medidas-chave para mitigar os riscos associados ao fluxo transfronteiriço de informações e dados. É importante investir em programas de educação que informem os cidadãos e as empresas sobre as melhores práticas de proteção de dados, os direitos de privacidade e os riscos envolvidos no compartilhamento de informações sensíveis. A conscientização pública pode contribuir para uma maior responsabilidade individual e empresarial no tratamento dos dados, reduzindo os riscos de exposição e abuso. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:36Sobre ameaças de espionagem: (i) controles de contratação de software de invasão de dispositivo, sendo possível a implementação de medidas de transparência e, em alguns casos, veto para uso desse tipo de sistema; (ii) fomento da cultura de segurança da informação; (iii) adotar políticas de prevenção de incidentes, com a necessidade de elaboração de projetos de gestão de riscos;
Sobre invasão de privacidade: (i) práticas de transparência que orientem os atores a compartilhar informações sobre as vulnerabilidades e incidentes cibernéticos são importantes e permitem a prestação de contas; (ii) práticas de fomento para que organizações de infraestruturas críticas notifiquem todos os incidentes cibernéticos; (iii) estabelecimento de práticas que respeitem os direitos humanos por padrão, incorporando a preocupação com pessoas no debate e não somente com as infraestruturas;
Sobre operações de influência: (i) elaboração de análises de riscos sistêmicos, considerando o tamanho da plataforma; (ii) dever de cuidado para adoção de medidas para mitigar esses riscos, sob pena de responsabilização;
Em relação a todos os riscos deve-se estimular a interação entre os atores para tratar de temas que envolvam questões relacionadas à segurança cibernética, principalmente adotando medidas que contemplem ferramentas, mecanismos de avaliação, métricas e processos de revisões periódicas, o que converge com a adoção de uma governança multissetorial, conforme abordado na introdução realizada nestes comentários.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:17A ideia de soberania digital é uma ideia bastante difusa, que pode comportar diversas preocupações diferentes. Entre os riscos existentes para a soberania digital, estão os riscos para a segurança e resiliência de produtos e serviços destinados aos usuários brasileiros, incluindo aí o sigilo de informações públicas e privadas, bem como a proteção da confidencialidade e integridade de dados pessoais.
- Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:08Segundo entendimento do IRIS, as medidas de mitigação podem se dar a partir de 03 pilares principais: a) medidas regulatórias; b) educação dos usuários; c) posicionamentos a partir do uso de ferramentas digitais, ou seja, soluções numa seara mais digitalizada.
Esses 03 pilares se dividem em:
1) proteção de dados e uso de criptografia, uma vez que restringiria o acesso indevido e espionagem em dispositivos digitais e através de plataformas, por parte do governo e de demais instituições. A violação da privacidade para fins de persecução penal e investigação não podem deixar de considerar que políticas de segurança pública considerem riscos tecnológicos, jurídicos e econômicos, ainda mais em se tratando de hacking governamental e rastreabilidade de mensagens instantâneas que se apresentam enquanto métodos alegadamente alternativos à quebra da criptografia. As ações que envolvem riscos associados a ameaças de espionagem e invasão de privacidade violam prerrogativas fundamentais para o devido funcionamento de sistemas de segurança baseados em criptografia. Nesse sentido, deve-se criar normas legais e políticas internas das plataformas que ofereçam parâmetros para hipóteses autorizadoras, limites e critérios de tratamento de dados, de modo a possibilitar sua compatibilidade com o arcabouço de direitos humanos. Deve-se respeitar os princípios da necessidade, adequação, proporcionalidade, legalidade estrita, transparência e escrutínio público;
2) responsabilidade e transparência das plataformas no tratamento de dados, incluindo como os dados do usuário são coletados, armazenados e compartilhados. Auditorias regulares podem auxiliar nessa parte, dando feedback do uso dos dados pessoais;
3) Controle do usuário, ou seja, os usuários devem ter a possibilidade de saber como seus dados estão sendo usados, armazenados e compartilhados - isso deve ser explicitado de forma nítida e linguagem clara pelas plataformas;
4) educação e conscientização do usuário, a partir da alfabetização e letramento digital sobre o tema para uma maior apropriação sobre privacidade e tratamento de dados pessoais, assim como da identificação de riscos;
5) cooperação internacional, no sentido de estabelecer padrões comuns e compartilhar informações para mitigação de riscos de espionagem. - IPOL-UnB (comentário inserido por: Isabela Rocha) 27/06/2023 às 11:18Acredito que a minha proposição cabe melhor aqui nesta seção. Acredito que é necessária a formação de um grupo de trabalho composta por membros da Universidade, do Judiciário, de especialistas em Compliance, ONGs de Direitos Humanos e, principalmente, de especialistas em modulação de risco.
É preciso que se estabeleçam riscos oriundos das plataformas a partir de uma matriz de risco com hierarquias. Uma boa referência é a matriz de risco de Pitchard encontrada na seguinte referência:
BAO, Chunbing, LI, Jianping, WU, Dengsheng. Risk Matrix: Rating Scheme Design and Risk Aggregation. Springer, 2022.
Este tipo de modelo pode ajudar na identificação de risco, assim como o quão prioritário é lidar com tais riscos. Por exemplo, o nível 1, que exprime um resultado catastrófico e provável, pode se referir ao surgimento e disseminação massiva de informações falsas que levam a uma escalada de violência física em comunidades ou sociedades inteiras, o que dialoga com as proposições de Shiller e com a emergência de Fake News em Mídias Digitais Sociais. Isso poderia ocorrer em situações de conflitos étnicos, políticos ou religiosos, em que rumores e notícias falsas incitam ações violentas e confrontos generalizados. A propagação rápida e viral dessas informações, alimentada pela polarização e pelo compartilhamento em massa, poderia desencadear um ciclo de violência incontrolável, resultando em perdas humanas e aprofundamento das divisões sociais. Tal evento teria um impacto significativo na estabilidade social e nos direitos humanos.
Um exemplo desta situação ocorreu numa cidade Mexicana em 2018. Boatos sobre sequestros de crianças circularam pelo WhatsApp em uma pequena cidade no México, levando a uma multidão a espancar e queimar vivos dois homens antes de verificar a veracidade dos fatos. A multidão foi instigada por mensagens compartilhadas nas redes sociais, acusando os homens de sequestro de crianças (BBC, 2018). As mortes de Ricardo e Alberto Flores são exemplos de como boatos e notícias falsas propagadas por plataformas digitais, como o WhatsApp e o Facebook podem causar violência e, até mesmo, culminar no assassinato de inocentes. Talvez, por se tratar de duas mortes, e não de um genocídio ou perseguição étnica, racial, ou religiosa, seja possível classificar este risco como provável e severo (nível 2), ao invés de provável e catastrófico – porém, é algo que deve estar aberto ao debate.
No meio do espectro, temos o nível 6, que se refere às situações menores em consequências e ocasionais. Neste caso, é possível atribuir o vazamento de dados de pessoas físicas, por exemplo, como e-mails para gerar spam, em casos menos graves, e de CPFs e dados bancários, em casos mais graves. Para agravar um pouco a situação, podemos considerar o nível 5 e chances ocasionais de ocorrência e consequências moderadas, como ciberataques ou campanhas massivas de assédio à personalidades e indivíduos.
Finalmente, existem riscos que são inerentes a própria emergência das Inteligências Artificiais. Big Techs coletam e processam grandes quantidades de dados pessoais dos usuários para alimentar seus algoritmos de IA e oferecer timelines curadas, porém, há sempre o risco de abuso desses dados, como o mau uso das informações pessoais, violações de privacidade, além de que IAs podem ser utilizadas para criar tecnologias de vigilância em massa e manipulação, uma vez que os atores das Big Techs são atores privados e com menor accountability do que atores estatais ou governamentais.
Em suma, é evidente que é preciso uma maior reflexão sobre quais casos exprimem quais níveis de risco, uma vez que se trata de uma proposição ainda não amadurecida. Neste sentido, a matriz de risco pode ser uma ferramenta útil para a criação de estratégias que priorizem a prevenção de situações que exprimam maiores níveis de risco, assim como também a criação de legislações que possam punir àqueles responsáveis por calamidades que tem origem nas Mídias Sociais Digitais.
Referência da notícia:
COMO as ‘fake news’ de WhatsApp levaram um povoado a linchar e queimar dois homens inocentes. G1, 2018. Disponível em
https://g1.globo.com/economia/tecnologia/noticia/2018/11/14/como-as-fake-news-de-whatsapp-levaram-um-povoado-a-linchar-e-queimar-dois-homens-inocentes.ghtml. - Pedro Monaco 30/05/2023 às 23:20Para mitigar os riscos associados a ameaças de espionagem, invasão de privacidade e operações de influência, pode-se considerar algumas medidas: implementar criptografia forte, com camadas de segurança, para proteger dados confidenciais em trânsito e em repouso; possuir um sistema de autenticação robusto para que apenas usuários autorizados tenham acesso ao sistema; implementar programas de monitoramento contínuo as redes, a fim de detectar intrusões e atividades suspeitas, contando com um plano de ação para ser acionado caso ocorra algum incidente e, para finalizar, manter sistemas operacionais devidamente atualizados, tornando-os menos vulneráveis.
- Anderson Nascimento Nunes 26/05/2023 às 13:43A sociedade deve ser esclarecida sobre o risco de sabotagem eletromagnética.
- Leonardo Tavares de Almeida 04/05/2023 às 09:08Quanto à espionagem e invasão de privacidade, PRECISA SER INCLUÍDA NESSAS VIOLAÇÕES O ACESSO, USO, REGISTRO E ARQUIVAMENTO NÃO AUTORIZADO E OCULTADO, EM SEGUNDO PLANO, DE INFORMAÇOES DE LOCALIZAÇÃO E USO DO DISPOSITIVO POR PLATAFORMAS sem consentimento, conhecimento e aval do usuário
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 19:35Concordamos completamente. Inclusive se considerarmos que as pessoas que usam e permanecem nessas plataformas digitais também poderiam ser consideradas trabalhadoras yma vez que colaboram para os lucros gerados por essas empresas, seja gerando ou partilhando seus dados mas também consumindo anúncios. Precisam ser devidamente informadas desses processos e também ser devidamente remuneradas.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:18Entendemos que este não é o fórum adequado para o debate trabalhista, já que empresas de segmentos específicos cumprem o que é determinado por legislações específicas sobre o tema (ex: CLT, associação, prestação de serviço, etc). Além disso, já existe um GT do governo federal debatendo o tema.
- Movimento Inovação Digital - MID (comentário inserido por: Nádia Marucci) 07/07/2023 às 15:26O Movimento Inovação Digital (MID) é uma associação empresarial, criada em 2015, que reúne mais de 170 plataformas digitais do país em diversos segmentos. Nosso objetivo é usar a tecnologia para diminuir desigualdades, promover a competitividade e garantir soluções mais sustentáveis.
Acreditamos que a discussão sobre os riscos e oportunidades trazidos pelas plataformas digitais ao trabalho deve ser considerada sob uma perspectiva única, de forma que cada segmento tenha suas particularidades consideradas e que seja centralizada pelo órgão competente àquela perspectiva. Sobretudo, destacamos a necessidade de que toda regulação tenha como ponto de partida dados e pesquisas que possibilitem um olhar mais apurado sobre as necessidades e dificuldades dos trabalhadores e plataformas envolvidos, e que haja uma Análise de Impacto Regulatório (AIR) antes de qualquer tomada de decisão.
Também destacamos a importância de que, durante o processo de discussão, haja uma escuta ativa de todos os trabalhadores envolvidos e potencialmente impactados por eventual regulação, de forma que suas realidades e necessidades sejam sempre consideradas. - ANTONY sousa de oliviera 21/06/2023 às 17:25Sim, necessário acompanhamento bem minucioso para veracidade desses trabalhos
- Rodrigo Pereira 25/04/2023 às 20:03Concordo
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:25[Contribuição do DiraCom - Direito à Comunicação e Democracia]
É fundamental que haja medidas para garantir direitos trabalhistas nas plataformas digitais, tanto no caso de trabalhadores empregados pelas plataformas (hoje, em geral, são terceirizados e precarizados) quanto nos processos de emprego de trabalho para provimento de serviços (caso das plataformas de transporte e entrega) e de compra e venda da força de trabalho mediado por plataformas (caso das plataformas chamadas de freelancer). Nos acostamos à proposta do manifesto: https://cdtufpr.com.br/manifesto-sobre-a-regulacao-do-trabalho-controlado-por-plataformas-digitais-pela-garantia-de-direitos-dos-trabalhadores-e-trabalhadoras-no-brasil/ - Filipe Saraiva 16/07/2023 às 22:08Alto risco que deve ser considerado para a regulamentação dessas plataformas.
- Laboratório de Estudos Sociotécnicos da Universidade Federal do Pará (comentário inserido por: Leonardo Ribeiro da Cruz) 16/07/2023 às 19:13As plataformas digitais devem ser responsabilizadas pelas relações de trabalho e ampliar a remuneração e as condições de trabalho dos trabalhadores por aplicativo.
Da mesma forma, é necessário ampliar a concorrência desse mercado para que o trabalhador possa buscar melhores condições de trabalho. - ITS Rio (comentário inserido por: Carlos Affonso Souza) 16/07/2023 às 19:08A regulação das plataformas digitais geralmente mira no papel desempenhado pelas grandes empresas de tecnologia, e com isso corre o risco de perder de vista o papel desempenhado por outros atores, menos evidentes, mas com alto potencial de disrupção. No mesmo sentido, grandes plataformas não desenvolvem suas atividades apenas através das atividades desempenhadas por seus funcionários. Existe um ecossistema de terceirização e de micro-trabalho que parece escapar das iniciativas regulatórias. Por exemplo: o debate sobre trabalhadores de plataformas geralmente foca em motoristas de aplicativos e entregadores. Todo um universo de micro-trabalhadores, que treina aplicações de IA, anotando dados, classificando imagens e transcrevendo áudios, por exemplo, parece estar fora dos esforços regulatórios. Ao mesmo tempo, as discussões sobre moderação de conteúdo no PL2630 miram o processo de moderação e a proteção de direitos dos usuários das plataformas, mas nada dizem sobre as atividades dos moderadores de conteúdo em si. Nesse sentido, parece importante reconduzir o debate sobre formas de trabalho à luz das novas tecnologias no sentido de se criar condições para que o elemento humano não seja invisibilizado no debate sobre plataformas. Por parte das empresas, é preciso aumentar a transparência sobre como são realizadas as alocações de tarefas, avaliação de desempenho e remuneração. Isso ajudaria a mitigar práticas abusivas e criaria incentivos para o estabelecimento de melhores práticas no mercado. Uma regulação detalhista, que corra o risco de engessar ou mesmo inviabilizar certos segmentos não é desejável, mas ao mesmo tempo, a completa ausência desse debate nas recentes iniciativas regulatórias é um fator preocupante, pois nem cria os estímulos para o desenvolvimento de padrões pelo setor privado, nem oferece diretrizes que poderiam ser apontadas pelo setor público. Nesse cenário os temas sobre trabalho nas plataformas passam a ser decididos episodicamente pelo Poder Judiciário, sem a formação de uma verdadeira política pública sobre o tema. Por fim, é fundamental promover a participação dos trabalhadores nas decisões que afetam suas condições de trabalho, por meio de consultas, fóruns de discussão ou representação em comitês ou conselhos consultivos. A regulação adequada precisa ser elaborada de forma multissetorial, e é fundamental para promover condições justas e seguras, garantindo trabalho decente na economia digital.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:26Outros riscos que merecem destaque:
a) Risco de desmobilização dos trabalhadores: os trabalhadores são identificados, via de regra, como autônomos e, frequentemente, não estão vinculados a sindicatos ou associações. Na Espanha, durante o processo de diálogo social que culminou na chamada "Ley Rider", muitas empresas, mas também alguns grupos de trabalhadores questionaram a representatividade dos sindicatos tradicionais.
b) Risco à seguridade social: como a maioria dos trabalhadores são identificados como autônomos e as plataformas apresentam-se como meras intermediárias, não há controle sobre a contribuição ao sistema de seguridade – e os modelos existentes podem ser deficitários para o Estado. Outro desafio decorre do fato de que o trabalho costuma ser multiplataformas.
c) Desafios à qualificação profissional e progressão na carreira: necessidade de criação de programas de treinamento, reciclagem e desenvolvimento de novas habilidades e conhecimentos, com foco na evolução profissional dos trabalhadores.
d) Riscos à saúde e segurança no trabalho: a pandemia de Covid-19 intensificou esse debate, sobretudo em relação às categorias de entrega e transporte. Há demandas em relação ao fornecimento e uso de EPIs, a benefícios sociais, às condições de trabalho etc.
Fonte: Pesquisa “Futuro do Trabalho e Gig Economy: questões regulatórias sobre tecnologia e proteção social” (CEPI, 2020-2021). - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:26Existem muitos estudos que indicam uma diminuição na criação de empregos formais e a plataformização do trabalho. Pesquisa realizada pelo CEPI identificou uma ampla variedade de tipos de trabalho em plataformas, sendo algumas categorias mais visíveis e populares (por exemplo, de entrega e transporte, que são geograficamente localizadas) e outras menos visíveis e menos conhecidas (sobretudo, aquelas desempenhadas via sistemas de crowdworking, baseados na web). Porém, o risco não está necessariamente no surgimento de novas formas de trabalho, e sim na dificuldade de regulamentá-las ou aplicar regulações potencialmente pertinentes. Há, ainda, o risco de diminuição de ofertas de emprego, que podem, inclusive, contribuir para que um grande contingente de trabalhadores recorra ao trabalho em plataformas, seja pela escassez de vagas no mercado, seja por não se adequarem às condições exigidas pelos setores tradicionais. Um estudo da OIT identificou, por exemplo, que muitas mulheres são atraídas pelo crowdworking por conta da flexibilidade de horários, o que lhes permite conciliar o trabalho e as demandas domésticas, como a criação dos filhos.
Fonte: CEPI. Centro de Ensino e Pesquisa em Inovação da FGV Direito SP. Gig economy e trabalho em plataformas no Brasil: do conceito às plataformas. São Paulo: FGV Direito SP, 2021. - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:25Vários estudos têm apontado para esses riscos. Em pesquisa realizada pelo CEPI FGV Direito SP, identificou-se uma grande diversidade de modelos de negócios praticados pelas plataformas; porém, notou-se o predomínio de algumas práticas. Observou-se, por exemplo, que é comum a identificação dos trabalhadores como autônomos, o cálculo da remuneração por tarefa e sem consulta ao trabalhador, a não negociação das condições de prestação do serviço, entre outras.
Fonte: CEPI. Centro de Ensino e Pesquisa em Inovação da FGV Direito SP. Gig economy e trabalho em plataformas no Brasil: do conceito às plataformas. São Paulo: FGV Direito SP, 2021. - Comunidade Práxis (comentário inserido por: Zilda KESSEL) 12/07/2023 às 22:59Vemos como riscos ao trabalho docente em plataformas digitais:
▪ Risco de perder de vista a complexidade do papel do professor
▪ Desrespeito aos direitos de autoria dos professores
▪ Eliminação de postos de trabalho
▪ Excesso de regulação que impossibilita fiscalização e, também, criatividade.
Contribuição dos integrantes da Comunidade Práxis (Profs Ana Paula Gaspar, César Nunes, Paula Carolei, Zilda Kessel) - Comunidade Práxis (comentário inserido por: Zilda KESSEL) 12/07/2023 às 22:47Vemos os seguintes riscos relacionados às condições de trabalho docente :
▪ Risco de perder de vista a complexidade do papel do professor
▪ Desrespeito aos direitos de autoria dos professores
▪ Eliminação de postos de trabalho
▪ Excesso de regulação que impossibilita fiscalização e, também, criatividade.
(contribuição dos integrantes da Comunidade Práxis, Profs. Ana Paula Gaspar, César Nunes. Paula Carolei, Zilda Kessel)
- Alex Camacho Castilho 12/07/2023 às 14:32As plataformas digitais muitas vezes operam em um ambiente onde os trabalhadores enfrentam condições de trabalho precárias, como baixos salários, falta de proteção social, contratos instáveis e falta de direitos trabalhistas. A relação assimétrica entre trabalhadores e plataformas digitais pode levar a práticas abusivas por parte das plataformas, explorando a vulnerabilidade dos trabalhadores e reduzindo suas garantias laborais. É fundamental que a regulação das plataformas digitais leve em consideração esses riscos, estabelecendo mecanismos para proteger os direitos dos trabalhadores, garantir remuneração justa, contratos adequados e condições de trabalho dignas.
- Celso Santos 10/07/2023 às 17:54A precarização do trabalho também é um tema espinhoso ...mas notamos que em diversas plataformas vale tudo ...bom pontuar
- ROSA VICARI 23/06/2023 às 16:01As relações de trabalho precisam, urgentemente, serem repensadas. Não apenas as educacionais. Mas estas, em particular. Já faz algum tempo que um professor precisa dar conta de um grande número de alunos on line, O aumento do número de alunos sob sua responsabilidade não é diretamente proporcional à remuneração recebida.
- ANTONY sousa de oliviera 21/06/2023 às 17:28O trabalho realizado de forma digital nao pode ser precarizado. é necessario valorização e apoio.
- Leonardo Tavares de Almeida 04/05/2023 às 09:10Não só devem ser considerados como devem ser levados a consideração em iniciativas legislativas trabalhistas E tributárias, não apenas esta disciplinando sobre proteção de dados e plataformas digitais.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:26[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Sim, por isso é importante tanto considerar os direitos trabalhistas em geral quanto acompanhar o desenvolvimento de relações específicas a partir das plataformas pelos órgãos competentes. - José Antonio Galhardo 16/07/2023 às 10:49É um risco de fato mas não exclusivo das plataformas digitais. É um risco inerente ao desenvolvimento tecnológico/científico e o descompasso que existe entre uma inovação (automóvel por exemplo) e as regras das novas formas de trabalho e de convivência com as formas tradicionais regulamentadas de trabalho de forma isonômica.
- João Coelho 15/07/2023 às 15:18Estabelecimento de regras sobre remuneração e condições de trabalho mínimas para influenciadores digitais mirins:
No Brasil, há regras que disciplinam o trabalho infantil artístico de forma geral. A atividade é autorizada pelo ordenamento jurídico nacional como exceção à proibição constitucional do trabalho para crianças e adolescentes com menos de 16 anos. Tal exceção tem como lastro a garantia de livre expressão artística, também assegurada constitucionalmente no artigo 5o, inciso IX, bem como a Lei no 6.533/78, a qual regulamenta a profissão de artista. Somadas essas previsões à Convenção no 138 e à Recomendação no 146 da Organização Internacional do Trabalho (OIT) – ratificadas pelo Brasil por meio do Decreto no 4.134, de 2002 e consolidadas pelo Decreto no 10.088, de 2019 –, há autorização ao trabalho infantil quando este tiver como finalidade a participação da criança ou do adolescente em representações artísticas. A seu turno, o Estatuto da Criança e do Adolescente (ECA) estabelece, em seu artigo 149, II, §1o e §2o, o requisito de autorização judicial prévia para realização de trabalho infantil artístico. Os alvarás judiciais são essenciais para a verificação da conformidade do conteúdo que será trabalhado pela criança e pelo adolescente de até 16 anos, não podendo ser autorizadas, por exemplo, as atuações que configurem publicidade infantil, qual seja, a comunicação mercadológica diretamente direcionada ao público com menos de 12 anos.
Assim, é essencial para a proteção das crianças produtoras de conteúdo na Internet e das crianças que consomem referidos conteúdos que, uma vez configurado o trabalho infantil artístico, este seja acompanhado do devido alvará judicial, precedido de manifestação do Ministério Público, que fixe condicionantes a serem fiscalizadas tanto pelo órgão jurisdicional que o emitiu quanto pelos demais órgãos que integram o Sistema de Garantia dos Direitos e pelos agentes econômicos envolvidos. Verificar a existência e promover que o trabalho dos influenciadores mirins seja precedido de alvarás judiciais são responsabilidades das empresas que mantêm as redes sociais e plataformas digitais, que auferem lucros com o trabalho dos influenciadores digitais mirins na medida em que eles atraem novos públicos para as plataformas e as tornam mais atrativas a empresas anunciantes. A regulação de plataformas digitais que hospedam conteúdos de influenciadores mirins, portanto, deve prever regras no sentido de que elas adotem medidas para garantir a conformidade à lei do trabalho desenvolvido por essas crianças e adolescentes.
Fonte: O trabalho infantil artístico nas redes sociais. Link: https://criancaeconsumo.org.br/biblioteca/o-trabalho-infantil-artistico-nas-redes-sociais/
Aprofundamento de pesquisas e levantamento de dados sobre as diferentes formas que o trabalho infantil pode vir a assumir:
A fim de melhor compreender os impactos tecnológicos e diferentes formas de exploração econômica de crianças e adolescentes, é necessário ampliar o mapeamento e eventual aprofundamento de pesquisas. Indicamos, ainda, a importância de experiências de escuta e de consultas com crianças e adolescentes, capazes de melhor identificar sua experiência online. - João Coelho 15/07/2023 às 15:16Profissão “moderação de conteúdo” - um mercado distribuído globalmente, de forma precarizada, cuja qualidade da atuação impacta na própria qualidade informacional das plataformas e, consequentemente, afeta a qualidade de informações recebidas por crianças e adolescentes
O trabalho humano de ‘moderação de conteúdo’ sustenta o modelo de moderação em níveis altamente automatizados que percebemos sustentando o modelo de negócio de algumas das principais Big Techs. Apesar disso, inúmeros são os relatos de precarização do trabalho dessas pessoas, má remuneração, falta de informações sobre a natureza do trabalho ao ser contratado para anúncios de telemarketing, e até mesmo despreparo no treinamento desses profissionais. O bem-estar desses profissionais impacta diretamente na qualidade da moderação, e a pressão para tomadas rápidas de decisões impacta a qualidade do ambiente informacional. Além disso, é necessária a compreensão do contexto local, das piadas, das expressões regionais, dos símbolos utilizados, para evitar práticas de moderação que não apreendem a realidade do conteúdo analisado. Apesar disso, hoje não é clara, para além do trabalho de jornalismo investigativo, sobre as equipes de moderação de conteúdo, sua localização e os critérios de qualidade que norteiam seu trabalho. Além disso, plataformas também se utilizam de outras plataformas que permitem uma terceirização digital de serviços de taggeamento e classificação de dados, como o Amazon Turk. Esse tipo de serviço foi acusado, inclusive, de permitir a circulação de imagens de abuso e exploração sexual infanto-juvenil para classificação.
Fonte: https://gizmodo.com/horror-stories-from-inside-amazons-mechanical-turk-1840878041 - João Coelho 15/07/2023 às 15:13Novas formas de trabalho infantil - os influenciadores digitais mirins:
O termo “influenciadores digitais mirins” faz referência às crianças e adolescentes que se expõem na Internet produzindo conteúdos para as redes sociais, de maneira habitual e visando a auferição de lucros. Nesses conteúdos, as crianças podem atuar como apresentadoras, cantando, fazendo piadas, artesanato, atividades científicas ou peças manuais, brincando, cozinhando, simplesmente mostrando acontecimentos do seu cotidiano ou, ainda, protagonizando peças publicitárias. Considerando que a Lei no 6533/1978 define o artista como “profissional que cria, interpreta ou executa obra de caráter cultural de qualquer natureza, para efeito de exibição ou divulgação pública, através de meios de comunicação de massa ou em locais onde se realizam espetáculos de diversão pública”, é inequívoco o caráter artístico dessas atividades realizadas nos meios digitais de comunicação massiva. Considerando, ainda, que essas atividades são marcadas pela habitualidade, monetização, profissionalização e orientação às expectativas externas, podendo gerar inclusive prejuízos à rotina escolar e ao tempo de lazer das crianças, é inequívoco seu caráter laboral.
A despeito dos paralelos existentes entre as atividades dos influenciadores mirins e formas mais tradicionais de trabalho infantil artístico, ainda é pouco sedimentado o entendimento de que essas figuras desempenham, de fato, trabalho infantil e devem, por isso, ter suas atividades precedeidas alvará judicial, tal como determina a Convenção n° 138 da OIT e o art. 149, II do ECA. Em larga medida, isso se deve às peculiaridades das relações econômicas e laborais surgidas no contexto da economia digital, bem como ao fato de que esse trabalho se inicia muitas vezes por iniciativa da própria criança e não das necessidades de contratação de uma empresa. Ainda assim, é imprescindível que as empresas que lucram com essa nova forma de trabalho - sejam elas empresas anunciantes que firmam parcerias com essas crianças e adolescentes, ou as plataformas digitais onde seus conteúdos são hospedados - sejam responsabilizadas pela garantia dos direitos relacionados ao trabalho desses influenciadores e pela conformidade de suas atividades com a legislação vigente.
Fonte: Comentário Geral N. 25 na Prática. Link: https://criancaeconsumo.org.br/biblioteca/defesa-das-criancas-e-dos-adolescentes-no-ambiente-digital/
Novas formas de trabalho infantil - o caso Roblox e a exploração comercial das criações de crianças e adolescentes:
As plataformas digitais, para além de servirem como meio para o entretenimento, também possibilitam o aprendizado e o exercício de novas habilidades, inclusive para crianças e adolescentes. Roblox, por exemplo, é uma plataforma virtual na qual os usuários podem jogar e também criar jogos para os demais, interagindo uns com os outros. Diferentemente de outras plataformas, a Roblox não veda que crianças e adolescentes abaixo de 13 anos criem uma conta. Não à toa, cerca de metade dos jogadores têm menos de doze anos de idade. Por ser, em certa medida, uma plataforma infantil, tem sido utilizada, junto a outros títulos de jogos, para ensinar codificação e programação a crianças e adolescentes.
Em 2021, contudo, Quintin Smith, jornalista de games, publicou uma intensa investigação em que esmiuçou o funcionamento da plataforma, demonstrando que a Roblox incentivava nas crianças expectativas irreais de se tornarem grandes desenvolvedoras e, com isso, ganharem uma grande quantidade de dinheiro. A plataforma Roblox, todavia, possui, aproximadamente, 20 milhões de jogos, de modo que a tarefa de ascender e ganhar destaque com as produções não é fácil. A página principal, por exemplo, mostra apenas cerca dos mil jogos mais populares. Com isso, programadores iniciantes ou anônimos, se quiserem ter alguma possibilidade de visibilidade, devem desembolsar um valor adicional para a plataforma, para além da entrega de seu trabalho intelectual. Ademais, haja vista que crianças não podem sacar as moedas do jogo em dinheiro corrente, a única maneira de usá-las é dentro da plataforma. Por exemplo, jogando jogos pagos, remunerando outros desenvolvedores para auxiliar na construção de um jogo, comprando itens personalizados etc. Ou seja, é um sistema que se retroalimenta, incentivando que os usuários continuem ativos na plataforma, para além de ser sustentado no trabalho e na criatividade de crianças para existir. Em síntese, segundo muitos defendem, o modelo de negócios da Roblox é baseado no trabalho infantil, que é incentivado por difíceis expectativas de ganhos monetários.
Fonte: Comentário Geral N. 25 na Prática. Link: https://criancaeconsumo.org.br/biblioteca/defesa-das-criancas-e-dos-adolescentes-no-ambiente-digital/
Novas formas de trabalho infantil - aplicativos de delivery:
A atuação de adolescentes e até mesmo crianças em aplicativos de delivery pode ser apontada como uma das consequências diretas da pandemia de covid-19 e uma possível nova faceta do trabalho infantil. Indicações imprecisas e falhas dos próprios sistemas possibilitaram que crianças e adolescentes se cadastrassem para atuar como entregadores, seja de bicicleta, a pé ou em veículos automatizados. Com isso, passam a ser vitimados por uma série de riscos e prejuízos incalculáveis a seu desenvolvimento. O trabalho infantil caracterizado pela entrega de delivery para aplicativos é uma das piores formas de trabalho infantil, conforme a Convenção n° 182 da OIT, visto que o trabalho nas ruas e, sobretudo, noturno, traz uma série de riscos para estas crianças adolescentes.
Dada a dinâmica dos aplicativos, quanto mais rápido as entregas são realizadas, maior será o ganho do entregador. A realização da atividade por meio de bicicletas, ou até mesmo veículos motorizados, expõe estes indivíduos a acidentes, atropelamentos e, até mesmo, violências urbanas. No ano passado, a primeira vítima dessa dinâmica laboral foi registrada no Brasil: Kauã, de 17 anos, foi atropelado e morto enquanto trabalhava como entregador de delivery, na capital paulista. O perfil dos adolescentes vitimados por essa forma de trabalho infantil não foge à regra do perfil de trabalhadores infantis no Brasil. Ou seja, são meninos, entre 14 e 17 anos, pretos e de famílias vulnerabilizadas socioeconomicamente.
Fonte: Comentário Geral N. 25 na Prática. Link: https://criancaeconsumo.org.br/biblioteca/defesa-das-criancas-e-dos-adolescentes-no-ambiente-digital/ - Alex Camacho Castilho 12/07/2023 às 14:32Com o avanço das plataformas digitais, surgem novas formas de trabalho que muitas vezes não são socialmente reconhecidas ou regulamentadas pela legislação trabalhista tradicional. Isso pode levar à falta de proteção social e direitos trabalhistas para os trabalhadores envolvidos nessas plataformas. É necessário que a regulação acompanhe essas mudanças, buscando formas de reconhecer e regulamentar essas novas formas de trabalho, garantindo a proteção dos trabalhadores, a equidade e a justiça nas relações de trabalho.
- ROSA VICARI 23/06/2023 às 16:04Este risco corresponde ao que se chama, atualmente, de empreendedorismo. Não existe a profissão então surge o indivíduo eempreendendo.
- Rodrigo Pereira 25/04/2023 às 20:02Este é o problema das revoluções industriais já comentado. Se formos sempre engolidos por projetos de um grupo ou de uma pessoa, não estamos exercendo o protagonismo social tão caro ao verdadeiro sentido da democracia. Simplesmente gerar novas necessidades, forçando entrada de tecnologias que substituem o modo de vida, gerando dependência desses novos meios, sem preservar a abertura de incentivos para a verdadeira inovação fora dos caminhos prontos pelas industrias, estaremos sempre limitando os itinerários evolutivos de todo o potencial criativo do engenho humano das nações.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:00Outros riscos que devem ser considerados relacionados à transparência das plataformas digitais e o uso indevido de dados pessoais. No primeiro, a falta de transparência algoritmica em aplicativos que fazem a interface de trabalhadores com prestação de serviços entrega um ambiente de trabalho instável e sem previsibilidade ao trabalhador, que não compreende como a intermediação está sendo feita. Isso acarreta uma assimetria ampla entre tecnologoia e trabalhador, aprofundando os riscos à precarização e ao trabalho decente. O segundo, diz ao fato da utilização indevida para perfilização e oferta de trabalho aos trabalhaores que recorrem às plataformas. Nesse sentido, a utilização de dados pessoais para a distribuição de serviços pode aprofundar viéses que impactam em diversidade e oferta equitativa de opções e possibilidades.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:18Entendemos que este não é o fórum adequado para o debate trabalhista, já que empresas de segmentos específicos cumprem o que é determinado por legislações específicas sobre o tema (ex: CLT, associação, prestação de serviço, etc). Além disso, já existe um GT do governo federal debatendo o tema.
- Tarcizio Silva 16/07/2023 às 12:03O papel do ranqueamento entre diferentes atores no ecossistema das plataformas pode intensificar discriminações interseccionais gerando condições de trabalho, remuneração e oportunidades diferenciais. Clientes, provedores ou profissionais das plataformas são levados a dar notas ou avaliações aos demais atores do ecossistema. As notas podem ser direcionadas sutil ou explicitamente por discriminações interseccionais. O atual rankeamento nos algoritmos não isola discriminações interseccionais - nas plataformas digitais na internet isso significa que artistas e criadores de conteúdo de minorias podem ser prejudicados. É necessário identificar mecanismos de mitigação e exigir medidas das empresas.
- José Antonio Galhardo 16/07/2023 às 10:50Risco relacionado à saúde mental dos trabalhadores encarregados da moderação de redes sociais ou do treinamento de sistemas de IA.
Risco de atomização das negociações dos direitos e condições de trabalho com o enfraquecimento de estruturas sindicais e da justiça do trabalho. - Alex Camacho Castilho 12/07/2023 às 14:391. Riscos associados à falta de proteção social: Muitos trabalhadores em plataformas digitais não têm acesso a benefícios e proteção social, como seguro saúde, aposentadoria e licença remunerada. Para mitigar esse risco, é importante que a regulação estabeleça requisitos mínimos de proteção social para os trabalhadores das plataformas, garantindo que eles tenham acesso a benefícios adequados e que as plataformas sejam responsáveis por fornecê-los.
2. Riscos associados à falta de representação dos trabalhadores: Os trabalhadores das plataformas digitais muitas vezes enfrentam desafios para se organizar coletivamente e ter voz nas decisões que afetam suas condições de trabalho. Uma medida de mitigação é promover a criação de associações ou sindicatos específicos para os trabalhadores das plataformas digitais, fornecendo-lhes mecanismos de representação e negociação coletiva.
3. Riscos associados à falta de transparência nas políticas e práticas de trabalho: As plataformas digitais frequentemente definem as políticas e práticas de trabalho de forma unilateral, sem fornecer informações claras e transparentes aos trabalhadores. Uma medida de mitigação é exigir que as plataformas divulguem de maneira transparente as políticas e os critérios que afetam o trabalho dos indivíduos, garantindo que eles tenham conhecimento e entendimento das regras e expectativas.
4. Riscos associados à discriminação e falta de igualdade de oportunidades: As plataformas digitais podem apresentar riscos de discriminação no processo de seleção e alocação de trabalho, além de falta de igualdade de oportunidades para certos grupos de trabalhadores. Para mitigar esses riscos, é importante que a regulação estabeleça diretrizes claras e medidas de combate à discriminação nas plataformas digitais, garantindo que todos os trabalhadores tenham acesso justo e igualitário às oportunidades de trabalho.
5. Riscos associados à falta de segurança no trabalho: Alguns trabalhadores em plataformas digitais podem estar expostos a riscos de segurança, especialmente quando se trata de trabalhos que exigem interação física com os usuários ou entrega de bens. Para mitigar esses riscos, é necessário estabelecer requisitos de segurança e saúde ocupacional para as atividades realizadas nas plataformas, incluindo o fornecimento de equipamentos de proteção e diretrizes claras para garantir um ambiente de trabalho seguro. - carolina christofoletti 26/06/2023 às 14:25A moderação de conteúdo é, em nível trabalhista, ainda um setor extremamente precarizado mundialmente.
Entre as medidas de mitigação incluem-se:
1. Declaração de invalidade da cláusula de confidencialidade (NDA) que proibe aos moderadores de conteúdos comentar as condições precárias de trabalho em que labora.
2. Obrigatoriedade de fornecimento de suporte psicológico adequado - a incluir a necessidade de aconselhadores familiarizados com o ambiente da moderação de conteúdo.
3. Obrigatóriedade de treinamentos anti-bullying, anti-assédio e outros.
4. Obrigatóriadade de pagamento de um salário justo, somado à existência de uma quantidade mínima razóavel de dias folgas e à restrição à quantidade de horas extras permitidas , em razão do ambiente altamente extressante aos que os moderadores de conteúdo são expostos.
Como guia de referência à questão, ver "Content Moderators Manifesto": https://www.foxglove.org.uk/2023/06/14/moderators-germany-manifesto-bundestag/ - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:18Entendemos que este não é o fórum adequado para o debate trabalhista, já que empresas de segmentos específicos cumprem o que é determinado por legislações específicas sobre o tema (ex: CLT, associação, prestação de serviço, etc). Além disso, já existe um GT do governo federal debatendo o tema.
- Jose Vieira 19/06/2023 às 14:17Deve dar total liberdade de escolha para a relação contratado / contratante com clareza nas informações
- Rodrigo Pereira 25/04/2023 às 20:03Ótimas medidas de mitigação.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:26[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Sim, a começar pelo reconhecimento do vínculo de trabalho, no caso, entre outros, de plataformas de entrega e transporte. - Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:01Tais regras devem contemplar o uso de dados pessoais, nos termos da LGPD, bem como trazer maior transparência algorítmica, de modo que os trabalhadores tenham melhor compreensão da atividade que exercem e assim estejam mais aptos a decidir sobre seu trabalho. No mesmo sentido, as regras sobre grupos vulneráveis, como crianças e adolescentes, devem ser explícitas e sempre informadas aos trabalhadores, considerando seu melhor interesse.
- Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 19:38Uma dessas regras deveria ser o estabelecimento de uma sede no braasil, com a maioria das pessoas contratadas sendo brasileiras, respeitando as leis locais de trabalho e que respeitasse a diversidade brasileira de raça e gênero e outros quesitos afins.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:35A pesquisa do CEPI mapeou diversos projetos de lei, identificando propostas mais pontuais e outras mais abrangentes, concluindo pela necessidade de uma legislação específica, harmonizada com leis e regras gerais aplicáveis às plataformas.
Em relação à transparência, alguns pontos que merecem atenção no contexto da gig economy são:
• O acesso aos termos de uso e serviços da plataforma, sua disponibilidade aos usuários e os condicionamentos para consultá-los, por exemplo exigência de cadastro e fornecimento de dados pessoais;
• O acesso a mecanismos e canais de comunicação, solicitação de informações e esclarecimentos, o período de tempo em que eles estão disponíveis (por exemplo, durante o período em que os trabalhadores estão usando a plataforma), e a existência ou não de atendimento humano;
• A utilização de linguagem por vezes pouco clara, acessível e na língua portuguesa nos termos de uso e na interface das plataformas; e
• O oferecimento de treinamento para os trabalhadores sobre o uso e funcionamento dos aplicativos;
Outra vertente do direito à informação/transparência está ligada à responsabilidade social da empresa, ou seja, a relação existente entre as plataformas e a sociedade como um todo. Nesse sentido, podemos citar algumas ações visando ao bem-estar social que poderiam ser adotadas de forma voluntária pelas plataformas:
• Divulgação de números gerais da plataforma: número de trabalhadores, número de serviços prestados/intermediados, duração média do trabalho desenvolvido pelos trabalhadores; remuneração média, número de acidentes durante a prestação do serviço, número de seguros e cobertura aos trabalhadores vinculados etc.; e
• Divulgação das práticas de responsabilidade social (corporativa, empresarial e ambiental) adotadas pela empresa.
Fonte: CEPI. Centro de Ensino e Pesquisa em Inovação da FGV Direito SP. Policy paper – Alternativas regulatórias para o presente e futuro do trabalho na gig economy. São Paulo: FGV Direito SP, 2021. - José Antonio Galhardo 16/07/2023 às 10:51Uma regra de transparência que eu gostaria de ver implementada é a quantificação e qualificação da mão-de-obra outsourcing transfronteiriça. Mesmo a mão-de-obra nacional que venha a ser contratada via empresa sediada no estrangeiro. Seria um dado necessário para evitar estratégias de escape da regulação envolvendo relações de trabalho, por meio do conflito de jurisdição.
- ROSA VICARI 23/06/2023 às 16:07Da mesma forma que alguns países taxam o trabalho dos robôs, proporcionalmente ao número de trabalhadores que cada robô substitui, as plataformas deveriam se taxadas de acordo com o número de trabalhadores que elas eliminam. Sabemos que a substituição de grande parte do trabalho humano pela tecnologia é inevitável, e muitas vezes, desejável. Mas os custo social dos países não é substituído pela tecnologia e até pode aumentar.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:27[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Sim, evitando formas de precarização e ampliação da exploração, como o caso do chamado salário por peça. - Filipe Saraiva 16/07/2023 às 22:12Com certeza, dado que os exemplos de plataformas atuais levam à precarização do trabalho, é fundamental que haja regulamentação trabalhista sobre essas plataformas.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:36A pesquisa do CEPI mapeou 128 projetos de lei federais, provenientes da Câmara dos Deputados e do Senado Federal, apresentados no período de 2015 a julho de 2021. Vários desses projetos endereçam questões relacionadas às condições de trabalho, dentre as quais destacam-se fornecimento de alimentação, horário de descanso, delimitação de duração da jornada, fornecimento de EPIs, oferecimento de entrepostos e canais de suporte, acesso à informação e condições mínimas de saúde e segurança etc.
O estabelecimento de uma remuneração mínima também está presente em diversos projetos legislativos, geralmente, estabelecida por hora). Contudo, a fixação dessa remuneração encontra alguns desafios, tais como o trabalho em multiplataformas e a definição do tempo engajado (se inclui todo o período de login ativo, apenas o tempo de execução da tarefa ou se adota outros critérios).
Fonte: Pesquisa “Futuro do Trabalho e Gig Economy: questões regulatórias sobre tecnologia e proteção social” (CEPI, 2020-2021). - RENATO ROCHA 29/06/2023 às 20:13As regras sobre remuneracao devem constar no CONTRATO entre as partes e caso venha a ocorrer um lítigio o mesmo sera moderado na Justica Civil.
- RENATO ROCHA 29/06/2023 às 19:54Nao. O que deve ser celebrado sao contrato entre as partes e este deve ser honrado/respeitado garantindo a seguranca juridica do mesmo. Celebrado por meio digital, deve ser assinado e reconhecido digitalmente atraves de ferramentas ja existentes. O tomador de servico deve ter a liberdade para contratar e encerrar o contrato, assim como o fornecedor do servico escolher e negociar a melhor forma e remuneracao para fornecer o seu tempo e seu conhecimento. Pseudos direitos tutelados pelo papai estado, intermediados por pseudos representantes que ninguem os chancelou por procuracao publica, nao devem sequer existir.
- Leila D'Arc De Souza 17/06/2023 às 08:21As plataformas de trabalho devem ser notmatizadas pela legislacão trabalhista com carteira assinada, remeneraração pra fim de semana, feriado e atestado medico. carga horaria de trabalho e todos os direitos trabalhistas
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:27[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A política de tributação deve favorecer o apoio a cooperativas de trabalhadores, de modo a estimular a diversificação no universo das plataformas e a apropriação digital pela população. - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:36O oferecimento de treinamentos para os trabalhadores (a exemplo de formação para direção segura para motoristas de aplicativos e de segurança do trabalho para profissionais que realizam tarefas sob demanda de limpeza e/ou cuidado) juntamente com políticas de contratação que considerem marcadores de diversidade e suas demandas específicas são relevantes para impedir que plataformas se valham de condições precarizadas como forma de adotar concorrência desleal ou causar desequilíbrios no mercado.
Além disso, faz-se oportuno discutir instrumentos de controle para que as empresas sejam coerentes em suas políticas. Não é raro que um mesmo grupo econômico adote diferentes padrões de remuneração e condições de trabalho em cada país, a depender da legislação local. Um caso emblemático é o da Uber, que, por força de uma decisão da Suprema Corte britânica, passou a oferecer aos trabalhadores locais pagamento de salário-mínimo por hora, férias remuneradas, recolhimento de contribuição previdenciária, entre outros direitos e benefícios, sem replicar essas medidas em outras jurisdições.
Fonte: CENTRO DE ENSINO E PESQUISA EM INOVAÇÃO DA FGV DIREITO SP. Briefing temático #5: Análise da decisão do Reino Unido contra a Uber e suas repercussões – versão 1.0. São Paulo: FGV Direito SP, 30 abril de 2021. - José Antonio Galhardo 16/07/2023 às 10:52A proposta não pode ser incentivar para que as plataformas digitais forneçam condições mais justas de trabalho sob uma perspectiva tradicional de proteção do trabalho. O que a proposta de regulação deve buscar é desincentivar que as plataformas estruturem seus modelos de negócio de tal forma que prejudique um trabalhador em relação a outro sem que haja transparência de critérios de cadastramento e de distribuição algorítmica da demanda. Além disso, a tributação deve ser pensada como política parafiscal, conforme sugerido no comentário ao item 14.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:37Iniciativas como a do Fair Work e a do Instituto Ethos, ainda que não atuem como certificadoras, mostram a importância de se ter mecanismos e indicadores de comparação e discussão da atuação das plataformas tendo em vista sua responsabilidade social e as condições de trabalho que viabilizam.
- ROSA VICARI 23/06/2023 às 16:09Certamente, o próximo grande debate sobre as mudanças que as tecnologias geram no setor da educação, será sobre a certificação em todos os níveis.
- Leila D'Arc De Souza 17/06/2023 às 08:22Só dar certificado pra quem cumpre a legislacão trabalhista a risca
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:27[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Sim, políticas devem ser desenvolvidas para promover a apropriação e a soberania digital, fomentando também o desenvolvimento de novas aplicações pelos trabalhadores, o reconhecimento e o exercício, por parte deles e das entidades representativas, da busca por direitos. - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:37Algumas plataformas têm programas próprios que podem ser ampliados. Há também espaço para políticas públicas.
Na Espanha, a chamada Ley Rider estabeleceu o direito ao direito à informação sobre o sistema algorítmico utilizado no gerenciamento do trabalho nos aplicativos de entrega. Foi constituído um grupo de trabalho, liderado pelo Ministério do Trabalho, para aprofundar o debate e avaliar mecanismos de tornar efetivo esse direito.
Fonte: CENTRO DE ENSINO E PESQUISA EM INOVAÇÃO DA FGV DIREITO SP. Briefing temático #6: Regulação Espanhola do Trabalho em Plataformas Digitais: Diálogo Social e Governança Algorítmica em foco – versão 1.0. São Paulo: FGV Direito SP, 25 de maio de 2021.0Ve - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 15:24A pesquisa realizada pelo CEPI identificou a necessidade de se estabelecer a portabilidade de dados e mecanismos que estimulem a cooperação das plataformas, considerando o trabalho multiplataformas.
Essas medidas seriam fundamentais para o controle de limites de jornada de trabalho, uma vez que os trabalhadores podem estar conectados simultaneamente a várias plataformas. Além disso, poderiam facilitar o pagamento das contribuições previdenciárias e de eventuais benefícios sociais de obrigação compartilhada das empresas.
Embora os gig workers, mesmo na condição de autônomos, sejam segurados obrigatórios do Regime Geral de Previdência Social, parece haver um descompasso entre o disposto na legislação (dever ser) e a realidade. Há duas hipóteses para isso: (i) desconhecimento sobre a existência e importância da contribuição; (ii) baixa renda e insuficiência de recursos a serem destinados à contribuição para a previdência; (iii) desconhecimento sobre os procedimentos para contribuir. Diante disso, as plataformas podem atuar como facilitadoras e, em certa medida, até fiscalizadoras do recolhimento das contribuições, independentemente do regime de trabalho que venha a ser definido pelos legisladores. Em um cenário de portabilidade de dados, seria possível estabelecer um sistema de registro e cálculo de rateio proporcional entre múltiplos atores.
Fontes:
CENTRO DE ENSINO E PESQUISA EM INOVAÇÃO DA FGV DIREITO SP. Briefing temático #7: Seguridade Social e o Trabalho em Plataformas Digitais – versão 2.0. São Paulo: FGV Direito SP, 23 de junho de 2021.
CENTRO DE ENSINO E PESQUISA EM INOVAÇÃO DA FGV DIREITO SP: Briefing temático #8: O Debate sobre Benefícios Portáteis e Seguridade social na gig economy – versão 1.0. São Paulo: FGV Direito SP, 24 de agosto de 2021. - Tarcizio Silva 16/07/2023 às 12:20Canais de atendimento, negociação e informação para trabalhadores e usuários devem conter meios de comunicação humana (humana em ambos significados). A prática de utilizar chatbots ou outros tipos de automatização do atendimento a trabalhadores, clientes e usuários em momentos de dificuldades ou busca de informação é cruel e gera um encargo adicional de trabalho, tempo e danos morais na busca por direitos, informação ou resolução de problemas.
- Weizenbaum Institut - Núcleo de Tecnologia do MTST (comentário inserido por: Alexandre Costa Barbosa) 16/07/2023 às 05:29Nós do Núcleo de Tecnologia do MTST defendemos:
Criar mecanismos que priorizem plataformas de propriedade dos/as trabalhadores/as em compras públicas.
Assegurar a participação de representantes de trabalhadores/as em conselhos de desenvolvimento tecnológico de plataformas digitais. - Comunidade Práxis (comentário inserido por: Zilda KESSEL) 12/07/2023 às 23:01Vemos como medidas de mitigação da precarização do trabalho dos educadores:
▪ Observar legislação que rege relações de trabalho de professores
▪ Observar legislação vigente sobre direitos autorais, reconhecendo o trabalho de produção de conteúdo e interação com o trabalho do professor.
▪ Utilização de tecnologias de autenticação para garantia de direitos autorais.
▪ Tributação de trabalho automatizado para criação de renda básica universal, visto que haverá perda de postos de trabalho.
Contribuição dos integrantes da Comunidade Práxis (Profs Ana Paula Gaspar, César Nunes, Paula Carolei, Zilda Kessel) - ROSA VICARI 23/06/2023 às 16:19A próxima fronteira do uso da tecnologia na educação continuará sendo sobre interfaces, mas, na minha opinião, com foco nas interfaces cérebro-computador. Ou seja, interfaces que aumentam o cérebro e, também, que imitam o cérebro. A educação precisa estar atenta a estes movimentos. A legislação precisa estar mais atenta ainda.
- ROSA VICARI 23/06/2023 às 16:15Talvez incluir algo sobre o monopólio de um número cada vez menor de instituições de ensino, sobre os conteúdos/conhecimento educacionais. Como certamente haverá flexibilização dos certificados, os conteúdos/conhecimento tende a ficar centralizado em poucas instituições de ensino de nome mundial.
O custo para um país manter uma infraestrutura de ensino e geração de conhecimento é alto. Certamente, será economicamente mais interessante, para muitos países contratar o serviço de instituições já existentes. - Leila D'Arc De Souza 17/06/2023 às 08:24Os instrumento de trabalho como celular, computador, veiculo, energia e internet devem ser oferecidos pela plataforma ou seja pelo empregador
- Pedro Pinheiro 30/05/2023 às 23:47Além das medidas citadas, é de suma importância não apenas as regras de transparência e comunicação para com o trabalhador, mas a inserção do mesmo nas decisões tomadas pela plataforma, para que tal decisão busque ao máximo trazer a participação das pessoas que na prática são essenciais para a sobrevivência e desenvolvimento da plataforma. Portanto a inclusão do trabalhador é uma medida beneficia para que a plataforma não os marginalizem.
- Victor Lippi Zaccariotto 13/05/2023 às 19:55Todas as plataformas de redes sociais são alimentadas pela comunidade que as utilizam. Assim, todas deveriam fornecer mecanismos de monetização. Algumas plataformas remuneram vídeos por views, porém existem regras como tempo mínimo de vídeo. Essas regras podem não ser justas. É interessante haver uma revisão nessas questões.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:40Algumas possíveis medidas a serem adotadas incluem mecanismos de diálogo social (cf. sugerido pela Organização Internacional do Trabalho e implementado na Espanha por ocasião da elaboração da Ley Rider), e promoção de diálogos entre judiciário, legislativo, sociedade civil e ecossistema das plataformas digitais de trabalho (diálogo também entre justiça comum e justiça do trabalho, para dirimir conflitos de competência e questões sobre novas formas de trabalho).
- Leila D'Arc De Souza 17/06/2023 às 08:28Acabar com a entrega por motos, ser so carros. Oferecer tratamento medico, odontologico , psicológico e pdiquiatrico.
- Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:36O Information Technology Industry Council (ITI) e seus membros reconhecem a responsabilidade compartilhada de empresas e governos para manter um ambiente online seguro e apoiam discussões globais voltadas a atingir esse objetivo de maneira coerente, coordenada e equilibrada com contribuição e apoio de todas as partes interessadas. O ITI, portanto, elogia os esforços do CGI para incluir um capítulo dedicado às implicações da regulação de plataforma para a democracia e os direitos humanos. No entanto, é fundamental considerar o cenário atual e as especificidades da regulação das plataformas. Vale ressaltar que diversos temas abordados nesta consulta já possuem regulamentação específica, como privacidade e proteção de dados regidos pela Lei Geral de Proteção de Dados (LGPD). A criação de novas regras para situações já regulamentadas pela LGPD pode levar à sobreposição e conflito de obrigações em relação a uma mesma atividade.
Cada uma dessas questões importantes pode justificar seus próprios quadros regulatórios, mas não devem ser incluídas ou consideradas no contexto da lei da concorrência ou da regulação de “plataformas digitais”. Qualquer tentativa de abordar essas questões substanciais sob uma estrutura de lei de concorrência não abordará adequadamente a multiplicidade de considerações que devem ser abordadas e prejudicará o objetivo principal da lei de concorrência. Isso levará à diluição da lei de concorrência e à diminuição das proteções em cada uma dessas áreas importantes.
Agradecemos a oportunidade de participar de discussões sobre regulação de plataformas digitais e colaborar para um ambiente online mais seguro. - Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 19:44Precisamos considerar uma série de fatores se quisermos pensar no respeito à vida e aos direitos humanos e inclusive não humanos quando estamos falando em plataformas digitais.
É preciso levar em conta que no contexto local as mulheres negras são um dos grandes alvos dos discursos e práticas de ódio que assolam nossa sociedade. Discursos e práticas essas que nascem e florescem na mesma medida em que as populações minorizadas reclamam e conquistam direitos.
Por isso é importante, por exemplo, considerar a moderação de conteúdo feita por pessoas humanas que representem a pluralidade de raça, gênero, identidade de gênero e marcadores afins, que sejam contratadas proporcionalmente de acordo com o número de pessoas que usam cada plataforma. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:18Aplaudimos a iniciativa do CGI em dedicar especial capítulo sobre a implicação da regulamentação das plataformas à temática da democracia e direitos humanos. Entendemos, no entanto, que a regulação das plataformas precisa de uma compreensão do cenário atual e suas particularidades.
Concordamos com a regulação que busca tornar a internet ainda mais segura, transparente e responsável, respeitando e protegendo os direitos humanos e garantindo que usuários, criadores e empresas continuem se beneficiando da web aberta.
É importante estabelecer legislação robusta de segurança de dados e privacidade para garantia de todas as pessoas, incluindo menores, assim como para proteção da infraestrutura nacional. Também é importante estabelecer uma legislação resiliente sobre direitos de liberdade de expressão que sopese a sua importância ao mesmo tempo que leva em consideração a proteção aos direitos humanos (discurso de ódio, terrorismo, incitamento a tais comportamentos) e procedimentos eleitorais críticos. É crucial que se estabeleça leis ou guias que governem a integridade jornalística. Discussões sobre esses temas, contudo, devem ser mantidas em separado de discussões sobre a regulação da então chamada “plataformas digitais”
Para combater o conteúdo ilegal online e preservar o direito das pessoas de se expressarem livremente e encontrarem informações, é preciso uma relação de colaboração entre governo, sociedade civil e empresas de tecnologia.
Acreditamos que qualquer regulação deve ter:
Clareza - Plataformas de compartilhamento de conteúdo trabalham para desenvolver e aplicar políticas de conteúdo que sejam responsáveis e que ofereçam clareza em relação às expectativas básicas dos usuários, articulando uma base clara para remoção de conteúdo, bem como para suspensão ou encerramento de contas. É igualmente importante que os governos estabeleçam limites claros entre discurso legal e ilegal, respeitando os padrões de direitos humanos internacionais. Sem definições claras, haverá o risco de aplicação das normas de forma arbitrária ou opaca, o que pode limitar a circulação e o acesso a informações legítimas.
Adequação - É importante que as estruturas de supervisão reconheçam os diferentes propósitos e funções dos diferentes serviços. Regras que fazem sentido para redes sociais, plataformas de compartilhamento de vídeo e outros serviços projetados principalmente para ajudar as pessoas a compartilhar conteúdo com um público amplo podem não ser apropriadas para mecanismos de pesquisa, serviços corporativos, armazenamento de arquivos, ferramentas de comunicação ou outros serviços online, onde os usuários têm usos e expectativas fundamentalmente diferentes. Diferentes tipos de conteúdo também podem exigir diferentes abordagens.
Transparência - A transparência significativa promove a responsabilidade. Diversas empresas já publicam relatório de transparência, algumas há mais de uma década. As empresas que fazem parte da ALAI continuam a ampliar seus esforços de transparência ao longo do tempo. Se feita com cuidado, a transparência pode incentivar a adoção de melhores práticas, facilitar a pesquisa e incentivar a inovação.
Flexibilidade - Empresas de tecnologia têm desafiado os limites da ciência da computação para promover a identificação e remoção de conteúdo problemático em escala. Tais avanços somente são possíveis em contextos legais que ofereçam flexibilidade para a inovação, ou seja, que não criem soluções rígidas que não se adaptem ao desenvolvimento tecnológico. De igual forma, qualquer abordagem legal deve reconhecer a diversidade de necessidades e capacidades das plataformas, incluindo startups e empresas menores.
Qualidade geral dos sistemas - O escopo e a complexidade das plataformas modernas exigem uma abordagem orientada por dados que se concentra nos resultados gerais, e não em casos específicos. Embora não seja possível eliminar todo e qualquer conteúdo problemático, é necessário reconhecer os esforços e o progresso em tornar esse tipo conteúdo menos proeminente. - Rodolfo Salema 16/07/2023 às 10:13Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
A lista de temas relacionada a ameaças à democracia e aos direitos humanos proposta por este r. CGI.br nos parece refletir, em grande parte, as preocupações quanto ao tema, razão pela qual pensamos que seja salutar e necessário que seja levada em consideração na regulação das plataformas digitais.
A inovação que propomos está muita mais relacionada às medidas voltadas à solução do problema (modelo de responsabilidade civil e regulatório) do que propriamente à identificação de riscos se ameaças que criam o problema a ser resolvido, conforme demonstrará em sua resposta à questão 29. - Comunidade Práxis (comentário inserido por: Renata Aquino) 15/07/2023 às 22:43
Concordamos com os riscos elencados.
Enfatizamos, entretanto, que há um risco não listado:
- Risco de dominação do discurso público pelo poder econômico privado - p. ex. no caso do PL 2630 o Google gastou em publicidade contra o projeto (não foi a única empresa a fazê-lo mas a que mais gastou). A empresa responderá processo por tentar dissuadir a opinião pública de discutir amplamente o projeto de lei em trâmite.
Para que este risco seja mitigado é importante a transparência e a garantia de ampla participação da população na discussão dos riscos das plataformas. Novamente, voltamos à questão da necessidade de boas práticas de participação remota para que todos sejam ouvidos.
O IGF tem um manual para fóruns de boas práticas https://mail.intgovforum.org/cms/documents/best-practice-forums/657-bpf-handbook/file
Novamente, concordamos com os riscos, mas sinto falta de uma indicação mais explícita das implicações na saúde e bem-estar. Tenho dúvida se um novo item na lista de risco, mas os riscos à saúde pública são enormes, além da saúde individual, e no sentido amplo de saúde associado ao bem-estar.
Exemplo de caminho operacional é criação de standards técnicos que subsidiem as políticas públicas temáticas é o documento Recommended Practice for Assessing the Impact of Autonomous and Intelligent Systems on Human Well-Being https://ieeexplore.ieee.org/document/9084219 e o Age appropriate design: a code of practice for online services que oferecem recomendações e podem apoiar caminhos de fiscalização / punição / aperfeiçoamento.
O acesso aos dados e políticas públicas está diretamente associado à soberania digital tanto no âmbito da nação e entes federativos, mas com direto efeito sobre o direito de acesso aos dados públicos para efetivar transparência e qualificar a participação democrática an educação também. Os relatórios do Educação Vigiada apontam riscos crônicos na educação pública, e o mesmo poderia ser pensado para políticas de saúde pública, serviços de mobilidade e transporte, todo sistema de justiça que é cada vez mais digitalizado e plataformizado.
Mecanismos de transparência e acesso aos dados são pontos de partida para elaboração, implementação e monitoramento de políticas públicas. Um caminho para mitigar é estabelecer padrões de publicização de dados de plataformas que operam serviços de interesse público, com base em referências e parâmetros definidos pelos órgãos competentes com os conselhos de controle social equivalentes: Ex. Com base no plano de educação, BNCC. LDB e indicadores INEP, criar matrizes de dados considerados de interesse público na educação para subsidiar monitoramento das metas, programas e projetos, bem como dar oportunidade para alguma agência os estudantes na ponta.
Outro ponto de mitigação de riscos é o investimento consistente, e não apenas ilustrativo, em estratégias de comunicação e conscientização para os vários públicos, especialmente com foco nas populações vulneráveis que não lêem e não possuem informações técnicas especializadas.
Ponto geral: Na descrição Grupo de Risco, não entendi a opção pelo termo: conteúdos “pedopornográficos” . Sugiro trocar por “conteúdos de abuso ou exploração sexual de crianças e adolescentes”. RA Ponto muito importante
Mais uma vez, concordamos que esses riscos são relacionados a ameaças à democracia e aos direitos humanos e as regulações e devem ser feitas, de forma muito clara principalmente, para quem não tem acesso facilmente e somente esporadicamente, mal sabe ler e escrever. Então, a falta de transparência, para quem não tem muita cultura e base de educação para entender, dificulta mais ainda como se posicionar, reagir e utilizar as plataformas digitais.
Talvez uma palestra, oficina, ajuda imediata para a auxiliar o início dessas pessoas a iniciarem o entendimento de como funcionam e são as regras e os riscos da utilização da tecnologia/plataformas digitais.
Por isto é importante sim a formação em educação e tecnologia para aumentar o nível de literacia digital da população e permitir a participação crítica em espaços de discussão e apoiar iniciativas como essa vai muito além da regulamentação de plataformas. A discussão sobre o Novo Ensino Médio e componentes curriculares como Projeto de Vida, por exemplo, são centrais a iniciativas de aumento da literacia digital da população.
A regulamentação das plataformas deve estar de mãos dadas a um projeto mais amplo de inclusão da discussão sobre o tema no cotidiano das escolas e do próprio tema de soberania digital nas esferas de discussão de cidadania.
(Contribuição de integrantes da Comunidade Práxis - Renata Aquino, Rodrigo Nejm e Renata Martinez - espaço temático de educação e tecnologia) - João Coelho 15/07/2023 às 15:29Um olhar transversal sobre riscos de crianças e adolescentes e apresentação de duas metodologias de classificação de riscos - CO:RE (4Cs) e OCDE:
Ressaltamos a importância de um olhar transversal sobre riscos que atingem crianças e adolescentes em um contexto de plataformização socioeconômica, que cruzam questões relacionadas à concentração econômica, à soberania digital, ao trabalho decente, à qualidade informacional do ambiente digital e aos Direitos Humanos e democracia. Para auxiliar a classificação desses riscos, importa apresentar as tipologias CO:RE (4Cs) e da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) para classificação de riscos de crianças e adolescentes no ambiente digital.
Apresentação da CO:RE e dos 4Cs para classificação de riscos:
Tipologia de riscos online para crianças desenvolvida pelas Profas. Mariya Stoilova e Sonia Livingstone para a CO:RE, iniciativa financiada pela União Europeia para produzir pesquisas sobre crianças on-line, de modo a orientar o desenvolvimento de políticas públicas. As pesquisadoras, em linhas gerais, propõem a divisão dos riscos a que as crianças estão submetidas no ambiente digital nos chamados “4 Cs”: conteúdo (a criança tem contato com conteúdo prejudicial); contato (a criança é abordada por um adulto mal-intencionado); conduta (a criança participa, testemunha ou é vítima de uma situação prejudicial, como bullying); e contrato (a criança toma parte ou é explorada por um contrato prejudicial, incluídos aqueles que promovem o uso nocivo de seus dados pessoais).
Para ver mais: LIVINGSTONE, Sonia; STOILOVA, Mariya. The 4Cs: Classifying Online Risk to children. https://www.ssoar.info/ssoar/handle/document/71817 e https://core-evidence.eu/posts/4-cs-of-online-risk
Fonte do Trecho: CG25 Comentado, p. 55
A classificação foi atualizada para incluir categorias de risco consideradas transversais, quais sejam: abusos relacionados à privacidade e proteção de dados pessoais; riscos de saúde mental e física; riscos relacionados à discriminação
Apresentação da Classificação de Riscos da OCDE para crianças e adolescentes no ambiente digital:
A Organização para a Cooperação e Desenvolvimento Econômico (OCDE) distingue quatro categorias de riscos aos quais estão submetidas as crianças no ambiente digital, conforme a seguinte tipologia: (i) riscos de conteúdo; (ii) riscos de conduta; (iii) riscos de contato; e (iv) riscos de consumo. Identifica, ainda, que permeiam essas categorias os riscos à privacidade, os riscos relacionados às tecnologias avançadas, como, por exemplo, IA, IoT, análises preditivas e biometria; e os riscos à saúde e ao bem-estar.
Para ver mais:https://www.oecd.org/digital/children-in-the-digital-environment-9b8f222e-en.htm
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques, pp. 117-118. Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf - João Coelho 15/07/2023 às 15:28Premissas para a regulação de plataformas sob a ótica dos direitos das crianças e adolescentes:
A regulação de plataformas deve levar em conta os princípios e parâmetros normativos de proteção à infância já vigentes no ordenamento jurídico brasileiro. O art. 227 da Constituição Federal determina ser “dever da família, da sociedade e do Estado assegurar à criança, ao adolescente e ao jovem, com absoluta prioridade, o direito à vida, à saúde, à alimentação, à educação, ao lazer, à profissionalização, à cultura, à dignidade, ao respeito, à liberdade e à convivência familiar e comunitária, além de colocá-los a salvo de toda forma de negligência, discriminação, exploração, violência, crueldade e opressão”. Como se vê, a Constituição Federal consagra a responsabilidade compartilhada pela proteção integral de crianças e adolescentes, o que, por si só, endossa a adoção de medidas regulatórias no sentido de garantir que as empresas fornecedoras de plataformas digitais, enquanto parte integrante da sociedade, cumpram com seu dever constitucional e adotem as medidas a seu alcance para garantir que seus produtos sejam respeitosos aos direitos e melhor interesse desse grupo de indivíduos. Mais que isso, o texto constitucional determina que a proteção integral de crianças e adolescente deve ser tratada como absoluta prioridade, o que significa que o resguardo a esses direitos deve ocupar lugar de primazia na regulação e ser objeto de ação prioritária pelo poder público. Em igual sentido, o Estatuto da Criança e do Adolescente (ECA) reforça, em seu art. 4º, a absoluta prioridade dos direitos de crianças e adolescentes, determinando, ademais, em seu art. 71, que esse público tem direito a produtos e serviços que respeitem sua condição peculiar de pessoas em desenvolvimento.
No âmbito internacional, diversas diretrizes relacionadas à regulação de plataformas a partir da ótica de proteção à infância são encontradas no Comentário Geral n° 25 do Comitê dos Direitos da Criança da ONU, documento que detalha a forma como a Convenção sobre os Direitos da Criança deve ser aplicada pelos Estados-partes em relação ao ambiente digital. Sublinha-se que os Comentários Gerais são documentos oficiais que visam atualizar e detalhar a aplicação da Convenção sobre os Direitos da Criança - ratificada pelo Brasil já em 1990 - a partir de recortes temáticos específicos, devendo, dessa forma, ser observados pelos Estados. Ressaltamos que nos trechos do comentário transferidos para esta Consulta, utilizamos o termo “criança” de acordo com a definição do art. 1º da Convenção sobre os Direitos da Criança, que abrange seres humanos de até 18 anos de idade.
O Comentário Geral n° 25 traz em si uma série de princípios que devem orientar toda e qualquer ação que possa impactar os direitos da criança e do adolescente no ambiente digital. A partir da leitura do documento, constata-se que o melhor interesse da criança deve ser tratado como princípio norteador de toda regulação das plataformas, independentemente de sua definição. Isso significa que a regulação deve “considerar todos os direitos das crianças, inclusive seu direito a buscar, receber e difundir informações, a receber proteção contra todo dano e a que suas opiniões sejam devidamente consideradas”, visando a garantir que em “todas as ações relativas ao fornecimento, regulação, design, gestão e uso do ambiente digital, o melhor interesse de cada criança seja uma consideração primordial”. Segundo a Convenção sobre os Direitos da Criança, o melhor interesse da criança é um conceito constituído de 3 dimensões: (a) um direito substantivo das crianças de terem seus direitos considerados prioritariamente quando houver múltiplos interesses em torno de uma decisão; (b) um princípio fundamental de interpretação, o qual deve levar à escolha da interpretação que favoreça o interesse da criança quando um dispositivo legal for aberto a mais de uma interpretação; (c) uma regra de processo, que impele os magistrados a considerarem os interesses das crianças em seus julgamentos.
Para além do melhor interesse da criança, o Comentário Geral n° 25 elenca outros princípios que devem nortear toda ação relativa ao ambiente digital e a regulação de plataformas. O princípio da não-discriminação impõe que a regulação busque “prevenir a discriminação com base em gênero, deficiência, situação socioeconômica, origem étnica ou nacional, idioma ou por qualquer outro motivo, e discriminação contra crianças de minorias e indígenas, requerentes de asilo, crianças refugiadas e migrantes, crianças lésbicas, gays, bissexuais, transgêneros e intersexuais, crianças vítimas e sobreviventes de tráfico ou exploração sexual, crianças em cuidados alternativos, crianças privadas de liberdade e crianças em outras situações de vulnerabilidade” (CG25, p. 11), levando em conta que “crianças podem ser discriminadas por serem excluídas do uso de tecnologias e serviços digitais ou por receberem comunicações de ódio ou tratamento injusto no uso dessas tecnologias” (CG25, p. 10), ou ainda por “processos automatizados que resultem em filtragem de informações, perfilamento ou tomada de decisões baseadas em dados tendenciosos, parciais ou obtidos de forma injusta em relação a uma criança” (CG25, p. 10).
O Comentário Geral também determina a adoção de medidas regulatórias “apropriadas para proteger as crianças de riscos ao seu direito à vida, sobrevivência e desenvolvimento” (CG25, p. 14), levando em conta a pluralidade de riscos a que crianças e adolescentes estão expostos no ambiente digital e que as “oportunidades oferecidas pelo ambiente digital desempenham um papel cada vez mais crucial no desenvolvimento das crianças e podem ser vitais para a vida e sobrevivência das crianças, especialmente em situações de crise” (CG25, p. 14). É dizer: a regulação não deve buscar impedir o acesso de crianças e adolescentes ao ambiente digital, mas sim garantir que esse acesso seja seguro e respeitoso aos seus direitos.
O reconhecimento do desenvolvimento progressivo das capacidades de crianças e adolescentes, por seu turno, impõe que a regulação leve em conta que “os riscos e oportunidades associados ao engajamento das crianças no ambiente digital mudam dependendo de sua idade e estágio de desenvolvimento” (CG25, p. 19), de modo que esse grupo de pessoas não pode ser tratado como um bloco homogêneo e sem diferenciação entre si.
Por fim, o princípio do respeito pela opinião da criança determina que “ao desenvolver legislação, políticas, programas, serviços e treinamentos sobre os direitos das crianças em relação ao ambiente digital, Estados Partes devem envolver todas as crianças, ouvir suas necessidades e dar a devida importância aos seus pontos de vista. Eles devem assegurar que os provedores de serviços digitais se envolvam ativamente com as crianças, aplicando salvaguardas apropriadas, e dar a devida consideração a seus pontos de vista ao desenvolver produtos e serviços” (CG25, p. 17). Ou seja: as crianças devem ser ouvidas tanto pelas autoridades no desenvolvimento da regulação, quanto pelas empresas de tecnologia no desenvolvimento de seus produtos e serviços.
Reforçamos que crianças e adolescentes são sujeitos de direitos, criadores e protagonistas de formas singulares de ser, estar, pensar, sentir e participar do mundo. São pessoas em um processo único de desenvolvimento físico, emocional, cognitivo, social e simbólico e, portanto, a defesa e garantia de seus direitos é prioridade absoluta e missão compartilhada pelo Estado, famílias, sociedade e todas as comunidades (artigo 227 da Constituição Federal). São, também, ⅓ dos usuários de Internet no mundo, havendo 24 milhões de usuários entre 9 e 17 anos de idade apenas no Brasil, dados que enfatizam a necessidade de representação de seus interesses em esferas participativas nacionais.
Referência legal: art. 227, da CF/88, art. 100, IV do ECA; art. 14, caput, da LGPD; art. 3º da CRC, General Comment n. 14 (2013): the right of the child to have his or her best interests taken as a primary consideration e General Comment n. 25 (2021) on children’s rights in relation to the digital environment
Para ver mais: HARTUNG, Pedro Affonso Duarte. Levando os direitos das crianças a sério; BIONI, Bruno; RIELLI, Mariana. 8 temas chaves de implementação: uma visão multissetorial Data Privacy Brasil - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:38A Camara-e.net reconhece a iniciativa do CGI em dedicar especial capítulo sobre a implicação da regulação das plataformas à temática da democracia e direitos humanos. Entendemos, no entanto, que a regulação das plataformas precisa de uma compreensão aprofundada do contexto atual e das particularidades dos inúmeros modelos de negócio que se encontram sob o guarda-chuva de “plataformas digitais”.
Cada uma das importantes questões arroladas pela consulta justificam estruturas regulatórias próprias, mas tais assuntos não devem ser subsumidos ou considerados no contexto de legislação concorrencial ou de regulação de plataformas digitais. Qualquer tentativa de tratar de tais questões de grande importância por meio da legislação concorrencial não será capaz de abarcar a grande variedade de considerações que devem ser abrangidas, e irá se desviar do objetivo principal do direito concorrencial, o que resultaria na diluição do direito concorrencial e no enfraquecimento dos mecanismos protetivos em cada uma dessas importantes áreas.
Tanto é assim que diversos tópicos objeto dessa consulta já possuem regulamentação dedicada. A temática da privacidade e proteção de dados, por exemplo, possui um arcabouço normativo específico regido pela Lei Geral de Proteção de Dados (Lei 13.709/2018) que regulamenta os casos em que o tratamento de dados pessoais pode representar riscos à liberdade e aos direitos dos titulares (incluindo discriminação para fins lesivos) e identifica as medidas mitigadoras desses riscos (incluindo a elaboração de relatórios). Assim, não somente é desnecessária a criação de novas regras para situações já regulamentadas pela LGPD, como a criação de novas regras desconexas pode gerar sobreposição e conflito de obrigações sobre uma mesma atividade.
No que tange à responsabilidade das plataformas relacionadas a infodemias, engajamento cívico e conteúdos ilícitos, esta deve ser estabelecida com muita cautela. Assim, por exemplo, responsabilizar e requerer que as plataformas realizem um julgamento prévio sobre o teor do conteúdo que circula em seus serviços para determinar se ele se enquadra ou não como Ilícito pode ser extremamente prejudicial à sociedade, além do potencial de violar a Constituição Federal, que delega de forma exclusiva ao Poder Judiciário a função de interpretar a lei.
Quanto aos modelos de negócio das plataformas e o jornalismo, destaca-se que os veículos tomam uma decisão comercial e optam por compartilhar links com seus conteúdos porque se beneficiam do tráfego das plataformas. Desta maneira, as publicações voluntárias das próprias empresas jornalísticas não podem ensejar remuneração sob pena de criar uma indústria de novas empresas jornalísticas de baixa qualidade remuneradas oficialmente pelas plataformas. As empresas optam por publicar em plataformas porquanto isso as beneficia, inclusive permitindo-lhes chegar a públicos já existentes e a novos públicos.
Cabe ainda destacar a necessidade de levar em conta as plataformas de mensageria privadas e a questão da criptografia. Enfraquecer a criptografia pode trazer altos riscos para os direitos humanos. A criptografia é uma ferramenta muito importante para manter todos seguros: protege a privacidade das pessoas, dá mais liberdade a jornalistas, ativistas e informantes, etc. Introduzir, por exemplo, rastreabilidade pode quebrar o princípio de criptografia, colocando em perigo pessoas expostas.
Certamente, é importante estabelecer legislação robusta de segurança de dados e privacidade para garantia de todas as pessoas, incluindo menores, assim como para proteção da infraestrutura nacional. Também é essencial dispor de uma legislação resiliente sobre direitos de liberdade de expressão que sopese a sua importância ao mesmo tempo que leva em consideração a proteção aos direitos humanos (discurso de ódio, terrorismo, incitamento a tais comportamentos) e procedimentos eleitorais críticos. Ainda, é crucial que se estabeleça leis ou guias que governem a integridade jornalística. Contudo, discussões sobre esses temas devem ser mantidas em separado de discussões sobre a regulação de “plataformas digitais” para fins concorrenciais. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:07Sim. É indiscutível a importância das plataformas digitais, especialmente das chamadas redes sociais, em viabilizar um espaço público de discussões e trocas de ideias sobre assuntos de interesse geral, o que é essencial para um sistema democrático.
Por muito tempo, as plataformas adotaram um modelo de autorregulação que, como se pôde notar, não foi suficiente para barrar problemas como desinformação e discurso de ódio na Internet. Muitos estudos sugerem que os filtros automáticos utilizados para recomendação de conteúdos agravam o efeito bolha, reforçando vieses e dificultando o contato com posições divergentes. Isso tem levado à fragmentação da esfera pública e, consequentemente, da própria democracia.
Por essa razão, verifica-se a necessidade de uma maior intervenção estatal para corrigir falhas, assimetrias informacionais e cobrar mais transparência das empresas. Nesse sentido, a defesa dos direitos humanos estabelece ferramentas na forma de direitos que podem ser utilizados para mitigar esses problemas. - Internet Society Capítulo Brasil (comentário inserido por: GT-RI ISOC Brasil) 14/07/2023 às 15:21Somos cautelosos com a regulação de plataformas e da Internet que tem como premissa o combate à conteúdos prejudiciais nas redes. Verifica-se uma tendência preocupante de governos em usar tecnologia e controle da Internet para suprimir a dissidência e fortalecer seu poder. Isso pode tomar várias formas, desde a censura e o bloqueio de sites até a vigilância massiva e a coleta de dados pessoais.
De acordo com a Access Now, o ano de 2022 mostrou uma perturbadora tendência de apagões de Internet em 12 países africanos, com 19 incidentes, frequentemente justificados por pretextos de segurança nacional. Estes foram especialmente observados durante os processos eleitorais, sob a suposta premissa de combater a propagação de discurso de ódio e desinformação (vide Garay, Vladimir. "Los apagones de internet atentan contra los derechos humanos." Derechos Digitales, 10 de junho de 2023. https://www.derechosdigitales.org/20673/los-apagones-de-internet-atentan-contra-los-derechos-humanos/).
Considerando que a Internet se tornou um instrumento indispensável para o exercício de direitos fundamentais, tais interrupções vão além de simples inconveniências - elas acarretam danos a direitos civis e têm o potencial de afetar diversas esferas da vida cotidiana dos cidadãos.
Situação semelhante é observada na América Latina, onde relatos de interrupções parciais da Internet durante protestos políticos têm sido alarmantes. Incidentes significativos ocorreram na Nicarágua em 2018 e na Colômbia em 2019 e 2021. Na mesma linha, existem exemplos notáveis em lugares como a Rússia. A implementação de filtros na Rússia segue uma longa história de restrições de conteúdo no país baseadas em táticas mais sutis e difíceis de documentar. O Kremlin exerce uma influência cada vez maior sobre o discurso público online, com atores do Estado participando ativamente de debates e discussões em plataformas tradicionalmente usadas por pioneiros não estatais. A censura nas mídias sociais também está aumentando, com provedores de conteúdo da Internet migrando cada vez mais para as plataformas de mídia social (Zittrain, Jonathan L., et al. "The Shifting Landscape of Global Internet Censorship." SSRN Electronic Journal (2017). https://doi.org/10.2139/ssrn.2993485. p.17.).
Conforme o relatório "Freedom on the Net Report" da Freedom House (https://freedomhouse.org/sites/default/files/2022-10/FOTN2022Digital.pdf.), a censura a plataformas de mídias sociais e aplicativos de comunicação atingiu um recorde global em 2022, com um número cada vez maior de governos visando plataformas de mídia social e aplicativos de mensagens como WhatsApp e Telegram para controlar o fluxo digital de informações. Estes exemplos reforçam a necessidade crítica de garantir que o acesso à Internet - e, por extensão, os direitos fundamentais - não sejam arbitrariamente comprometidos.
No Brasil, cabe mencionar os casos dos bloqueios do WhatsApp entre 2015 e 2016, além do do bloqueio do Telegram em 2023, suspenso por uma decisão judicial pela falha em entregar informações sobre usuários em grupos de conversa acusados de disseminar discursos de ódio. (https://agenciabrasil.ebc.com.br/justica/noticia/2022-03/ministro-do-stf-determina-bloqueio-do-telegram-no-brasil). Apesar da medida ser fundamentada em preocupações válidas de segurança e combate ao discurso de ódio, levantou-se uma série de questões críticas acerca do delicado equilíbrio entre segurança e privacidade na Internet. - Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 09:37Deve ser considerada a questão da violência política.
- Irineu Barreto 12/07/2023 às 10:31Apesar de contemplado, a propagação de discurso de ódio deve ter mais ênfase, como componente do ecossistema de desinformação como estratégia politica-eleitoral.
- Celso Santos 10/07/2023 às 17:53Democracia e direitos humanos são temas difusos mas precisam ser analisados e integrados com a comunidade acadêmica e científica mundial ....sem reveses
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 18:02Inspirando-se nas acuradas e proveitosas discussões doutrinárias, jurisprudenciais e legislativas relativas aos direitos digitais nas principais jurisdições ao redor do mundo e, sobretudo, à luz dos textos do Digital Services Act e Digital Markets Act da União Europeia, a ABRANET concorda com a lista dos temas elencados pelo CGI.br como um risco a ser considerado por uma futura regulamentação das plataformas digitais no Brasil.
Em linha com as conclusões mais convergentes destas discussões, a ABRANET entende que, assim como o controle do poder de mercado pelas grandes plataformas enseja uma preocupação maior, ao ponto de alçar um modelo regulatório específico para contê-lo, o controle do fluxo informacional – também detido por essas mesmas plataformas – acarreta a mesma necessidade.
Portanto, não é possível, ou, ao menos, não é razoável ou eficiente, formular uma regulamentação de plataformas que não alce a contenção destes grandes players, haja vista que, em razão do tamanho, ubiquidade e controle do fluxo informacional, os potenciais (ou concretos) danos, bem como a extensão destes, devem ser mais bem apreciados pelos parlamentares e reguladores competentes.
Exemplificativamente, é possível mencionar os escândalos da Cambridge Analytica, o recrudescimento das ideologias nazifascistas em países de tradição democrática, os ataques às escolas no ano de 2023, a propagação do negacionismo científico no período da pandemia do Covid-19, a escalada da desinformação e das fake news, entre outros eventos, que demonstram a necessidade de se conter estas grandes plataformas.
Por isso, nos termos definidos no questionamento 1 desta Consulta, a ABRANET entende que deve haver um modelo de regulação assimétrico que enderece esses riscos, criando regras, princípios e obrigações para aqueles que detém o fluxo informacional, nomeadamente, as plataformas com mais de 50% de participação de mercado no respectivo mercado relevante e alta volumetria de usuários - mais de quarenta e cinco milhões de usuários finais e mais de vinte milhões de usuários profissionais, cumulativamente – sendo que tanto o critério de market share quanto o critério de volumetria devem ser aferidos por pelo menos os últimos três exercícios financeiros.Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 13/07/2023 às 17:52Para maior clareza da resposta a Abranet esclarece que entende como relevantes os riscos apontados e defende a existência de ESTRUTURAS MULTISSETORIAIS que possam apoiar tratamento desses riscos tal como, por exemplo, a entidade de AUTORREGULAÇÃO normatizada com esse objetivo. - ROSA VICARI 23/06/2023 às 16:25Concordo que todos os itens mencionados estão muito bem colocados e que, nesta área, medidas legais urgentes, necessitam ser implementadas.
- Beatriz Lorencini 21/06/2023 às 12:54Sim. Concordo com todos os pontos descritos acima mas acho muito importante dar nome e especificar com clareza o tema que está sendo abordado principalmente nos temas que dizem respeito à crianças, adolescentes e jovens. Ou seja: Ao falar do desenvolvimento especificar os sintomas que já são estudados e que apontam consequências a partir do uso excessivo que já começou a ser descrito no advento do tecnoestresse ( que tem como manifestação a perda de empatia, crescente irritabilidade e agressividade, causando alteração de comportamento, do relacionamento familiar e social, de transtorno aprendizado e escolar, além de diversas outras doenças), mas que a medida que o tempo passa novas modalidade de crimes e consequências do mal uso das mídias estão aí no nosso dia a dia e podemos comprovar seus efeitos maléficos. A importância de falar de tudo aumenta a proteção e fortalece os direitos humanos. Não é possível ficar nas entrelinhas. Temos visto muitas questões delicadas que ficam sem esclarecimento e se tratando do uso das mídias precisam de um tratamento minucioso.
- Christian Abreu 21/06/2023 às 09:04A expressão "ameaça à democracia" é utilizada de forma ideológica e deturpada. O cerceamento da liberdade de expressão é a verdadeira ameaça à democracia pois resulta na imposição de ditadura absoluta.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 14:27O respeito aos direitos fundamentais para pelo respeito aos direitos fundamentais, é cíclico, não são as plataformas sociais as "culpadas" pela divulgação de conteúdos inadequados, e sim os usuários, desta forma o controle há que pesar para o lado do infrator e não do meio. Em um exemplo simples, se alguém utiliza uma faca (qualquer modelo) de forma irracional e comete um crime, há que se punir o criminoso e não o fabricante. Alguns dos "efeitos negativos" mencionados ocorrem anteriormente ao surgimento das plataformas sociais, então, são crimes que devem ser combatidos. Devemos lembrar que "mentir" não é crime. Conteúdos ilegais e nocivos podem ser divulgados de tantas forma, através de periódicos por exemplo (vamos regulamentas as gráficas ou impressoras?). Para concluir, a utilização de qualquer ferramenta depende de quem a utiliza.
- Jose Vieira 19/06/2023 às 14:20Acredito que o problema não sejam as plataformas, mas os usuários sejam civis, governamentais ou empresariais.
Com liberdade tudo pode ser questionado e esclarecido. Tentar filtrar informações com o intuito de apresentar apenas um ponto de vista é perigoso e um risco - Leila D'Arc De Souza 17/06/2023 às 08:29Sim concordo.
- Rodrigo Pereira 25/04/2023 às 20:04Concordo com preocupação em todos os itens.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:28[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A desinformação e o discurso de ódio são problemas centrais hoje, pois afetam e constroem obstáculos à participação política e mesmo à vida de grupos historicamente discriminados. Estas temáticas devem estar no centro da regulação das plataformas digitais. Esses riscos devem ser percebidos como problemas na garantia do direito à comunicação em suas diversas dimensões, em especial do direito à informação e da liberdade de expressão, bem como na sua relação com o sistema democrático. A reconfiguração desses fenômenos no âmbito das plataformas digitais está diretamente vinculada ao modelo de negócios e à lógica de coleta excessiva de dados, que amplifica conteúdos extremos, desinformativos e de discurso de ódio para gerar engajamento e manter usuários por mais tempo nestes espaços. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:14(Contribuição da Coalizão Direitos na Rede)
É essencial reafirmar a defesa da regulação pública democrática em um cenário em que forças ligadas a pressões de interesses escusos e/ou ligados às plataformas têm promovido uma campanha baseada em mentiras e distorções para tentar derrotar o projeto (como a mentira de que a proposição censuraria textos religiosos). O interesse de quem não quer obrigações republicanas é ter um espaço livre para difundir ódio. Em um país democrático, mentiras e objetivos nefastos não podem guiar uma discussão fundamental para o futuro e presente das nossas sociedades, e que está ocorrendo em todo o mundo justamente pela sua urgência.
A liberdade religiosa deve ser considerada juntamente com outros princípios, tendo em vista o incentivo a um ambiente livre de assédio e discriminações (Art. 4º, inciso VI) e a obrigação de serem estabelecidas salvaguardas contra discriminação ilegal ou abusiva (Art. 7º, III; Art. 8º, § 1º; Art. 22, II). Além disso, o arcabouço constitucional e de outras legislações específicas dão conta de punir eventuais abusos, já que, assim como a liberdade de expressão, a liberdade religiosa não é um direito absoluto, que pudesse isentar as pessoas de eventuais responsabilidades pelos danos materiais e morais que suas manifestações podem gerar para outras pessoas. - Filipe Saraiva 16/07/2023 às 22:18Alto grau de risco associado a estes casos.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:02Conforme apontado por Alex Camacho Castilho e Irineu Barreto (Fundação Seade e FMU), tais riscos não apenas representam ameaças concretas a um ambiente digital livre e seguro, como também são, com frequência, elementos estratégicos de narrativas desinformantes e antidemocráticas. Por isso, são pontos que podem trazer danos a toda a sociedade brasileira a qualquer momento e não apenas nos períodos eleitorais, bem como para além do ambiente virtual, como verificado nos ataques antidemocráticos do dia 08 de janeiro de 2023 e em diversos episódios de massacres escolares. Para elém desses exemplos, importante mencionar riscos relacionados à radicalização social, violência contra grupos sociais vulneráveis ou marginalizados, como é o caso da violência política contra mulheres, em especial contra candidatas em períodos eleitorais ou jornalistas. Sobre como operações de influência multiplataformas são articuladas para promover a violência contra jornalistas, vale mencionar o relatório "Como operações de influência entre plataformas são usadas para atacar jornalistas e enfraquecer democracias?", uma pesquisa do InternetLab em paaceria com INCT.DD, DFRLab, Instituto Vero, AzMina e VOLT Data Lab.
A existência desses riscos está intimamente relacionada ao modelo de negócio atual das plataformas digitais, baseada na coleta massiva de dados pessoais dos usuários para o direcionamento de publicidades. Uma vez que estas são a principal fonte de renda das plataformas, conteúdos que geram maior engajamento são consequentemente onde a publicidade tem maior apelo. Assim, há um incentivo ecônomico à produção e disseminação de conteúdos desinformativos, violentos, de ódio e apelativos, desde que tenham alcance.
Tais riscos, portanto, devem estar no centro da regulação de plataformas, tanto como riscos ecnômicos - ligados à sustentabilidade de um setor - quanto como riscos sociais.
Quanto à regulação econômica de plataformas, dado o modelo de negócio favorável à existência desses riscos, é preciso considerar caminhos para mitigá-los, como limitações horizontais e/ou verticais na cadeia, além de harmonizações em legislações de dados pessoais, incentivos à interoperabilidade e outros.
Quanto à esfera social, a regulação deve ter como centro os direitos dos usuários, como de acesso à informação - afetado quando há proliferação de desinformação -, de liberdade de expressão, de transparência do duso de seus dados pessoais, transparência algoritmica e de moderação de conteúdo, dentre outros. - Louise Karczeski 16/07/2023 às 18:18Sim. Tratam-se de fenômenos diretamente ligados ao aumento da violência contra grupos vulneráveis no Brasil e que são amplificados pelas interações em plataformas digitais - vide dados do trabalho de Adriana Dias que apontam crescimento de 270% no número de núcleos extremistas no país entre 2019-2021. A discussão sobre esses problemas, especialmente quando falamos de discurso de ódio, tende a ser esvaziada com argumentos sobre as dificuldades interpretativas relacionadas ao que se encaixa nessa definição, mas existem diversas formas e vieses de análise para evitar as variações subjetivas na caracterização desses fenômenos. O relatório do GT para apresentação de estratégias de combate ao discurso de ódio e ao extremismo, e para a proposição de políticas públicas em direitos humanos sobre o tema, institúído pelo Ministério dos Direitos Humanos e da Cidadania, traz contribuições substantivas nesse sentido. Sugiro atenção à definição formulada pelo GT:
"O discurso de ódio envolve a progressão, intensificação ou sobreposição de violações que partem de uma estratégia de poder pela agressividade, hostilidade, opressão, intolerância e abjeção de pessoas ou comunidades e evoluem, no conteúdo e na forma, para um polo de extremismo discursivo caracterizado pela desumanização do seu objeto e coletivização de seu destinatário." - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:37Concordamos que infodemias são um desafio significativo para a democracia e os direitos humanos. Os principais riscos associados são: desestabilização de democracias, violência contra grupos politicamente minorizados e genocídio, a partir da radicalização fomentada por perfilhamento e microdirecionamento de conteúdo problemáticos. A literatura especializada ressalta que o uso de sistemas algorítmicos cuja métrica é engajamento pode inadvertidamente aumentar a visibilidade de informações falsas ou conteúdo nocivo, já que esse tipo de conteúdo muitas vezes provoca reações fortes e, portanto, alto engajamento (Tufekci, 2015; Brady et al., 2021).
Para conter esse risco, plataformas digitais devem ter políticas claras e medidas de fiscalização, mas, principalmente, é necessário e possível pensarmos em um sistema de certificação de algoritmos no âmbito do direito internacional dos direitos humanos, uma proposta de autores diversos como Thomas Kadri (2020). Também, Nicolo Zingales (2018) fala sobre a certificação de algoritmos não discriminatórios no Google como critério de mitigação de responsabilidade. - Rodolfo Salema 16/07/2023 às 10:13Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
As infodemias apresentam-se, indubitavelmente, como uma realidade nas plataformas digitais, tornando-as um campo fértil à propagação de desinformação e de conteúdos ilícitos – como os discursos extremistas, de ódio, de incitação ao terrorismo, dentre outros, conforme bem exposto por este r. Comitê – na medida em que o excesso de informação gera maior dificuldade para a identificação, pelos usuários e cidadãos comuns, de quais destas tantas informações, que se propagam e multiplicam tão rapidamente, realmente são confiáveis, verídicas e legítimas.
Deste modo, as plataformas digitais, sobretudo aquelas cuja principal finalidade consista no compartilhamento e disseminação de conteúdo gerado por terceiro, devem agir diligentemente para prevenir e mitigar práticas ilícitas no âmbito de seus serviços, não priorizando a distribuição aos usuários de conteúdos ilícitos. Neste sentido, importante trazermos à baila o entendimento adotado pela r. Secretaria de Comunicação Social da Presidência da República (Secom/PR), por meio da proposta de Política Pública de Educação Midiática recentemente submetida à Consulta Pública , pela qual a Secretaria manifestou-se justamente no sentido de que as plataformas digitais não seriam meras espectadoras, devendo atuar com zelo e diligência. A saber:
“As plataformas digitais não são meras espectadoras dos conteúdos que circulam nas redes sociais, incidindo com seus algoritmos no alcance das publicações e realizando moderação nos conteúdos com base em seus termos de uso e nas obrigações presentes nas legislações dos diversos países em que atuam. Devem, portanto, atuar com cuidado, zelo e devida diligência, buscando assegurar um ambiente digital saudável e alinhado com a perspectiva dos direitos humanos.” (sem ênfase no original)
Assim, entendemos que este r. CGI, acertadamente, aponta os riscos associados a infodemias como ponto de atenção para a regulação das plataformas digitais. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:41Esse é um dos grandes riscos de plataformas digitais focadas na interação entre usuários, como os serviços de mensageria e as redes sociais. Portanto, é fundamental que a regulação de plataformas se debruce sobre aspectos de transparência, responsabilidade e liberdade de expressão nas redes.
Inclusive, o Grupo de Trabalho do Ministério dos Direitos Humanos e da Cidadania para apresentação de estratégias de combate ao discurso de ódio e ao extremismo, considerou que uma das ações prioritárias para o enfrentamento é a garantia de uma internet segura. Para isso o GT entende ser necessário “fortalecer a mobilização em torno de um novo marco regulatório para as plataformas digitais e a inteligência artificial, com o objetivo de favorecer um espaço digital mais democrático e seguro para a convivência humana, mitigar os efeitos danosos sobre os direitos humanos, ampliar os níveis de transparência e efetivar a responsabilização por atos violentos e ameaçadores da dignidade humana” [1]
[1] Relatório de Recomendações para o Enfrentamento do Discurso de Ódio e o Extremismo no Brasil. Brasília: Ministério dos Direitos Humanos e da Cidadania, 2023. Pág. 52-53. Disponível em: Acesso em: 07/07/2023. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:31Classificação da OCDE (:https://www.oecd.org/digital/children-in-the-digital-environment-9b8f222e-en.htm):
Os riscos de contato (...) são os que ocorrem quando a criança interage no ambiente digital, seja porque é exposta a encontros perniciosos ou com a intenção de prejudicá-la, seja porque é exposta encontros que apresentam ilegalidade ou são problemáticos de outra forma.
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques, pp. 118. Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf
Riscos de contato mapeados pela pesquisa TIC Kids Online 2022:
Segundo dados da pesquisa Tic Kids Online 2022, 32% das crianças brasileiras viram conteúdos on-line estimulando suicídio, automutilação, emagrecimento extremo, abuso de drogas ou mostrando cenas violentas; 41% das crianças viram alguém ser discriminado on-line; e 8% das crianças receberam mensagens ofensivas na Internet.
Riscos associados a um modelo de negócios que impulsiona conteúdo violento e extremo:
Exemplo concreto da preocupação (...) é a escalada de conteúdos relacionados a armas de fogo em rede social de compartilhamento de vídeos, reportada pelo veículo DigitalTrends. Fato é que conteúdos que despertam reações mais intensas dos usuários acabam por levá-los a engajar com maior intensidade com a plataforma, levando-os a serem priorizados pelos algoritmos que regem o fluxo desses conteúdos.
Para ver mais: Wall Street Journal. Inside TikTok’s Algorithm: A WSJ Video Investigation; AGARWAL, Shubham. TikTok has a gun problem, and it is doing nothing to fix it
Fonte: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 105. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
O ambiente digital traz diversas novas possibilidades de comunicação e formas de interação, muitas das quais podem ser, e vêm sendo, articuladas em prol dos interesses de comunidades extremistas. Esse fato e a sua relação com a escalada de violência contra as escolas foi constatada em relatório elaborado para o Governo de Transição sobre o tema, que elencou, de maneira sistemática, os métodos utilizados por esses movimentos para corromper crianças e adolescentes. Dentre essas estratégias, menciona-se o uso de humor e trollagens; o uso de estética e linguagem violentas; a glorificação de atiradores em massa; e o emprego de jogos on-line.
Se o estímulo à violência extremista pode atingir pessoas de diferentes faixas etárias, é certo que os adolescentes que utilizam a Internet estão entre os principais alvos da radicalização. Ainda de maneira mais intensa do que as crianças, esses indivíduos encontram-se em estágio peculiar de desenvolvimento biopsicossocial que os torna particularmente suscetíveis aos estímulos desses grupos, razão pela qual este capítulo se centrará especificamente neles. Um artigo da professora Beatriz Luna, professora de neurociência da Universidade de Pittsburgh, publicado pelo Unicef, ensina que os cérebros de adolescentes encontram-se em estágio no qual o pré-córtex frontal, região responsável pelo raciocínio e controle inibitório, ainda está em desenvolvimento. Disso resulta que os adolescentes são particularmente suscetíveis a ceder a estímulos e discursos de maneira irrefletida, sobretudo quando defrontados com a possibilidade de extrair disso alguma recompensa.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 83 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos associados à exposição de crianças e adolescentes com deficiência à violência
92. Crianças com deficiências podem estar mais expostas a riscos, incluindo ciberagressões e exploração e abuso sexual, no ambiente digital. Estados Partes devem identificar e endereçar os riscos enfrentados por crianças com deficiências, tomando medidas para assegurar que o ambiente digital seja seguro para elas, ao mesmo tempo em que combatem os preconceitos enfrentados por crianças com deficiências que possam levar à superproteção ou exclusão. Informações de segurança, estratégias de proteção e informações públicas, serviços e fóruns relacionados ao ambiente digital devem ser fornecidos em formatos acessíveis.
Fonte: Item 92 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 200 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos relacionados ao impulsionamento algorítmico de conteúdo danoso para saúde e bem-estar, capaz, inclusive, de ampliar acesso a conteúdos de ódio, extremistas e danosos para crianças e adolescentes:
Diversas são as notícias recentes que demonstram a “poluição” do ambiente informacional com conteúdos prejudiciais e potencialmente danosos para seus usuários. Destacamos, nesse sentido, conteúdo “gore” que foi promovido na aba de “Destaques” do Twitter (https://nucleo.jor.br/reportagem/2023-05-31-twitter-gore/), a promoção de rede social de culto a massacres no topo das buscas do Google (https://nucleo.jor.br/reportagem/2023-04-19-clone-do-twitter-abertamente-nazista-e-indexado-pelo-google/) e as recomendações feitas pelo Youtube para gamers a vídeos de massacres em escolas (https://nucleo.jor.br/curtas/2023-05-17-youtube-recomenda-conteudo-de-violencia-para-gamers-mostra-relatorio/) - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:16Estes riscos devem ser levados em consideração. Se é verdade que as redes sociais democratizaram o acesso à informação e ampliaram a voz de minorias sociais, também é possível observar que houve a intensificação de problemas como desinformação, extremismos, discurso de ódio e incitação ao terrorismo. Essas contradições devem ser mitigadas e é necessário traçar estratégias para estimular um debate responsável nas redes.
No caso da desinformação, mesmo não sendo um fenômeno atual, é possível perceber que com a popularização da Internet, o problema ganhou maior escalabilidade e amplitude, em virtude da rapidez e facilidade com que as informações podem ser compartilhadas no ambiente virtual. Segundo o relatório do Grupo de Alto Nível sobre Notícias Falsas e Desinformação Online da Comissão Europeia, a desinformação pode ser definida como "todas as formas de informação falsa, imprecisa ou enganosa, desenhadas, apresentadas e promovidas intencionalmente para causar dano público ou gerar lucro”. Esse fenômeno expressa-se em três diferentes dimensões: 1) informação enganosa (mis-information); 2) desinformação (disinformation); e, por fim, 3) má informação (mal-information). No entanto, traçar uma definição jurídica não é tão simples assim, uma vez que não há um consenso geral sobre o conceito. Além disso, corre-se o risco de criminalizar individualmente as pessoas que caem na rede de desinformação e compartilham mensagens falsas, ao invés de atacar a estrutura que produz e dissemina esse tipo de conteúdo.
De acordo com o Relatório “Internet, Desinformação e Democracia” do Comitê Gestor da Internet no Brasil (CGI.br), a indústria de desinformação é caracterizada pelo “aumento contínuo da complexidade e tamanho das cadeias produtivas e redes de atores que surgiram estimuladas por altos investimentos financeiros destinados a essas atividades”. Nesse sentido, é necessário combater a fonte de financiamento dessa indústria e investigar seus organizadores. Assim, vemos como positivas as alterações feitas na versão atual do PL sobre o assunto.
É importante destacar ainda que o fenômeno em questão ganha contornos ainda mais complexos quando se analisa o contexto de países como o Brasil, que fazem parte do chamado Sul Global. Esse conceito abrange localidades que possuem uma história marcada por processo de colonialismo predatório e golpes de Estado, responsáveis por causar profundas cicatrizes na formação de suas democracias e instituições. Nesse sentido, convém notar que, com a pandemia de COVID-19, alastraram-se no país notícias falsas envolvendo questões de saúde pública. De acordo com o segundo relatório da série Democracia Infectada (scientific Self-Isolation), “embora a desinformação relacionada à COVID tenha seguido as tendências locais, a maioria das narrativas de países foram relacionadas a outros países, exceto nos casos da Índia e Brasil, que pareciam mais isolados do que outras nações”. O primeiro relatório da série acima (“Ciência Contaminada”), que analisa a disseminação de desinformação sobre COVID-19 no Youtube, explica ainda que: “Quando conveniente, o discurso da desinformação se vale de uma ciência distorcida, normalmente selecionando e descontextualizando pontos específicos de notas técnicas, comunicados e artigos do sistema de peritos. Além disso, a retórica é recheada de recursos falaciosos que induzem a audiência a aceitar a autoridade do sistema de peritos como elemento de validação das teorias conspiratórias”.
Assim, é necessário analisar o problema de forma aprofundada, analisando as raízes desse problema e buscando soluções efetivas para combatê-lo, que não se baseie apenas em normas jurídicas, mas também em políticas públicas de combate à desinformação. - Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 10:04Considerar incitação de crimes contra o Estado Democrático de Direito, conforme Lei nº 14.197 de 2021 .
- Alex Camacho Castilho 12/07/2023 às 14:43A disseminação de desinformação, extremismos, discurso de ódio e incitação ao terrorismo por meio das plataformas digitais pode representar uma ameaça à democracia e aos direitos humanos. Esses fenômenos podem alimentar a polarização, a violência e a divisão social, prejudicando o ambiente democrático. A regulação das plataformas digitais deve visar a mitigação desses riscos, promovendo a responsabilidade na moderação de conteúdo, o combate à desinformação e a promoção de valores democráticos.
- Irineu Barreto 12/07/2023 às 10:32Importante adotar a premissa de que Fake News não são meras mentiras, mas sim uma sofisticada estratégia de comunicação política, que extrapola o marco temporal dos períodos eleitorais e instaura um ambiente de guerra permanente, que satura a agenda política e provoca efeitos deletérios na qualidade do debate público.
Sim, atualmente a desinformação política no Brasil não é circunscrita aos períodos eleitorais, seus efeitos são refletidos no cotidiano das redes sociais, aplicativos de troca de mensagens em tempo real e plataformas de vídeo. Independentemente dos vencedores das eleições vindouras, a desinformação tende a prosseguir contaminando o debate público e envidando esforços para sabotar a democracia brasileira. - IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 17:22Infodemia, ou "infodemic" em inglês, refere-se a uma grande quantidade de informações, tanto precisas quanto imprecisas, que se espalham rapidamente e amplamente, geralmente por meio de plataformas digitais e canais de mídia. Isso ocorre durante eventos ou crises significativas, como pandemias (como ocorreu com a COVID-19), desastres naturais e eleições, e é caracterizada pela disseminação rápida de informações, incluindo rumores, desinformação e informações falsas.
Quanto à classificação de conteúdo como “infodemias”, é preciso estar atento à subjetividade do tema. Se é relativamente simples definir quando um conteúdo viola direitos autorais (porque divulgado por pessoa não detentora desses direitos, por exemplo), é muito mais complexo definir quando um discurso crítico se transforma em um discurso de ódio – este é, inclusive, um problema corriqueiro enfrentado pelo Poder Judiciário, que diverge frequentemente a respeito de quando uma manifestação é ou não é ofensiva. - CEIIAS, Centro de Estudos Integrados, Infancia, Adolescencia e Saude (comentário inserido por: Evelyn Eisenstein) 03/07/2023 às 16:29Riscos à Vida e à saúde de crianças e adolescentes em desafios perigosos e que precisam ser imediatamente bloqueados e deletados pois já causaram mais de 60 mortes por fatalidades no Brasil
- Edson Andrade 26/06/2023 às 20:59Concordo que estes são riscos que devem ser considerados para regulação de plataformas digitais. E no caso de desinformação, extremismos, discurso de ódio, incitação ao terrorismo e etc as investigações devem incluir a moderação fragilizada das plataformas que deixaram de certa forma o conteúdo ser disseminado na rede. Assim como seus autores.
- Rede Narrativas (comentário inserido por: ROBERTA TASSELLI) 22/06/2023 às 15:45[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
Riscos relacionados à produção de conteúdo: tem que estar nas plataformas (dependência); conteúdos dependem de engajamento, que instiguem, causam ódio:
- Comunicadores têm que correr atrás das mudanças de desenho das plataformas
- As plataformas dão atenção para conteúdos muito rasos (fofoca, ódio etc)
- Regras ditadas pelas plataformas, impondo tendências e regrando o trabalho de produção de conteúdo, como informações picadas e tempo curto.
- Conteúdos não pagos não reverberam. Ficam refém de dar dinheiros para essas plataformas - Christian Abreu 21/06/2023 às 09:11Não existe "desinformação"; "extremismo"; "discurso de ódio". São expressões utilizadas de forma ideológica e deturpada. Qualquer "infodemia", seja lá qual for o significado disso, se parece com o cerceamento da liberdade de expressão com objetivo de calar um grupo de indivíduos que deveriam ter direito a expressar suas ideias. Quem utiliza essas expressões geralmente promove o verdadeiro ódio.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 14:29Esta é uma discussão política que não deveria estar atrelada às plataformas. Qualquer das tipificações criminais elencadas devem estar abarcadas pelo código de processo civil, e o infrator deve responder por isso, não há que traçar um paralelo e atribuir às redes sociais ou plataformas.
- Jose Vieira 19/06/2023 às 14:23Toda informação, opinião etc. Tem no mínimo 2 pontos de vista. Devemos estar atentos e garantir a liberdade de expressão e opinião, mesmo que discordemos delas.
Quando alguém faz apologia a crimes ou os incentiva, devem responder civilmente (pessoalmente) a seus atos, mas não é possível descrever uma regra única.
Para um falar de aborto é discurso de ódio, para outro não falar é preconceito. Então nunca haverá concenso. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:28[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Este é também um tema chave a ser abordado numa regulação de plataformas. Plataformas digitais assumiram enorme poder e influência sobre os processos eleitorais, uma vez que parcelas crescentes de eleitores se informam e formam sua opinião por meio desses agentes. Essa ascendência vai para além das eleições e envolve também a participação política com um todo, uma vez que estes são espaços centrais de circulação de informação. Os riscos associados a processos eleitorais e políticos também se relacionam como a privatização crescente do debate público, especialmente quando diversas plataformas constroem modelos de condicionamento econômico da visibilidade. Assim, reproduzem em uma nova escala ampliada modelos excludentes de discussão pública, favorecendo quem detém mais poder econômico.
Em um contexto de tentativas de golpe de Estado articuladas e divulgadas por meio de plataformas digitais, as respostas regulatórias devem considerar a seriedade do papel desses agentes para ameaças concretas ao sistema democrático e à ordem jurídica e política erigida pela Constituição Federal. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:16(Contribuição da Coalizão Direitos na Rede)
É importante haver regras legais para limitar o poder das plataformas digitais e empoderar a sociedade. É o caso das obrigações do chamado devido processo, como exigências de notificação do usuário quando da moderação de conteúdo e de mecanismos de recurso. Precisamos conhecer mais como funcionam espaços que se tornaram extremamente relevantes para o debate público e para envolver a sociedade na busca para que eles sejam sadios, por isso deve haver mecanismos para denúncias de conteúdos criminosos e acesso a informações. Também deve haver regras para agentes públicos, para serviços de mensageria e para a publicidade digital, a fim de garantir que o interesse público seja respeitado no ambiente digital. - Filipe Saraiva 16/07/2023 às 22:18Alto grau de risco associado a estes casos.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:02Riscos associados a ameaças a processos eleitorais e inibição de mecanismos de participação política e de engajamento cívico merecem tratamento específico na regulação das plataformas digitais. Considerando a existência da Justiça Eleitoral e do TSE como órgão organizador e competente para organização das eleições e aplicação das regras, é preciso que exista profunda convergência regulatória entre os órgãos reguladores, além da harmonização legislativa.
Dito isso, é preciso considerar que tais riscos são específicos e, por esse motivo, devem ser abordados de forma específica, considerando objetivos próprios. Direito políticos de participação efetiva, de acesso à informação e de expressão, são basilares em períodos democráticos, e alvos sensíveis de conjunturas tensas. Assim, merecem regras ainda mais robustas do que as existentes em per;iodos não eleitorais. Dentre elas, podemos destacar: (i) regras robustas de transparência com publicidade eleitoral nas redes: plataformas devem ser regidas por parâmetros básicos de transparência quanto ao gasto público, uso de dados pessoais para recomendações, biblioteca de anúncios, disponibilização de mecanismos para prestação de contas, transparência da publicidade em si, remoção ágil de publicidade irregular, dente outros; (ii) regras quanto às obrigações de proteção da integridade eleitoral, que diz respeito à proteção de grupos vulneráveis, conteúdos violentos direcionados à candidatas e candidatos, operações de influência para a quebra institucional democrática, insurreições, manifestações violentas, dentre outros. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:37Resposta CTS: Concordamos que há risco de manipulação de informações para afetar processos eleitorais e inibir a participação política. Exemplos incluem a disseminação de desinformação para descreditar candidatos ou campanhas, a utilização de bots e contas falsas para inflar artificialmente o apoio a determinadas posições ou candidatos, além de desinformação generificada (Curzi, 2021) como uma forma de violência política de gênero, i.e., de produzir ataques a candidaturas femininas e de pessoas trans e não-binárias. Medidas de mitigação podem incluir a imposição de transparência significativa sobre a origem e financiamento da propaganda política, além de transparência sobre os sistemas de recomendação das plataformas.
Referências:
CURZI, Yasmin. Disinformation (Gendered). in.: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin. Glossary of platform law and policy terms. 2021, p. 147. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:42As eleições de 2018 e 2022 demonstraram como as plataformas digitais são utilizadas para propagar notícias falsas ou descontextualizadas. Inclusive, diante do risco democrático enfrentado na última eleição, o TSE realizou diversos acordos de cooperação [1] e publicou uma resolução para enfrentamento à desinformação que atinja a integridade do processo eleitoral [2].
"A resolução aprovada por unanimidade pelo Tribunal Superior Eleitoral na última quinta-feira (20), ainda que possa ser aperfeiçoada, enfrenta o problema ao estabelecer normas que permitam a concretização dos princípios constitucionais e a preservação das regras estabelecidas na legislação eleitoral. Eventuais equívocos em sua implementação podem ser corrigidos. O que o TSE não poderia é ter se mantido omisso face à atual onda deliberada de desinformação voltada a degradar o processo democrático." [3]
O contexto político merece especial atenção, sendo fundamental que as plataformas digitais sejam submetidas à regulação visando o fortalecimento do processo eleitoral.
Nesse sentido, recomenda-se o trabalho da Coalizão Direitos na Rede:
"Ao ignorarem e se omitirem diante da massiva distribuição de conteúdos que atacam o sistema eleitoral e incitam a violência, tais empresas estão funcionando como trampolim para ações antidemocráticas, inclusive obtendo lucro financeiro com esse tipo de conteúdo. Cabe a elas, agora, adotar medidas efetivas, cumprir determinações judiciais e prestar contas das ações empregadas e seus resultados. Esta transparência é essencial para que a sociedade e autoridades identifiquem o que está sendo feito neste momento perigoso de levante contra a ordem democrática.
A situação pós-eleitoral no Brasil de mobilizações que contestam de forma absolutamente infundada o resultado eleitoral não tem paralelo em nossa história recente, ainda que haja esforços relevantes das instituições brasileiras para contê-las. [...]"
Neste momento chave, as plataformas devem assumir sua responsabilidade de garantir um ambiente informacional em que prevaleçam os princípios democráticos, e agir para que não sigam sendo utilizadas como promotoras de ações de sublevação contra a democracia brasileira." [4]
[1] Instituto Brasileiro de Defesa do Consumidor adere ao programa do TSE de combate à desinformação. Disponível em: Acesso em: 12 jun. 2023
[2] TSE aprova resolução para dar mais efetividade ao combate à desinformação no processo eleitoral. Disponível em: Acesso em: 12 jun. 2023.
[3] CDR. Proteger a democracia brasileira exige combate assertivo à desinformação
. 25 out. 2022. https://direitosnarede.org.br/2022/10/25/proteger-a-democracia-brasileira-exige-combate-assertivo-a-desinformacao/.
[4] CDR. Carta aberta: Plataformas digitais não podem ser trampolim para levantes contra a ordem democrática - João Coelho 15/07/2023 às 15:32A função das plataformas para impulsionar a participação política e engajamento cívico de crianças e adolescentes:
“16. As crianças relataram que o ambiente digital lhes proporcionou oportunidades cruciais para que suas vozes fossem ouvidas em assuntos que as afetaram. O uso das tecnologias digitais pode ajudar a realizar a participação das crianças em nível local, nacional e internacional.”
Fonte: Item 16 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 61 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Respeito pela opinião da criança e do adolescente:
A criança e o adolescente têm o direito de exprimir livremente a sua opinião sobre questões que lhe digam respeito e de ver essa opinião tomada em consideração, inclusive sobre sua participação no ambiente virtual. O direito de todos à livre manifestação do pensamento é fundamental e assegurado pela Constituição Federal, que, ainda, impõe à família, à sociedade e ao Estado o dever de assegurar o direito de crianças e adolescentes à liberdade. De acordo com o ECA, o direito à liberdade inclui a opinião e a expressão. Nesse sentido é fundamental que pesquisas e políticas públicas sejam centradas no protagonismo e respeito à opinião da criança ou adolescente.
Referência legal: arts. 5º, incisos IV e IX, 220 e 227 da CF/88; art. 15 e 16 do ECA; art. 2º da CRC; Comentário Geral n. 12 (2009): The right of the child to be heard e Comentário Geral n. 14 (2013): The right of the child to have his or her best interests taken as a primary consideration.
Para ver mais: LIVINGSTONE, Sonia. Children’s data and privacy online: Growing up in a digital age; CETIC.BR Dinâmicas de gênero no uso das tecnologias digitais.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 62 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos ao Direito de Participação Efetiva de Crianças e Adolescentes:
A participação, juntamente com a prevenção, a proteção e a promoção de direitos, forma a base na qual se assenta a Convenção dos Direitos da Criança (Decreto 9.610/90) que desde 1989 garante o direito de toda criança manifestar-se livremente em relação a tudo que lhe diga respeito e de ter sua opinião considerada, em todos os níveis (art. 12, CDC). O direito à participação encontra-se expressamente previsto no artigo 16, II, V e VI do ECA, e ainda é garantido através de dispositivos como o art. 28 p2, 53, 100 XII e 101 p5 do ECA. O marco legal da Primeira Infância garante a participação da criança “de acordo com a especificidade de sua idade, devendo ser realizada por profissionais qualificados em processos de escuta adequados às diferentes formas de expressão infantil.” (art. 4º, II e PU.)
Fonte do Trecho: Comentário Geral N. 25 na Prática, p. 64 - https://criancaeconsumo.org.br/wp-content/uploads/2023/06/Comentario-Geral-no-25-na-Pratica-Orientacoes-para-a-Defesa-das-Criancas-e-dos-Adolescentes-no-Ambiente-Digital.pdf - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:18São riscos potencialmente ameaçadores para instituições brasileiras e a democracia. Um exemplo é o caso do Brexit, em que noticias contra a migração de estrangeiros para os territórios do Reino Unido foram amplamente divulgadas e compartilhadas com determinados tipos de usuários (a partir de classificação de personalidades e análise de perfil), a eleição de Donald Trump nos Estados Unidos (com atividade massiva de empresas privadas de publicidade e coletas de dados de usuários) e o compartilhamento de noticias falsas através de aplicativos de mensagens instantâneas durante as eleições de 2018 no Brasil, influenciando diretamente no resultado eleitoral.
- CGEE/UNB (comentário inserido por: Jean Campos) 14/07/2023 às 13:35Medidas de mitigação: a participação social e a responsabilidade das plataformas de informar as pessoas candidatas sobre regras específicas no período eleitoral, de forma clara e facilmente acessível.
Implementação: realização de oficinas nos moldes da EGI, com diversos atores do ecossistema eleitoral para a elaboração de resoluções para as eleições; elaboração de documentos similares aos termos de uso da plataforma adaptados para o período eleitoral; responsabilização das plataformas pelo impulsionamento de conteúdos nocivos durante as campanhas eleitorais; e também, a aplicação da Lei 13.188/2015 (Lei do Direito de Resposta) para as plataformas digitais, cobrando veiculação de direito de resposta proporcional ao agravo nas hipóteses: I- impulsionamento e II - engajamento orgânico de conteúdo desinformacional, discurso de ódio, incitação ao ódio, etc. - Alex Camacho Castilho 12/07/2023 às 14:44As plataformas digitais desempenham um papel significativo nos processos eleitorais e na participação política. No entanto, elas também podem ser exploradas para manipular a opinião pública, interferir em eleições e inibir a participação política. A regulação deve abordar esses riscos, promovendo a transparência nas campanhas políticas, combatendo a disseminação de desinformação eleitoral, garantindo a igualdade de acesso às plataformas para candidatos e partidos políticos, e incentivando o engajamento cívico dos usuários.
- Irineu Barreto 12/07/2023 às 10:34Importante considerar que as Fake News inauguram uma nova era de manipulação política em decorrência das funcionalidades desenvolvidas pelas Tecnologias de Comunicação e Informação, da hiperconectividade deflagrada com a invenção dos smartphones e dos novos padrões de sociabilidade propiciados pela Internet.
Dessa forma, as táticas de desinformação, na realidade, devem ser compreendidas como sofisticadas estratégias de comunicação política e eleitoral – indissociáveis do contexto das décadas recentes pautado pela disseminação da Internet, redes sociais, aplicações de mensagens e plataformas de vídeos – táticas pautadas na disseminação de notícias deliberadamente falsas, distorcidas, fraudulentas, mistificadoras da realidade e possuidoras de enorme potencial para poluir o ambiente democrático. - IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 17:24Especificamente sobre propaganda eleitoral online, já há regulações específicas sobre seu conteúdo, quando e como são autorizadas, o formato que devem ter e detalhes adicionais, entre outras restrições e orientações. Novas regulações a respeito apenas trariam insegurança jurídica, ainda mais quando se recorda que o Tribunal Superior Eleitoral adota normativas específicas para cada eleição.
- Christian Abreu 21/06/2023 às 09:18Não há "ameaça a processos eleitorais" quando se trata do que ocorreu nas últimas eleições presidenciais. Foi uma farça promovida pelo órgão responsável que se mostrou escancaradamente parcial a favor de um dos candidatos. A verdadeira "ameaça a processos eleitorais" e "inibição de mecanismos de participação política e de engajamento cívico" foi promovido pelo que deveria ser a justiça, inclusive nas plataformas digitais.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 14:32Este é um contexto temporal, os ânimos exacerbados o trouxeram à tona. Em uma democracia temos a liberdade de concordar e discordar, caso contrário estaríamos em uma ditadura. Alguém é a favor do aborto, outros não. Alguém é cristão, outro não, desta forma, despolarizar opiniões ou cercear o direito das pessoas em ser opostas não é atribuição que deva ser trazida para uma discussão de plataformas sociais.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:29[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A falta de transparência é um problema extremamente relevante e cria uma assimetria de poder entre as plataformas digitais e seus usuários. A falta de clareza sobre o funcionamento desses agentes cria obstáculos aos usuários para atuar livremente e exercer seu direito à comunicação nestes espaços.
Mas este risco não se limita à falta de transparência sobre os aspectos mencionados na pergunta, mas à própria lógica das plataformas de coleta massiva de dados para construção de perfis e ofertas de conteúdos e serviços direcionados. Neste sentido, este risco deve ser ampliado para além do problema da falta de transparência, mas para os impactos do modelo em si. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:18(Contribuição da Coalizão Direitos na Rede)
Uma resposta adequada aos problemas hoje associados ao ambiente digital e que ameaçam democracias em todo o mundo deve evitar respostas aparentemente fáceis, como a determinação de ações de moderação de conteúdos para plataformas unicamente, os quais podem gerar intervenções desproporcionais e incorretas, com riscos de cerceamento indevido de liberdade de expressão e de ampliação do poder de agentes privados sobre o que circula e chega ao público. O combate a práticas nocivas, portanto, não pode justificar a adoção de mecanismos vigilantistas.
É importante haver regras legais para limitar o poder das plataformas digitais e empoderar a sociedade. É o caso das obrigações de transparência, atenção aos termos de uso e outras políticas das plataformas, bem como das regras do chamado devido processo (como exigências de notificação do usuário quando da moderação de conteúdo e de mecanismos de recurso). Precisamos conhecer mais como funcionam espaços que se tornaram extremamente relevantes para o debate público e para envolver a sociedade na busca para que eles sejam sadios, por isso deve haver mecanismos para denúncias de conteúdos criminosos e acesso a informações. Também deve haver regras para agentes públicos, para serviços de mensageria e para a publicidade digital, a fim de garantir que o interesse público seja respeitado no ambiente digital. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:37A medição independente é um mecanismo que pode ajudar a lidar com alguns dos riscos mencionados acima. Ela serve como uma função de transparência para anunciantes e produtores de conteúdo. A transparência obtida por meio de medições independentes pode fornecer ao governo e às empresas locais a clareza de um observador neutro sobre o alcance e a frequência do marketing e das entregas de conteúdo.
- Filipe Saraiva 16/07/2023 às 22:18Alto grau de risco associado a estes casos.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:16Uma regulação de plataformas deve ter como espinha dorsal as obrigações de transparência sobre as plataformas. Tais obrigações podem ser consideradas sob ângulos distintos, dois merecem destaque: a transparência geral, como forma de prestação de contas ampla e de acesso a todos e a transparência individual, que a plataforma deve aos usuários, em especial nas situações de moderação de conteúdo.
A falta de transparência nesses dois âmbitos acarreta um descompaso estrutural na utilização dos serviços, servindo de base para os riscos mencionados nesse tópico. Ou seja, a falta de transprência é base para a disseminação de desinformação, o aumento de discusos de ódio, etc. A regulação, portanto, deve ter como objetivo a mudança estrutural dos serviços, e isso só será feito quando a sociedade tiver plena compreensão de seus funcionamentos. Essas obrigações se mostram essenciais na construção de um ambiente digital mais saudável, seguro e previsível - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:38As plataformas digitais têm o dever de serem transparentes sobre dois aspectos principais: 1) a moderação de conteúdo e 2) o uso de dados pessoais para recomendar conteúdo.
Em relação ao primeiro ponto, a moderação inadequada de conteúdo pode gerar dois problemas principais: remoção excessiva de conteúdo lícito e falta de remoção de conteúdo ilícito. Um exemplo dessa inadequação é a taxa de erro quase de 70% em relação ao conteúdo moderado em árabe pela Meta. Além disso, a falta de informações disponíveis sobre o número de moderadores dedicados ao conteúdo em português e o nível de investimento das empresas na moderação desse conteúdo nos deixa sem uma compreensão clara da eficácia dos esforços de moderação. A recusa em fornecer acesso a tais dados para a imprensa também suscita preocupações. Para garantir que acordos firmados com a justiça eleitoral sejam efetivamente cumpridos, é crucial que haja transparência significativa e regulamentação nesta área.
Quanto à recomendação algorítmica, a autodeterminação informativa pressupõe o controle dos indivíduos sobre seus próprios dados. Este princípio não se limita meramente à compreensão de porque um anúncio específico é exibido ao usuário. Precisamos conceber uma abordagem mais holística para a autodeterminação informativa, que garanta um controle efetivo e consciente dos indivíduos sobre seus dados. Isso requer uma reflexão mais aprofundada sobre a regulação das tecnologias de recomendação algorítmica. Ademais, é essencial reconhecer que a internet e a comunicação pública, em sua essência, devem estar alinhadas aos valores democráticos. A transparência na operação desses sistemas, então, torna-se crucial não apenas para a autonomia individual, mas também para a saúde da nossa democracia.
- José Antonio Galhardo 16/07/2023 às 10:55Não ficou claro se a limitação “sobre temas de interesse público” está se referindo só à publicidade ou a tudo. Uma publicidade direcionada feita sobre um tema de interesse privado, por exemplo ganhar dinheiro com um investimento, não vai utilizar as estratégias de propagação que vão monetizar o negócio da plataforma? Me parece que a limitação do tema é irrelevante.
- João Coelho 15/07/2023 às 15:37Riscos atrelados ao direcionamento de conteúdos: microssegmentação publicitária e publicidade comportamental para crianças e adolescentes:
Refere-se, aqui, às técnicas de microssegmentação publicitária: a partir da construção de perfis psicológicos dos usuários valendo-se da coleta de seus dados pessoais, as empresas passam a direcionar anúncios publicitários pensados especificamente para aquele perfil, visando a impelir o usuário ao consumo de maneira mais eficaz. A publicidade direcionada a partir desses mecanismos é chamada de publicidade comportamental, justamente por se assentar nesses perfis psicológicos dos usuários. Por explorar de maneira particularmente acentuada as vulnerabilidades e privacidade dos seus destinatários, esse tipo de publicidade deve ser considerada ilícita quando dirigida a crianças e adolescentes. Ademais, a primeira infância deve ser livre da “pressão consumista” (Lei 13.257/16. art. 5º).
Referência legal: art. 36, 37, §2º e 39, IV do CDC, art. 227 da CF, art. 5º do ECA, art. 5º do Marco Legal da Primeira Infância, Resolução n° 163/2014 do Conanda e art. 14, caput da LGPD
Fonte: LIEVENS, Eva et al. O direito da criança à proteção contra a exploração econômica no mundo digital
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 104 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos relacionados à exploração comercial de crianças e adolescentes com técnicas comportamentais e de nudge
O tratamento de dados por empresas muitas vezes é utilizado para que sejam aplicadas técnicas de “nudge”, ou seja, técnicas de design persuasivo que intervêm no ambiente onde o indivíduo está inserido para conduzir o seu subconsciente a se comportar de determinada maneira - em se tratando de sua utilização para exploração comercial, para que venha adquirir determinado produto, por exemplo. As crianças, mais do que os adultos, são extremamente suscetíveis a essas técnicas, que podem impactar negativamente o seu desenvolvimento. Fonte: 5Rights Foundation. Disrupted Childhood - the cost of persuasive design.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 104 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos relacionados com o impulsionamento de publicidade de conteúdos prejudiciais para crianças e adolescentes:
É necessário destacar que a internet facilita que a publicidade de produtos particularmente prejudiciais à saúde e desenvolvimento de crianças e adolescentes chegue até eles. Nesse sentido, pesquisa realizada pela organização Reset Australia demonstrou ser possível, em abril de 2021, direcionar anúncios de fumígenos e bebidas alcoólicas a esse público em rede social por ele amplamente acessada.
Para ver mais: Reset Australia. Profiling Children for Advertising: Facebook’s Monetisation of Young People’s Personal Data
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 105 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos relacionados ao contato com publicidade de produtos nocivos à saúde de crianças e adolescentes, veiculadas por influenciadores digitais:
A publicidade de cigarros, charutos e quaisquer outros produtos fumígenos já é proibida por lei em todo território nacional. Tem gerado preocupação, entretanto, o contato de crianças e adolescentes na internet com estímulos ao consumo, sobretudo veiculados por influenciadores digitais, e pontos de venda desses produtos, em especial os cigarros eletrônicos. Esses dispositivos, bastante populares entre os jovens – e cuja comercialização, importação e publicidade no Brasil foram proibidas pela Anvisa – geram também efeitos nefastos à saúde, além de serem um fator de risco para o consumo de cigarros tradicionais na vida adulta.
Referência legal: art. 3º da Lei n° 9294/96; RDC 46/2009 da Anvisa Fonte: Aliança de Controle do Tabagismo. Dispositivos Eletrônicos para Fumar Para ver mais: O Joio e o Trigo. Influenciadores se espalham pelas redes e promovem venda ilegal de ‘cigarro eletrônico’
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 209 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos relacionados ao “mascaramento” de publicidade na Internet:
Conforme destacado pela European Commission em relatório publicado em 2018, uma das características da publicidade veiculada nas redes sociais é uma maior tendência à não identificação e confusão com outros conteúdos encontrados na Internet. No que tange aos conteúdos direcionados a crianças e adolescentes, essa tendência se verifica em muitos dos vídeos produzidos pelos influenciadores digitais mirins, os quais comumente contêm publicidade mascarada, bem como em peças publicitárias veiculadas por empresas no formato de trends, para serem reproduzidas por outros usuários. A publicidade, quando mascarada e dirigida ao público infantil, reveste-se de camada adicional de abusividade: não apenas ela se direciona a indivíduos que não são capazes de compreender por completo o seu real intuito persuasivo, como ainda os priva da possibilidade de paulatinamente desenvolver uma melhor compreensão acerca dela, suas intenções e seus contornos, por não se apresentar como tal.
Fonte: EUROPEAN COMMISSION. Behavioral study on advertising and marketing practices on social media. 2018. Disponível em:
Riscos associados à publicidade em ambientes de realidade aumentada e imersiva para crianças:
Conforme relata Shoshana Zuboff, em jogo de realidade aumentada lançado em 2016, para além da possibilidade de aquisição de produtos dentro do aplicativo, implantou-se nele modelo de “locais patrocinados”, ou seja, estabelecimentos comerciais que pagavam à empresa desenvolvedora para se tornarem tabuleiros dentro do jogo, estimulando, com isso, a sua visita por crianças.
Fonte: ZUBOFF. Shoshana. A Era do Capitalismo de Vigilância, 1ª Ed., Rio de Janeiro, Intrínseca, 2020, p. 361 - 362
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 110 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - João Coelho 15/07/2023 às 15:35Classificação OCDE - Riscos de Consumo para Crianças e Adolescentes:
Os riscos de consumo foram ampliados pela OCDE (...) em razão do fato de o ambiente digital estar mais altamente comercializado e caracterizado pela hiperconectividade e pela datificação. Foram separados em riscos de marketing, riscos de perfis comerciais, riscos financeiros e riscos de segurança.
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques. p. 118 Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf
Os riscos de um modelo comercial desenhado para incentivar uma cultura de consumo infantojuvenil (CG25):
40. O ambiente digital inclui empresas que dependem financeiramente do processamento de dados pessoais para direcionar conteúdos geradores de receita ou pagos, e esses processos afetam intencionalmente e não intencionalmente as experiências digitais das crianças. Muitos desses processos envolvem múltiplos parceiros comerciais, criando uma cadeia de fornecimento de atividades comerciais e o processamento de dados pessoais que podem resultar em violações ou abusos dos direitos das crianças, inclusive através de recursos de design publicitário que antecipam e orientam as ações de uma criança para conteúdos mais extremos, notificações automatizadas que podem interromper o sono ou o uso de informações pessoais ou localização de uma criança para direcionar conteúdo potencialmente prejudicial com finalidade comercial.
Fonte: Item 40 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 103 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
O direcionamento de publicidade a crianças tem o condão de incutir nesses indivíduos uma cultura de consumo exacerbado que pode gerar diversos prejuízos a seu desenvolvimento, saúde, brincar livre e construção de valores. Ainda, a publicidade infantil dirige-se a pessoas que, em razão de seu peculiar estágio de desenvolvimento, não reúnem condições de responder a seus estímulos com um mínimo de isonomia. Por essas razões, a prática é considerada abusiva e ilícita no Brasil, conforme se extrai dos arts. 36, 37, §2º e 39, IV do Código de Defesa do Consumidor, Resolução n° 163 do Conanda, art. 5º do Marco Legal da Primeira Infância e outros dispositivos legais. Ainda assim, o modelo de negócios das grandes plataformas digitais favorece a exposição de crianças à publicidade, a qual, no contexto da Internet, reveste-se de características particularmente abusivas e desafiadoras, conforme reconhecido pelo Comentário Geral n° 25. - Comunidade Praxis (Helena Mendonça, João Pires, Marcia Padilha e Michel Metzger) (comentário inserido por: Helena Andrade Mendonca) 15/07/2023 às 08:32Risco de adoção de padrões obscuros (dark patterns) que não explicitam as consequências de ações dos usuários, como propagandas com design similar ao conteúdo, pop ups, scrolling infinito (incentivo ao vício) bem como outros padrões adotados por redes sociais. Além disso o uso de plataformas de terceiros que fazem perfilização com os dados dos estudantes e professores.
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:19Sim. A transparência quanto à monetização de sites que veiculam conteúdos capazes de afetar o interesse público se faz imprescindível à luz de recentes eventos, como, por exemplo, a pandemia causada pelo vírus da COVID-19. Durante a pandemia de COVID-19, notícias contra o uso de vacinas foram amplamente divulgadas em sites na Internet, financiados por empresas de publicidade que monetizam tais sites, colocando em risco a saúde pública. A existência de mecanismos que bloqueiam a monetização desses sites é de extrema importância.
- Alex Camacho Castilho 12/07/2023 às 14:44A falta de transparência nas práticas relacionadas ao uso de dados pessoais, moderação de conteúdo e publicidade direcionada pode comprometer a privacidade dos usuários e afetar temas de interesse público, como debates políticos e sociais. A regulação deve estabelecer requisitos claros de transparência, garantindo que os usuários tenham conhecimento sobre como seus dados são coletados, usados e compartilhados, assim como os critérios e processos de moderação de conteúdo. Além disso, é importante promover a transparência na publicidade política e no direcionamento de anúncios para evitar manipulações e garantir a equidade no acesso às informações.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 17:26Transparência no tratamento de dados pessoais é um dos principais pilares da legislação específica – tanto a LGPD, quanto das normas eleitorais. A aplicação das leis vigentes já é suficiente para mitigar esses riscos.
Vale também observar que cada plataforma já conta com regras sobre conteúdo será ou não desmonetizado, essa decisão deve ser tomada pela plataforma de acordo com suas diretrizes ou Termos de Uso. Estas regras beneficiam todo o ecossistema de publicidade online, tendo em vista o interesse de anunciantes em não ter seus produtos, serviços e marcas associados a conteúdos nocivos e/ou ilegais. - Rede Narrativas (comentário inserido por: ROBERTA TASSELLI) 22/06/2023 às 15:53[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
- Qual o critério do que cai e do que não cai?
Modelos de conteúdos emburrecem. Dificuldade de entender ironias, por exemplo;
Plataformização da vida: consome tempo das pessoas para nada. - Rede Narrativas (comentário inserido por: ROBERTA TASSELLI) 22/06/2023 às 15:50[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
Riscos relacionados à moderação de conteúdo: se eximem das responsabilidades de entregar conteúdos de ódio;
Riscos relacionados a problemas nos termos de uso:
- Nos pronunciamentos de representantes das plataformas, percebemos que as empresas colocam os termos de uso acima de qualquer legislação;
- Em seus termos não pode conteúdos que cometam discurso de ódio, mas não se sabe qual a regra deles. Quando denunciamos conteúdo que ferem direitos humanos muitas vezes não são derrubados;
- Termos amplos e pouco direcionados.
Mecanismos de denúncias são escondidos:
- Dificuldades de denúncias e reclamações da plataforma (ex: roubo de perfil). - Rede Narrativas (comentário inserido por: ROBERTA TASSELLI) 22/06/2023 às 15:46[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
Riscos relacionados à falta de transparência de como operam o algoritmo:
- O que define a entrega de um conteúdo x/y para determinados grupos/pessoas?
- Alguns conteúdos e pessoas são mais perseguidos - ex: feministas, anticapitalistas -, como pesquisas e denúncias apontam;
- O alcance de conteúdo tem conexão também com o perfil/pessoa, não só com o conteúdo em si (ex: chavoso da USP)
- Critérios obscuros e permanências de opressão. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:29[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A concentração da publicidade e a operação das plataformas como gatekeepers constroem limites à produção jornalística e aos meios alternativos e comunitários de comunicação, que devem ser objeto de políticas com vistas à democratização das verbas e à diversificação de formas de circulação de conteúdos. Nesse processo, deve-se atentar para o respeito e a valorização dos profissionais, evitando que as medidas beneficiem exclusivamente as empresas midiáticas. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:19(Contribuição da Coalizão Direitos na Rede)
Todas as empresas jornalísticas deveriam ser remuneradas pelas plataformas em razão da exploração econômica de conteúdos jornalísticos. Mas isso vale para TODAS as empresas, e não apenas grupos específicos.
O tema é muito importante e traz dúvidas e críticas. Por isso, é crucial definir em lei os detalhes de um eventual modelo de remuneração sobre o tema, sem permitir que apenas os grandes veículos de comunicação sejam remunerados, concentrando a receita. Para evitar esse problema, é imprescindível que a regulamentação seja feita de forma participativa e aberta e contemple veículos menores, públicos, independentes, bem como os profissionais de comunicação envolvidos na produção dessas notícias. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:38Os modelos de negócio das plataformas digitais podem influenciar negativamente o jornalismo de várias maneiras. Primeiro, eles podem incentivar a produção de conteúdos de baixa qualidade, uma vez que esses conteúdos frequentemente geram mais engajamento do que reportagens mais aprofundadas.
Além disso, a recomendação algorítmica muitas vezes favorece conteúdo inflamatório (Brady et al. 2021), que atrai cliques e compartilhamentos, mas pode distorcer a verdade e radicalizar o público. Estes ambientes são propícios à amplificação de práticas negativas do jornalismo, como o uso de manchetes sensacionalistas ("clickbait") e notícias projetadas para gerar indignação imediata, ao invés de informar de maneira objetiva e equilibrada.
Para mitigar esses riscos, é essencial que se estabeleçam regulamentações que promovam a transparência e a responsabilidade das plataformas digitais. Além disso, é necessário incentivar práticas de jornalismo ético e de alta qualidade, possivelmente através de financiamento público. Também é preciso investir em educação midiática para ajudar o público a discernir notícias confiáveis de desinformação. - Associação de Jornalismo Digital - Ajor (comentário inserido por: Carla Egydio) 16/07/2023 às 15:45O combate à disseminação de fake news perpassa o fortalecimento do jornalismo, importante mecanismo de garantia do acesso à informação aos cidadãos. No entanto, a sustentabilidade financeira das iniciativas jornalísticas digitais tem esbarrado na transferência da receita publicitária às plataformas digitais. Dada a importância do jornalismo para o fortalecimento da democracia, é importante que a regulamentação das plataformas considere formas de mitigação dos impactos deste setor no jornalismo.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:41Os modelos de negócio das plataformas podem causar impactos negativos para a atividade de jornalismo, mas esses riscos não necessariamente merecem ser tratados conjuntamente com outros quando eles são exclusivamente econômicos.
Assim, quando tratamos exclusivamente do problema da remuneração da atividade de jornalistas pela difusão de seu conteúdo pela plataforma, esse tópico deve ser analisado em conjunto com outros relacionados ao direito autoral em plataformas digitais, e não em conjunto com regulação voltada a mitigação de riscos sistêmicos, como àqueles relacionados às infodemias.
Devemos ser cuidadosos, pois a confluência de muitos tópicos e problemas diferentes em uma mesma regulação pode criar maiores custos políticos para sua aprovação e reduzir sua qualidade. - Rodolfo Salema 16/07/2023 às 10:17Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Os Websites, incluindo as páginas dos veículos jornalísticos, simplesmente não existem para uma vasta gama de usuários da internet se não estiverem indexados por ferramentas de busca; e no caso do maior provedor desse serviço, não há qualquer competidor a ameaçar a sua posição de dominância, daí pelo que se falar em um gatekeeper ou em um ‘dono das chaves’ para um canal fundamental de distribuição de conteúdo veiculado em páginas de internet.
Nesse contexto, o relacionamento entre os veículos jornalísticos e as plataformas – mais especificamente aquelas voltadas à pesquisa de páginas de internet – se dá em bases absolutamente desiguais. De um lado, não é viável para os veículos deixar de estender às grandes plataformas acesso ao conteúdo publicado em seus sites, para que seja então listado em resultados de busca e possa ser acessado a partir dos links exibidos. De outro, a plataforma não possui qualquer incentivo econômico para remunerar adequadamente os veículos pelo uso que faz do conteúdo jornalístico, posto que já tem certo para si que tal conteúdo continuará a ser-lhe fornecido, por força de um incontestado poder de barganha, resultante de sua dominância no mercado em que sua plataforma se insere.
Especificamente no caso dos veículos jornalísticos, a plataforma dominante não se limita a simplesmente indicar links para sites de interesse em sua ferramenta de busca, mas traz parte das notícias (ou snippets, do inglês “fragmento”) diretamente no corpo da página por meio da qual exibe resultados à busca formulada pelo usuário. O conteúdo jornalístico tem, portanto, um uso diferenciado pelo provedor da plataforma, que dele extrai uma nova utilidade, qual seja, a de insumo para a montagem de um painel para visualização de trechos de matérias publicadas pelos principais veículos – que muitas vezes pode fazer, inclusive, com que o usuário dispense o clique no link para os sites dos veículos, gerando absoluto prejuízo.
A despeito disto, as plataformas digitais, tirando proveito da dominância que exercem sobre os canais de distribuição de conteúdo na internet e da já mencionada ausência de alternativa para os veículos, simplesmente não pagam justa remuneração pelo uso que fazem do conteúdo jornalístico. Quando não há uma recusa completa em negociar por parte das plataformas, o que se experimentam são negociações baseadas em critérios obscuros, no modelo “pegar ou largar”, em que o elevado poder de barganha das plataformas continua a imperar.
Não se pode deixar de lembrar que, em muitos casos, as negociações existentes só foram iniciadas após o início de investigações de grande repercussão como na Alemanha, Austrália e também no Brasil, em que o CADE investiga, desde julho de 2019 , as práticas ora descritas. Nessa esteira, o Google anunciou, em 30 de setembro de 2020, a criação do Showcase (ou Google Destaques), espaço no qual conteúdo jornalístico é divulgado mediante remuneração. No entanto, o que se vê, mais uma vez, são pretensas negociações, marcadas pelo excessivo poder de barganha detido pela plataforma e que resultam em acordos apenas com aqueles (i) que foram efetivamente procurados pelo Google (tendo outros veículos, assim, sido deixados de fora nessas negociações) e (ii) que aceitam se sujeitar aos termos e condições impostos, em detrimento de uma negociação justa, equilibrada e de um tratamento amplo e isonômico dos veículos jornalísticos.
De mais a mais, resta patente a necessidade de intervenção para reestabelecer um nivelamento mínimo nas relações entre plataformas e os veículos jornalísticos, o que, de nenhuma forma, implica ir contra a livre iniciativa, a liberdade econômica ou qualquer princípio consagrado no Marco Civil da Internet, como tem sido alardeado por representantes das ditas plataformas. Muito pelo contrário, a ordem econômica é, sim, fundada na livre iniciativa (art. 170, caput da CFRB88), mas também na livre-concorrência (art. 170, IV), devendo o Estado intervir para corrigir comportamentos danosos que possam limitar a participação de empresas que, se não fosse por tais comportamentos, estariam em condições de atuar plenamente em determinado mercado.
Nos mesmos moldes, o Marco Civil da Internet tem por princípio a livre iniciativa e a livre concorrência. E mais do que isto: a finalidade social da rede, que passa a ser violada a partir do momento em que os veículos jornalísticos de democracias ao redor do planeta passam a ter de seguir os desígnios de plataformas privadas para poderem aproximar-se de sua audiência.
É especialmente interessante notar que a plataforma dominante no segmento de buscas na internet tem tentado convencer autoridades ao redor do mundo que não estaria prejudicando o jornalismo, mas, sim, incentivando a entrada de pequenos veículos no mercado, ao listar suas matérias no serviço “Showcase” e ao financiar start-ups jornalísticas. Evidente que tais iniciativas não têm por efeito neutralizar ou compensar de modo algum o abuso expropriatório perpetrado contra os demais veículos, que têm trecho de suas matérias divulgadas na plataforma, nem parece tolerável, do ponto de vista do interesse público, que fique a cargo de tal plataforma atuar, de um lado, como uma empresa dominante, que deixa de pagar justa remuneração pelos insumos tomados – no caso, as matérias jornalísticas – e, de outro, como agente de fomento dos veículos que bem entender, transformando o panorama do mercado de acordo com sua conveniência. Tal situação só denota o quão grave é o fenômeno que tem sido presenciado no setor do jornalismo.
Tal fenômeno não é só grave, mas também perverso, à medida em que a audiência não nota, de pronto, a saída de empresas do mercado, ou algum tipo de elevação de preços no acesso a conteúdo jornalísticos via internet. Os usuários das plataformas também não notam, dia após dia, o sufocamento que está em curso, mas o fato é que o jornalismo é cada vez mais dependente das plataformas e, diante da ausência de remuneração adequada, fica cada vez menos sustentável. São duas as alternativas prováveis: redução da capacidade de produção, de averiguação dos fatos e da qualidade das matérias publicadas; ou simples saída do mercado das empresas jornalísticas, que necessitam levar parte de suas matérias diretamente à audiência por meio das seções abertas de seus sites e,
infelizmente, não podem simplesmente adotar um novo modelo de negócio, totalmente independente das plataformas.
De sua parte, a “plataforma benfeitora”, que chega até mesmo a financiar startups jornalísticas, não sofre com entradas e saídas do mercado. Basta que tenha controle sobre a vasta maioria do estoque de conteúdo publicado nos sites dos veículos jornalísticos para que possa montar um panorama atualizado dos principais temas de interesse dos usuários da internet, alimentando assim sua ferramenta de busca.
A esse passo, acredita-se ter abordado, de forma resumida, os impactos negativos das atividades e modelos de negócio das plataformas sobre o jornalismo e que, diante do exposto, reste evidente a necessidade intervenção do Estado, de forma proporcional, progressiva, mas, sobretudo, efetiva, para sejam iniciadas negociações em condições menos desiguais, e que se possa chegar a remunerações adequadas, interrompendo o ciclo vicioso instalado.
Entendemos que regras de suporte à negociação entre plataformas e veículos pode ser acomodada no bojo da regulação de cunho econômico, relacionada a atuação de gatekeepers, em linha com o entendimento exposto na resposta à questão 01.
Por fim, convém destacar que vários outros riscos relacionados a impactos negativos das atividades e modelos de negócio das plataformas sobre o jornalismo foram identificados no estudo “Remuneração do Jornalismo pelas Plataformas Digitais, elaborado pela Câmara de Conteúdos e Bens Culturais, do CGI. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:20Sim. A desinformação e ausência de verificação de fontes confiáveis é um risco tanto para a saúde pública, como no exemplo mencionado no tópico anterior, quanto para a garantia da soberania de instituições democráticas, como no exemplo de fake news compartilhadas com o intuito de desestabilizar e influenciar processos eleitorais.
- Alex Camacho Castilho 12/07/2023 às 14:45As plataformas digitais têm impactado significativamente o setor jornalístico, afetando sua sustentabilidade financeira e a diversidade de vozes. A regulação deve buscar formas de promover o jornalismo de qualidade, garantindo a remuneração justa dos conteúdos jornalísticos e incentivando a colaboração entre plataformas e empresas jornalísticas. Isso ajudará a preservar a independência da imprensa e fortalecer a democracia.
- Alice de Perdigão Lana 07/07/2023 às 16:36Trocar "jornalismo" por "a cultura e a imprensa".
Justificativa - "cultura": o cenário cultural brasileiro pode ser homogeneizado pelo modelo de negócio das plataformas digitais. É preciso que o modelo de regulação de plataformas digitais pense em formas de incentivar a produção de bens culturais no brasil (como filmes e músicas) fora da lógica de algoritmos de recomendação. Isso pode garantir que a produção cultural brasileira continue diversa e livre.
Justificativa - "imprensa": a expansão do mercado publicitário, somada à migração de receitas existentes, às plataformas digitais têm potencial de gerar uma crise de sustentabilidade da atividade jornalística. Também é importante falar de remuneração de jornalistas, não só de jornalismo – mas não necessariamente de direitos autorais. Além disso, imprensa é mais amplo que jornalismo - envolve podcast, rádio… Não apenas imprensa escrita. - Antônio José Abrantes Chaves 20/06/2023 às 17:31Além de não coibirem a publicação, propagação (paga) e disseminação (paga ou orgânica) das fake news, várias plataformas atualmente oferecem serviços de clipping e outras formas de seleção de notícias, muitas vezes pagas, valendo-se de material produzido por jornalistas, sem a devida remuneração a seu(s) autor(es). Por outro lado, apenas repassar valores devidos representa um risco de concentração financeira, fazendo com que conglomerados de informação (com mais meios para produção) recebam cada vez mais. A fim de evitar riscos negativos, é justo - por exemplo - exigir das plataformas que haja uma proporcionalidade obrigatória de distribuição entre pequenos, médios e grandes veículos produtores de informação jornalística.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:20(Contribuição da Coalizão Direitos na Rede)
Quanto à segurança de dados e sistemas e à proteção de dados, não deve haver qualquer previsão legal que imponha a implementação de medidas que resultem na redução da segurança dos sistemas das plataformas digitais, tampouco que fomentem o vigilantismo.
Jamais o controle sobre conteúdos online, no contexto de um suposto “dever de cuidado”, deve poder ser estabelecido por lei de modo a exigir das plataformas uma análise dos teor de comunicações privadas em serviços de mensageria. Isso poderia pressionar as plataformas a enfraquecer ou a não implementar a criptografia em seus sistemas de mensageria, em um prejuízo generalizado à segurança e privacidade de todo mundo que usa esses sistemas. A consequência possível seria a erosão da confiança no ambiente de mensagens – sujeitando as pessoas a potenciais abusos por entes públicos e privados –, em afronta ao disposto na Lei Geral de Proteção de Dados Pessoais (Art. 6º, III, VII, VIII e Art. 46), segundo a qual o tratamento deve respeitar os princípios da necessidade, segurança, prevenção e responsabilização e prestação de contas, bem como devem ser adotadas medidas aptas a proteger os dados pessoais contra incidentes de segurança.
Uma eventual exigência, por exemplo, de “guarda, pelo prazo de um ano a partir da remoção ou desativação, de dados e informações que possam constituir material probatório” seria demasiadamente ampla. Tal previsão poderia incentivar a retenção indiscriminada de dados pessoais, inclusive sobre terceiros sem envolvimento sequer hipotético com a conduta que venha a suscitar intervenção pela plataforma. Sem uma definição do que pode ou não constituir material de prova ou limites a tal diretriz (por ausência de previsão legal específica até o momento na legislação processual penal brasileira), há o risco de se ampliar a quantidade de dados que as plataformas coletam: seria uma inversão prática da lógica legal de minimização de coleta, estabelecida pela LGPD, para um incentivo à maximização de coleta e retenção, além de limitar o princípio da presunção de inocência, institucionalizando as plataformas como máquinas de vigilância ainda mais poderosas do que já são.
Igualmente ruim seria ampliar os poderes de requisição cautelar das autoridades a quaisquer informações de identificação dos usuários (sem especificar quais), a quaisquer provedores de aplicação ou conexão. Ambas as disposições ilustrativas (i) conflitariam com os dispositivos supracitados da LGPD, (ii) carregariam graves riscos de abusos pelas autoridades, além de (iii) ampliariam o risco de incidentes de segurança que podem ocasionar danos significativos a titulares, incluindo roubo de identidade, fraude financeira, discriminação e danos reputacionais. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:39O uso de plataformas digitais por crianças e adolescentes tem levantado preocupações substanciais, especialmente devido à natureza dos algoritmos de recomendação e engajamento. Estes algoritmos podem inadvertidamente levar os usuários a conteúdos mais extremos e potencialmente prejudiciais. Por exemplo, um adolescente que assiste a vídeos de jogos no YouTube pode ser gradualmente direcionado para conteúdos relacionados a armas e "mass shootings" (tiroteios em massa), como reportado pelo The Guardian.
Estes riscos sublinham a importância de uma supervisão cuidadosa, bem como a implementação de medidas de proteção robustas nas plataformas digitais. Isso pode incluir configurações de privacidade rigorosas por padrão, filtros de conteúdo apropriados para a idade e transparência em torno de como os algoritmos de recomendação operam.
Ademais, é essencial a existência de uma legislação clara e consistente para proteger os direitos e interesses das crianças e adolescentes no ambiente digital. Considerando que, de acordo com o art. 227 da CRFB/1988, a proteção da infância e adolescência é prioridade absoluta e dever compartilhado de toda a sociedade, inclusive de empresas privadas, as plataformas digitais devem assumir o compromisso de implementar devidamente mecanismos para identificar e reduzir danos possíveis na utilização de seus serviços, tais como (1) potencial de adição e; (2) recomendação de conteúdo nocivo. - LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 13:38As plataformas digitais tomaram uma proporção muito grande nos últimos anos, fomentada pela evolução de ferramentas tecnológicas como a inteligência artificial e a mineração de dados, ao passo que elas têm como base essencial o tratamento de dados pessoais. O que significa dizer que o tratamento de dados está na sua estruturação, bem como é o responsável pela sua monetização.
São inúmeros os riscos associados à privacidade e à proteção de dados pessoais que podem ser observados na utilização de plataformas digitais, sobre os quais cabe minucioso estudo e diagnóstico dos danos a eles associados, que podem atingir os titulares de dados pessoais, sobretudo em se tratando de crianças, adolescentes e idosos. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:24Primeiramente cabe destacar que, diversos tópicos objeto dessa consulta já possuem regulamentação dedicada. A temática da privacidade e proteção de dados, por exemplo, possui um arcabouço normativo específico regido pela Lei Geral de Proteção de Dados (Lei 13.709/2018) que regulamenta os casos em que o tratamento de dados pessoais pode representar riscos à liberdade e aos direitos dos titulares (incluindo discriminação para finslesivos) e identifica as medidas mitigadoras desses riscos (incluindo a elaboração de relatórios). Assim, não somente é desnecessária a criação de novas regras para situações já regulamentadas pela LGPD, como a criação de novas regras desconexas pode gerar sobreposição e conflito de obrigações sobre uma mesma atividade.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:42Os dados pessoais são o principal insumo do modelo de negócio das plataformas digitais, portanto, os riscos associados a esse tipo de prática devem ser prioritários na regulação. Assim, a segurança digital, a utilização abusiva e o compartilhamento indevido de dados pessoais por plataformas digitais são também pontos essenciais a serem regulados.
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:35Riscos associados à utilização de tecnologias digitais de “Big Techs” em escolas
É necessário (...) “refletir sobre os acordos firmados entre diversas Secretarias da Educação de Estados brasileiros e empresas de tecnologia para disponibilização de plataformas digitais de educação nas escolas públicas. A utilização dessas plataformas pelo poder público, ainda que possa trazer inúmeras vantagens, levanta preocupações sobre a coleta de dados de crianças e adolescentes no contexto de sua educação para propósitos relacionados aos interesses comerciais das empresas contratadas, cujos termos de serviço e políticas de privacidade abrem margem para a utilização indevida desses dados.”
Fonte: Instituto Alana, Educadigital, Intervozes e Instituto Federal de Alagoas. Guia A Escola no Mundo Digital.
Para ver mais: FERNANDES, Elora Raad; MARRAFON, Marco Aurélio. A, B, C, Google: riscos ao direito fundamental à proteção de dados de crianças e adolescentes no G Suite for Education
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 221 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos associados à perda de controle da informação por vulnerabilidades de seguranças em suas contas
Problemas com dados pessoais geraram o maior número de atendimentos anuais em 2022 pelo Canal de Ajuda da SaferNet Brasil (https://indicadores.safernet.org.br/helpline/helplineviz/helpchart-page.html), que visa prover orientação para crianças, adolescentes e famílias sobre violência online. Em segundo lugar, aparece o problema da “Exposição de Imagens Íntimas”. Vazamentos de dados pessoais, vazamentos de senhas e a falta de boas práticas de segurança e preservação de dados podem estar relacionados à alta dos indicadores (incluindo a autogeração de conteúdo e autoexposição de dados). Destacamos, ainda, que a falta de implementação da lógica de privacy by design em todas as etapas do desenvolvimento de produtos tecnológicos pode tornar o direito fundamental da proteção de dados pessoais uma “obrigação do indivíduo”, onerado pela necessidade de realizar ativamente as configurações mais protetivas de suas contas e de atuar ativamente para garantir seu próprio direito. Esse contexto torna-se de maior risco quando se leva em conta a vulnerabilidade e o estágio especial de desenvolvimento de crianças e adolescentes. A perda de controle de informações pode gerar, ainda, riscos relacionados à vida e à integridade física e/ou psicológica dessas pessoas.
Riscos associados à proteção de dados pessoais no contexto do uso de IA Generativa:
O banimento da IA Generativa na Itália devido, também, à falta de mecanismos de verificação de idade (https://tecnoblog.net/noticias/2023/04/28/chatgpt-volta-a-funcionar-na-italia-apos-atender-mudar-politicas-de-privacidade/), bem como a ação coletiva contra a OpenAI na Califórnia (https://www.washingtonpost.com/technology/2023/06/28/openai-chatgpt-lawsuit-class-action/) levantam preocupações sobre o uso de dados pessoais para treinamento dessas tecnologias, bem como o possível tratamento inadequado de dados pessoais inseridos por usuários ao utilizar essas plataformas. O uso de apps virais, como o Lensa, também gerou debates sobre a coleta inapropriada de dados pessoais e imagens para treinamento da plataforma (https://www.artnews.com/art-news/news/does-lensa-ai-use-your-face-data-for-selfies-1234649204/). Além disso, destacamos que no contexto de ferramentas de geração de imagens, deep fakes que se utilizem de rostos de crianças e adolescentes para geração de imagens de conteúdo sexual são de grande preocupação.
Riscos associados à utilização da base legal de ‘legítimo interesse’ para tratamento de dados pessoais de crianças e adolescentes, o que pode impactar na sua fruição de direitos fundamentais:
A base legal do legítimo interesse constitui-se como aquela com contornos menos definidos dentro da LGPD. O legítimo interesse do controlador ou de terceiro apto a autorizar o tratamento de dados pessoais é conceito jurídico indeterminado, incluído na legislação para conferir a ela maior flexibilidade. Trata-se, portanto, de base legal essencialmente voltada ao atendimento dos interesses dos controladores de dados, razão pela qual, inclusive, sua positivação veio acompanhada de parâmetros que balizam a sua aplicação e visam resguardar os direitos e expectativas dos titulares. No próprio artigo que consagra o legítimo interesse como base legal para o tratamento de dados (art. 7º, inciso IX), há a ressalva de que ele não poderá ser aplicado “no caso de prevalecerem direitos e liberdades fundamentais do titular que exijam a proteção dos dados pessoais”. A positivação desses parâmetros, contudo, não impede que o legítimo interesse seja empregado, em razão de sua amplitude, para fundamentar operações de tratamento potencialmente violadoras dos direitos dos titulares, notadamente daqueles em situação de hipervulnerabilidade. Ainda que a lei preveja salvaguardas para resguardar esses direitos, fato é que o controle de sua adequada implementação poderá ser feita pelas autoridades fiscalizadoras, de modo que os controladores podem valer-se da indefinição da base legal para fundamentar operações de tratamento que poderão vir a ser consideradas ilegais. O direcionamento de publicidade comportamental a crianças e adolescentes em plataformas digitais, por exemplo, costuma ser fundado no legítimo interesse, retirando dos titulares a possibilidade de não consentirem com essas práticas – que podem causar prejuízos diversos a seu desenvolvimento.
Fonte: O melhor interesse de crianças e adolescentes e as bases legais aplicáveis ao tratamento de seus dados pessoais, pp. 30-32 (https://criancaeconsumo.org.br/wp-content/uploads/2023/03/O-MELHOR-INTERESSE-DE-CRIANCAS-E-ADOLESCENTES-E-AS-BASES-LEGAIS-APLICAVEIS-AO-TRATAMENTO-DE-SEUS-DADOS-PESSOAIS.pdf) - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:34Classificação da OCDE:
Entre os riscos à privacidade, a OCDE chama atenção para o uso de dados das crianças: dados que elas tenham sabidamente compartilhado; dados que tenham sido obtidos em suas atividades no ambiente digital; ou dados inferidos, no âmbito de relações interpessoais, institucionais ou, principalmente, comerciais.
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques. p. 118 Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf
Os riscos associados à privacidade e à proteção de dados pessoais são particularmente sensíveis para crianças e adolescentes
Os riscos à privacidade e à proteção de dados pessoais, a que estão expostos todos que navegam pela Internet, são ainda mais sérios para crianças e adolescentes do que qualquer outro grupo social, tendo qualquer tratamento de dados pessoais desses indivíduos um alto risco de impacto aos seus direitos humanos e fundamentais, bem como às suas liberdades e ao seu melhor interesse. Em razão das vulnerabilidades inerentes ao estágio de desenvolvimento atravessado por crianças e adolescentes, o tratamento inadequado de seus dados pessoais pode acarretar-lhes uma série de ofensas a seus direitos fundamentais e prejuízos ao seu desenvolvimento, inclusive de caráter discriminatório. O uso de dados para fins de manipulação comportamental, direcionamento de conteúdos e profiling, por exemplo - práticas hoje tão comuns no contexto da internet - pode implicar perdas de oportunidades futuras e estímulos maléficos ao desenvolvimento livre e pleno desses indivíduos. Esses riscos, ainda, são agravados pelo fato de que, por terem seu discernimento em evolução, as crianças e adolescentes são menos capazes de compreender por completo as externalidades negativas a que estão expostos na sociedade da informação, e tomar decisões ponderadas sobre o fluxo de seus dados.
Fonte do trecho: Contribuição do Instituto Alana para a Tomada de Subsídios da ANPD sobre o tratamento de dados pessoais de crianças e adolescentes
Riscos de privação de oportunidades futuras
(..) é essencial compreender que o tratamento indevido de dados de crianças pode, também, afetá-las a longo prazo: a existência do chamado “rastro digital”, ou seja, de registros das atividades de um indivíduo na internet, abre as portas para que, de interações online realizadas durante a infância, resulte a coleta de dados que podem, por exemplo, ser mal utilizados por empresas de saúde ou em processos seletivos de empregos ou educação, privando-lhes de oportunidades no futuro.
Fonte: HARTUNG, Pedro; HENRIQUES, Isabella; PITA, Marina. Proteção de dados pessoais de crianças e adolescentes. In: BIONI, Bruno et. al (org.). Tratado de Proteção de Dados Pessoais, 1ª Ed., Rio de Janeiro, Forense, 2020, p. 199 - 225
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 148 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Comunidade Praxis (Helena Mendonça, João Pires, Marcia Padilha e Michel Metzger) (comentário inserido por: Helena Andrade Mendonca) 15/07/2023 às 11:07▪ Compartilhamento indevido de dados – falta de cultura de proteção de dados pelas instâncias estatais brasileiras.
▪ Identificação biométrica muitas vezes feita em escolas, risco de vigilância, falta de escolha das crianças e dos responsáveis.
▪ Registros avaliativos descritivos como portfólio de crianças menores que contém informações com dados sensíveis (fotos, biometria, perfil). Risco de acessos sem controle.
▪ As grandes plataformas atualmente oferecem serviço gratuito para acesso a dados dos estudantes, isso aumentou muito a coleta de dados, por parte das grandes empresas de tecnologia durante o período escolar. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:21Sim. Dados sensíveis ou não de usuários precisam ser protegidos, independentemente da natureza da plataforma.
- Alex Camacho Castilho 12/07/2023 às 14:46A coleta e o uso inadequados de dados pessoais pelas plataformas digitais podem violar a privacidade e os direitos dos usuários. A regulação deve garantir a proteção dos dados pessoais, estabelecendo requisitos claros para a coleta, o uso e o compartilhamento de informações pessoais, respeitando a Lei pertinente, qual seja, LGPD. Também é importante fornecer aos usuários controle sobre seus dados e garantir a segurança e a confidencialidade das informações.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 17:26Como mencionado acima (ponto 37), a LGPD já se aplica a esses cenários. Regulação adicional sobre o tema apenas causaria insegurança jurídica e seria contrária à lógica da própria norma, que se propõe servir como de aplicação geral, e não setorial, a toda e qualquer atividade econômica, online ou offline.
- Paulo Emerson de Oliveira Pereira 31/05/2023 às 11:40Infelizmente ainda temos os problemas gritantes e cerceadores dos direitos humanos tais como: preconceito, segregação racial, segregação financeira, segregação econômica, o cerceamento absoluto da empregabilidade, e por diversos mecanismos que fazem de maneira inteligente análises não transparentes de hard skills tipo quem deve, ou que não consegue pagar as contas por desemprego, ou por etnia, por classe, por compras casadas.
Outro detalhe abusivo, é obrigar ao Titular de Dados ter que provar que isso acontece, sendo que o mesmo não tem nem os recursos operacionais e de infraestrutura para os serviços.
Precisamos de fato diminuir as distâncias entre as idéias, as práticas e principalmente dos valores. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:29[Contribuição do DiraCom - Direito à Comunicação e Democracia]
É fundamental que medidas sejam desenvolvidas para proteger crianças e adolescentes, entre as quais a proibição do uso de dados de crianças e adolescentes para conformação de perfis e direcionamento de publicidade. Aliás, as regras de publicidade off-line devem valer para o ambiente online. Para construir resiliência e uma boa relação com as mídias, potencializando os aspectos positivos do digital, é necessário que a educação para a mídia seja parte da formação de crianças e adolescentes - Filipe Saraiva 16/07/2023 às 22:19Alto grau de risco associado a estes casos.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:17Crianças e adolescentes formam um grupo especialmente vulnerável por estarem em processo de formação e, assim, ainda mais expostas aos riscos do ambiente virtual, sem as competências e formações necessárias para lidar com eles. Assim, a regulação de plataformas deve considerar, entre outros aspectos: a exposição a conteúdos inapropriados, incluindo a vedação à reprodução automática de conteúdos sugeridos; riscos à privacidade e segurança online; publicidade direcionada; cyberbullying e comportamento prejudicial; e dependência e uso excessivo.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:40
O uso de plataformas digitais por crianças e adolescentes tem levantado preocupações substanciais, especialmente devido à natureza dos algoritmos de recomendação e engajamento. Estes algoritmos podem inadvertidamente levar os usuários a conteúdos mais extremos e potencialmente prejudiciais. Por exemplo, um adolescente que assiste a vídeos de jogos no YouTube pode ser gradualmente direcionado para conteúdos relacionados a armas e "mass shootings" (tiroteios em massa), como reportado pelo The Guardian.
Estes riscos sublinham a importância de uma supervisão cuidadosa, bem como a implementação de medidas de proteção robustas nas plataformas digitais. Isso pode incluir configurações de privacidade rigorosas por padrão, filtros de conteúdo apropriados para a idade e transparência em torno de como os algoritmos de recomendação operam.
Ademais, é essencial a existência de uma legislação clara e consistente para proteger os direitos e interesses das crianças e adolescentes no ambiente digital. Considerando que, de acordo com o art. 227 da CRFB/1988, a proteção da infância e adolescência é prioridade absoluta e dever compartilhado de toda a sociedade, inclusive de empresas privadas, as plataformas digitais devem assumir o compromisso de implementar devidamente mecanismos para identificar e reduzir danos possíveis na utilização de seus serviços, tais como (1) potencial de adição e; (2) recomendação de conteúdo nocivo. - Rodrigo Nejm 16/07/2023 às 11:26Importante trabalhar na perspectiva de agrupamento de riscos para facilitar a futura regulamentação e a aplicação por diferentes setores do governo e da sociedade. Os critérios do CO:RE e da OCDE são pontos de partida, mas vale adaptação para sintonizar com demais grupos de risco apresentados nesta consulta nos outros eixos. A diferenciação de risco e dano é especialmente importante no âmbito da proteção às crianças e adolescentes.
- Riscos de danos às Saúde e desenvolvimento físico com conteúdos, contatos, condutas e contratos abusivos;
- Riscos à Saúde-mental e emocional;
- Riscos à Privacidade e à agência no desenvolvimento da personalidade com assimetria de poder e manipulação das condições que permitem escolhas e oferta de consentimento;
- Riscos de violência sexual e ataques à dignidade sexual: amplificação do abuso e exploração sexual de crianças e adolescentes + risco de digitalização de formas de abuso ainda não mediadas pelas plataformas atuais;
- Risco de acesso a conteúdos e contatos inadequados para crianças e adolescentes nas diferentes etapas do desenvolvimento, com danos no processo de socialização, comprometendo o acesso à cultura, informação, ao lazer e aos espaços sociais como sujeitos de direitos em fase peculiar de desenvolvimento. (Mecanismos de limite de acesso por idade são apenas um dos elementos que precisam ser contemplados ao lado da criação de conteúdos adequados, moderação, design de recursos de proteção, entre outros.)
- Risco de design manipulativo e publicidade infantil embutidos nas plataformas usadas por crianças e adolescentes;
- Riscos de acesso indiscriminado à conteúdos extremistas e dinâmicas de radicalização baseadas no ódio e na discriminação, fomentando atos violentos e recrutamento para ações criminosos;
- Risco de impedir a participação direta de crianças e adolescentes na definição de seu melhor interesse quando não há previsão de processos amplos de participação direta na regulação, elaboração e implementação de políticas e programas dedicados à sua proteção;
- Risco de violência institucional e agravamento de violação dos mais vulneráveis com a dificuldade de acesso à justiça e à mecanismos amigáveis para os diferentes níveis de maturidade, impossibilitando o acesso à justiça especialmente nos casos de novas modalidades de crimes digitais;
- Risco de desenho de produtos e serviços governamentais digitais massivos (de educação, saúde e assistência) que não contemplem a multiplicidade de crianças e adolescentes mais vulneráveis, amplificando discriminação sistêmica em nome de suposta escala e economia;
- Risco de medidas de proteção contra os riscos serem desproporcionais e gerarem efeitos de restrição de direitos de participação e expressão de crianças e adolescente na era digital - Rodolfo Salema 16/07/2023 às 10:18Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
A proteção de crianças e adolescentes no Brasil passou por um fortalecimento significativo, impulsionado por fatores internos e externos. A promulgação da Constituição Federal de 1988 foi um marco importante nesse processo, elevando os direitos fundamentais nas relações familiares e garantindo que todos os direitos individuais e sociais se aplicassem também aos menores. Reconheceu-se que as crianças são sujeitos de direitos, assegurando-lhes uma proteção adequada.
Além disso, a ratificação de diversos acordos internacionais desempenhou um papel essencial nesse fortalecimento, destacando-se a Convenção Internacional sobre os Direitos da Criança, aprovada pela ONU em 20 de novembro de 1989 e incorporada à legislação brasileira em 1990. Essa convenção consagrou a doutrina da proteção integral, reconhecendo que as crianças devem ser tratadas como cidadãos plenos e merecem uma proteção prioritária, tendo em vista seu processo de desenvolvimento físico, psicológico e moral.
Portanto, a Constituição Federal e os acordos internacionais estabeleceram bases sólidas para a efetiva proteção das crianças e adolescentes no Brasil. Esses marcos legais reconhecem a importância de garantir seus direitos e assegurar que recebam a atenção e o cuidado necessários para um desenvolvimento saudável e pleno.
No entanto, diante das mudanças trazidas pelo domínio das plataformas digitais, novos riscos surgiram e devem ser enfrentados com prioridade por meio da regulamentação do setor. É crucial considerar os seguintes aspectos:
i. Preservar a Lei Geral de Proteção de Dados (LGPD) e a competência da Autoridade Nacional de Proteção de Dados (ANPD) sobre o tratamento de dados pessoais de crianças e adolescentes, evitando contradições entre potenciais legislações e as já existentes, a fim de evitar confusão entre os responsáveis pelo tratamento e falhas no tratamento de dados de menores.
ii. Garantir a distinção entre crianças e adolescentes, conforme estabelecido pelo Estatuto da Criança e do Adolescente, a fim de cumprir adequadamente os direitos desses indivíduos e proporcionar clareza aos responsáveis pelo tratamento.
iii. Estabelecer parâmetros práticos e razoáveis para o interesse superior da criança, evitando a exclusão de crianças e adolescentes do acesso à internet, o que pode prejudicar sua formação pessoal.
iv. Desenvolver políticas públicas de alfabetização digital para a população menor de idade, a fim de prevenir os riscos inerentes ao uso de plataformas digitais.
v. Estabelecer a responsabilidade das plataformas digitais, incluindo a imposição de responsabilidade a partir da postagem e um regime subjetivo com presunção de culpa quando envolver o cometimento de crimes por crianças e adolescentes (vide resposta à questão 29). - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:42A regulação deve vedar a exploração econômica de dados pessoais. De forma mais específica, deve haver vedação na utilização de dados de crianças para perfilamento, publicidade direcionada e impulsionamento de conteúdo. Além disso, o tratamento de dados deve ser limitado ao mínimo necessário e orientado pelo melhor interesse das crianças e adolescentes (art. 277, CF/88).
- João Coelho 15/07/2023 às 15:52Riscos associados ao acesso à justiça de crianças e adolescentes:
43. Crianças enfrentam desafios específicos no acesso à justiça relacionada ao ambiente digital por uma série de razões. Tais desafios surgem devido à falta de legislação que sancione as violações dos direitos das crianças especificamente em relação ao ambiente digital, às dificuldades em obter provas ou identificar os perpetradores ou porque as crianças e suas mães, pais ou cuidadores não têm conhecimento de seus direitos ou do que constitui uma violação ou abuso de seus direitos no ambiente digital, entre outros fatores. Outros desafios podem surgir se as crianças forem obrigadas a revelar atividades online sensíveis ou privadas, ou por medo de represálias por parte de seus colegas ou de exclusão social.
Fonte: Item 43 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 111 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:52Riscos em jogos online
A análise dos dados da pesquisa TIC Kids dos últimos anos demonstra como os adolescentes estão cada vez mais jogando. Essa indústria é uma das maiores no campo do entretenimento atualmente. Os riscos para crianças e adolescentes em jogos online são transversais, e ganham sua própria feição diante das especificidades do jogo, seu modelo de funcionamento, bem como da operacionalização de comunidades virtuais, streamers e campeonatos em torno desses jogos - nesse caso, importa observar não apenas o jogo em si, mas como interage e manifesta sua comunidade (ex: via Discord, fóruns, canais no Youtube, dentre outros). Os efeitos relacionados às dinâmicas específicas de jogos online são muitos, como as distorções de imagem possivelmente geradas pela ‘avatarização’ do ser (por exemplo, crianças e adolescentes evitando utilizar avatares negros para não sofrerem racismo no ambiente imersivo), as compras dentro de jogos que são ofertadas para crianças e adolescentes e que criam uma dinâmica de desigualdade econômica nesses espaços virtuais, os riscos relacionados à compras efetivadas sem o consentimento dos pais (https://appleinsider.com/articles/20/12/13/kid-spends-16k-on-in-app-purchases-for-ipad-game-sonic-forces) e até mesmo as diferenças de qualidade da experiência de crianças e adolescentes de acordo com seus dispositivos, qualidade da Internet e até mesmo acesso à energia elétrica.
Para ver mais: https://forumdainternet.cgi.br/fib13/propostas-de-workshops-selecionados/vai-tomar-ban-caminhos-para-protecao-de-criancas-e-adolescentes-em-jogos-digitais-e-ambientes-virtuais-imersivos/
UNICEF - Proposta para avaliação de impacto a direitos de crianças e adolescentes em jogos online:
https://www.unicef.org/partnerships/unicef-publishes-recommendations-online-gaming-industry-assessing-impact-children
Riscos relacionados ao acesso a “Jogos de azar”
Um risco da participação de crianças em jogos de azar é a que diz respeito às loot boxes, caixas surpresas que podem ser adquiridas em jogos eletrônicos e que fornecem prêmios ou vantagens ao usuário de maneira aleatória. Essas caixas de recompensas vêm sendo alvo de polêmicas por se basearem em um sistema de apostas, análogo ao dos jogos de azar que já são proibidos no Brasil. Em fevereiro de 2021, a Associação Nacional dos Centros de Defesa da Criança e do Adolescente ajuizou ação civil pública para exigir a suspensão da venda de loot boxes e indenização pelas crianças envolvidas. No mesmo sentido, o Conselho Federal de Psicologia emitiu parecer, em dezembro de 2021, defendendo a adoção de medidas pelo Estado que protejam as crianças da adicção às loot boxes.
Para ver mais: TUNHOLI, Murilo. Ação judicial para banir loot boxes no Brasil tem apoio do Ministério Público; Conselho Federal de Psicologia. Parecer da GTEC sobre Jogos Eletrônicos para infância
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 27 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - João Coelho 15/07/2023 às 15:51Sharenting:
O risco do Sharenting:
(...) a OCDE também aponta preocupações com o sharenting, termo cunhado pelo neologismo advindo da junção das palavras “share” e “parenting” e já introduzido, formalmente, no idioma inglês. A definição mais popular de sharenting está atrelada à prática excessiva de exposição e compartilhamento, no ambiente digital, em especial nas plataformas e redes sociais, de informações privadas sobre crianças, por seus próprios familiares - notadamente mães e pais - de forma a criar verdadeiro rastro digital, que pode acompanhar as crianças por toda a sua vida, com implicações no âmbito da sua privacidade, autodeterminação informativa, imagem, segurança e proteção à exploração comercial. (...) De qualquer forma, ainda que, de fato, a prática de sharenting acarrete riscos bastante significativos para as crianças, é importante dizer que envolve uma relativa amplitude de nuances quando considerada como o compartilhamento de representações digitais de mães, pais ou crianças na forma de autorrepresentação digital. Isso porque pode envolver dilemas éticos e linhas tênues quanto aos limites da representação que mães e pais fazem de si próprios em relação a suas experiências na maternidade e paternidade, à própria liberdade de expressão e à representação que fazem de seus filhos e filhas, na medida em que, para compartilharem suas vivências na parentalidade, na imensa maioria das vezes, discorrem, publicamente, sobre seus filhos e filhas. (...) Para famílias de crianças com deficiências, por exemplo, o sharenting pode ser uma potente forma de construção de diálogo sobre os desafios que enfrentam solitariamente - tanto para as famílias que compartilham suas histórias, como para as que as acompanham - bem como de ativismo em relação aos direitos de seus filhos e filhas, até mesmo, no sentido tirá-los da invisibilidade que, normalmente, os cerca.
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques. p. 119-122 Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf
O risco do Sharenting - sobre a monetização da prática:
(...) em casos de monetização da atividade, pode-se encontrar situações que envolvem maior complexidade como, por exemplo, quando a remuneração possibilita mães ou pais terem uma forma alternativa de sustento, por meio de um trabalho que pode acontecer em suas residências, facilitando, até mesmo, que exerçam a parentalidade. Também pode ser uma forma de as mães - com muito mais ênfase do que os pais - manterem-se ativas profissionalmente quando deixam de trabalhar fora de casa durante o período em que seus filhos e filhas são mais novos, mas intentam retornar ao mercado de trabalho, num cenário com contornos feministas, no qual priorizam escolha, autonomia econômica e flexibilidade. Por outro lado, a monetização da atividade pode expor as crianças a maiores e mais graves riscos, como, por exemplo, a exploração comercial infantil, em um contexto de economia da atenção e ‘plataformização’ das relações. Isso porque, o próprio modelo de negócio das plataformas e mídias sociais digitais acaba incentivando a produção constante de conteúdo e a exposição de imagens das crianças no ambiente online, de forma que estejam amplamente disponíveis no escrutínio público, bem como à massiva coleta e tratamento de seus dados.
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques. p. 122 Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:51Conteúdo Sexual, Aliciamento e Violência:
Risco relacionados a conteúdo: violento e sexual
A proteção contra conteúdo violento e sexual está alinhada à política de classificação indicativa no Brasil, inclusive com nova regulamentação que inclui jogos e aplicativos digitais e vídeos on demand, que tem como principal objetivo alertar as famílias para qual faixa etária a obra, espetáculo ou produto é indicado, com base no seu conteúdo, de modo a respeitar o processo de desenvolvimento dos indivíduos. Assim, para atender à norma da prioridade absoluta, foram criadas políticas públicas voltadas à proteção da infância e da adolescência frente a conteúdos inadequados – de teor comercial, sexual, ou violento, por exemplo –, dado que tais conteúdos tendem a gerar riscos à integridade biopsíquica de crianças e adolescentes e influir também em seu processo de formação, tendo em vista que, assim como as mídias, o ambiente digital desempenha papel relevante na socialização das pessoas.
Fonte: DANTAS, Thaís Nascimento. A proteção da infância e da adolescência frente a conteúdos inadequados nas diferentes mídias. In: Janaína Cabello; Heloísa Mattos Lins. (Org.). Mídias, Infâncias e Diferenças. 1ed. Campinas: Leitura Crítica, 2017, v. , p. 111-127
Referência legal: arts. 21, inciso XVI; 220 §3º e 221 da CF/88; arts. 6º, 17, 70, 71, 76 ,77, 149 e 252 a 258 do ECA e a Portaria nº 502 de 2021 do Ministério da Justiça e art. 34 da CRC. Para ver mais: Ministério da Justiça e Segurança Pública. Manual da Nova Classificação Indicativa; Ministério da Justiça e Segurança Pública. Guia Prático de Classificação Indicativa
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 56 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos associados à geração de deep fakes de imagens de abuso e exploração sexual infantojuvenil através de tecnologias de geração de imagem por IA
A geração de deep fakes sexuais já é um problema da atualidade (https://www.bbc.com/portuguese/articles/c7299325zn3o) e tem gerado reações legislativas, como leis que proíbem a geração de imagens de abuso e exploração sexual infantojuvenil por essas tecnologias (https://gizmodo.com/ai-louisiana-outlaws-sexual-deepfakes-of-children-1850612475?utm_source=substack&utm_medium=email).
Risco relacionados ao aliciamento, abuso e exploração sexual na Internet
O abuso e a exploração sexual de crianças e adolescentes é um problema gravíssimo, cujo risco pode ser ampliado pela utilização de plataformas digitais. Desde encontros com aliciadores sexuais possibilitados pelo uso tecnológico (que se aproveitam de táticas para falsear sua identidade e criar uma relação de confiança com crianças e adolescentes), até mesmo à exploração econômica de crianças e adolescentes para geração de conteúdo sexual para circulação na Internet (https://g1.globo.com/fantastico/noticia/2023/06/25/rede-sem-lei-no-discord-criminosos-violentam-e-humilham-meninas-menores-de-idade.ghtml). Ressaltamos que a identificação das vítimas de imagens de abuso e exploração sexual que circulam na Internet é um grande desafio, devido à dinâmica global de circulação de conteúdo. Trata-se, portanto, de um problema de dimensões globais, cujas respostas devem priorizar a garantia de proteção preventiva, bem como a identificação e localização das vítimas para que cesse a situação de violência e para que se possa iniciar um processo de acolhimento. Para isso, é importante possuir estrutura de financiamento, de profissionais treinados e de capacitação adequada das esferas de investigação e responsabilização, coordenação de informações e de atuação responsável e ética em nível internacional, bem como garantir a educação para prevenção desses crimes, compreendendo suas nuances na era da plataformização. Destaca-se, outrossim, que o Comentário Geral n° 25 elenca os riscos relacionados à violência sexual dentre aqueles aos quais crianças e adolescentes estão expostos no ambiente digital:
“81. Agressores sexuais podem usar tecnologias digitais para solicitar crianças para fins sexuais e para participar de abuso sexual de crianças online, por exemplo, através da transmissão de vídeo ao vivo, produção e distribuição de material sobre abuso sexual de crianças e por meio de extorsão sexual. Formas de violência facilitada digitalmente e exploração e abuso sexual também podem ser perpetradas dentro do círculo de confiança da criança, por familiares ou amigos ou, para adolescentes, por parceiros íntimos, e podem incluir ciberagressões, incluindo bullying e ameaças à reputação, a criação ou compartilhamento não-consensual de textos ou imagens sexualizadas, como conteúdo autogerado por solicitação e/ou coerção, e a promoção de comportamentos auto-prejudiciais, como automutilação, comportamento suicida ou distúrbios alimentares. Nos casos em que as crianças tenham praticado essas ações, Estados Partes devem buscar abordagens preventivas, de salvaguarda e de justiça restaurativa para as crianças envolvidas, sempre que possível”
Fonte: Item 81 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 200 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos relacionados ao conteúdo sexual autogerado e ao aliciamento, assédio ou instigação de crianças e adolescentes para geração de conteúdo sexual
De acordo com o Internet Watch Foundation (IWF), desde o início da pandemia de COVID-19, a quantidade de imagens de abuso infantil “autogeradas” aumentou dramaticamente. Segundo o IWF, o conteúdo de abuso sexual infantil “autogerado” é criado usando qualquer dispositivo como webcams e câmeras, e compartilhado online por meio de várias plataformas. Nesses casos, crianças são manipuladas para produzirem e compartilharem imagens ou vídeos sexuais de si mesmas. Segundo o artigo 241-D, parágrafo único, inciso II, do ECA, incorre em crime quem pratica as condutas descritas no caput do artigo (aliciar, assediar, instigar ou constranger, por qualquer meio de comunicação, criança, com o fim de com ela praticar ato libidinoso) com o fim de induzir criança a se exibir de forma sexualmente explícita. Para ver mais: Internet Watch Foundation
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 245 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos relacionados ao tráfico de pessoas na Internet e a necessidade de divulgação de formas de efetuar denúncias como medida de mitigação
“O tráfico de pessoas é caracterizado pelo “recrutamento, transporte, transferência, abrigo ou recebimento de pessoas, por meio de ameaça ou uso da força ou outras formas de coerção, de rapto, de fraude, de engano, do abuso de poder ou de uma posição de vulnerabilidade ou de dar ou receber pagamentos ou benefícios para obter o consentimento para uma pessoa ter controle sobre outra pessoa, para o propósito de exploração”. De acordo com a Lei nº 11.577/2007 é obrigatória a divulgação, pelos meios que especifica, de mensagem relativa à exploração sexual e tráfico de crianças e adolescentes, apontando formas para efetuar denúncias.”
Fonte: Protocolo Relativo à Prevenção, Repressão e Punição do Tráfico de Pessoas, em Especial Mulheres e Crianças, complementar à Convenção das Nações Unidas contra o Crime Organizado Transnacional, conhecida também como Convenção de Palermo. Referência legal: artigo 149-A do Código Penal; Lei nº 11.577/2007; Convenção Sobre a Eliminação de todas as Formas de Discriminação contra Mulher; Convenção das Nações Unidas contra o Crime Organizado Transnacional; Protocolo Opcional à Convenção sobre a venda de crianças, prostituição infantil e pornografia infantil, promulgado pelo Decreto Federal n. 5.007 de 2004, e art. 35 da CRC.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 240 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - João Coelho 15/07/2023 às 15:49Os comentários do Instituto Alana foram geradas com contribuições de: Emanuella Ribeiro Halfeld Maciel, João Francisco de Aguiar Coelho, Isabella Henriques, Maria Mello, Renato Godoy, Diana Silva, Letícia Carvalho, Mikaela Alves, Pedro Mendes, Tayanne Galeno, Jéssica Costa, Josi Campos, Brenda Damas Nascimento, Giovana Ventura e Ana Claudia Cifali.
Categoria “Saúde”
Riscos relacionados à saúde - o desenvolvimento de crianças e adolescentes:
Recentemente, o Office of the Surgeon General, autoridade governamental máxima de proteção à saúde nos Estados Unidos, publicou relatório destacando os inúmeros prejuízos causados pelas redes sociais à saúde e desenvolvimento de crianças e adolescentes. Entre outros pontos, o relatório destaca que crianças e adolescentes que utilizam as redes sociais durante períodos estendidos demonstraram ter maiores chances de desenvolver ansiedade e depressão, além de distúrbios com a autoimagem. O efeito potencialmente deletério do ambiente digital sobre a saúde e desenvolvimento de crianças e adolescentes é também destacado pelo Comentário Geral n° 25:
“15. O uso de dispositivos digitais não deve ser prejudicial, nem deve ser um substituto das interações presenciais entre crianças ou entre crianças e mães, pais ou cuidadores. Estados Partes devem prestar atenção específica aos efeitos da tecnologia nos primeiros anos de vida, quando a plasticidade cerebral é máxima e o ambiente social, em particular as relações com as mães, pais e cuidadores, é crucial para moldar o desenvolvimento cognitivo, emocional e social das crianças.”
Fonte: Item 92 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 59 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Riscos relacionados a desafios e impulsionamento de atos perigosos ou prejudiciais à saúde e integridade física e mental por ‘virais’
Crianças e adolescentes consomem e criam conteúdos online, interagindo com o ambiente informacional das redes, que causa impactos direto em sua esfera de ação. Nesse sentido, importa ressaltar riscos relacionados ao impulsionamento de atos perigosos por desafios virais que podem ser danosos para sua integridade física e psicológica. Exemplo: desafio do barco causa morte de 4 pessoas - https://www.tecmundo.com.br/redes-sociais/266206-tiktok-novo-desafio-pular-barco-mata-quatro-pessoas-eua.htm?utm_source=substack&utm_medium=email, jovem de 13 anos morre após desafio de benadryl: https://mundoconectado.com.br/noticias/v/33389/jovem-de-13-anos-morre-apos-fazer-desafio-do-tiktok.
Riscos associados à autoestima e percepções de imagem e de corpo de crianças e adolescentes, com relação à utilização de filtros, utilização de ferramentas de geração de imagens e pressões causadas nas redes sociais
Importa ressaltar os impactos que os modelos de negócio e novas tecnologias podem trazer à autopercepção e pressões sobre os corpos de crianças e adolescentes. Nesse sentido, uma variedade de pesquisas tentam compreender a relação do uso de redes sociais com dismorfias corporais (https://www.nytimes.com/2022/03/31/learning/what-students-are-saying-about-how-social-media-affects-their-body-image.html; https://www.apa.org/news/press/releases/2023/02/social-media-body-image). Cabe ressaltar, ainda, que no contexto de IAs Generativas, a geração de imagens em aplicativos famosos foi atrelada ao “embranquecimento” e “emagrecimento” dos corpos nas imagens geradas (https://edition.cnn.com/style/article/lensa-ai-app-art-explainer-trnd/index.html).
“Aliás, é justamente isso que demonstra o mais recente escândalo envolvendo a gigante Facebook diante das denúncias da whistleblower Frances Haugen. A ex funcionária da empresa afirmou ao subcomitê de Proteção ao Consumidor e Segurança de Dados estadunidense que o Facebook tinha conhecimento de que a sua plataforma Instagram estaria agravando enormemente problemas de autoestima e distúrbios alimentares entre adolescentes - sobretudo meninas - levando uma parcela considerável a pensamentos suicidas e relacionados à anorexia, sem que qualquer providência significativa tivesse sido tomada pelo Facebook para resolver ou mitigar tais problemas. Independentemente da autenticidade de todas as denúncias, referido exemplo demonstra como o tratamento de dados pessoais desse grupo vulnerável de pessoas tem, potencialmente, um alto risco de causar danos graves não só a liberdades civis, mas a direitos fundamentais, inclusive e até mesmo, ao direito à vida de crianças e adolescentes.
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques. p. 315-316 Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:22Sim. Conteúdos inadequados para crianças e adolescentes, a existência de fóruns online que incentivem a violência, o discurso de ódio, a prática de bullying online, jogos ou conteúdo midiático (imagem, vídeo e som) inadequados para menores de 18 anos precisam ser regulados, de forma a impossibilitar ou dificultar o acesso por destes por crianças e adolescentes visando a sua segurança.
- Comunidade Praxis (Helena Mendonça, João Pires, Marcia Padilha e Michel Metzger) (comentário inserido por: Helena Andrade Mendonca) 14/07/2023 às 15:17Incompatibilidade dos termos de uso das plataformas que são armazenadas fora do pais, com as regras de proteção brasileiras para crianças e jovens – abuso dos termos de uso.
- Alex Camacho Castilho 12/07/2023 às 14:47As plataformas digitais são amplamente utilizadas por crianças e adolescentes, que são especialmente vulneráveis a riscos relacionados à privacidade, segurança e exposição a conteúdos inadequados. A regulação deve adotar medidas específicas para proteger os interesses desses usuários, como restrições de idade, políticas de privacidade apropriadas, controle parental e educação em segurança digital.
- KELLI ANGELINI 11/07/2023 às 08:38Crianças e adolescentes são seres em desenvolvimento e devem ser protegidas, conforme prevê nossa COnstituição Federal (artigo 227), inclusive na Internet. Há diversos riscos associados ao uso de plataformas digitais por crianças e adolescentes, incusive ações judiciais que tramitam nos Tribunais do país mostram esses riscos. Alguns dos principais riscos são:
- risco de danos por abandono digital: crianças e adolescentes em redes sociais, na maioria da vezes, não tem acompanhamento algum nem proteção, tornando-se vítimas fáceis para criminosos;
- risco de acesso a conteúdos adultos e inapropriados para a idade (não há separação ou classificação indicativa de conteúdo por idade, todos podem acessar tudo, o que confronta inclusive artigo 220, parágrafo 3 da CF que estabelece a obrigatoriedade de garantir à família a possibilidade de se defender crianças e adolescentes de programação inadequada);
- risco de excesso de tempo de uso de redes sociais, tendo em vista que prendem à atenção de crianças e adolescentes tanto quanto ou até mais que adultos, o que pode acarretar em problemas de saúde mental e problemas no desenvolvimento físico e psicológico;
- risco de aliciamento e abuso sexual, bem como contato com pessoal mal intencionadas que ganham a confiança de crianças e adolescentes para pedir nudes, marcar encontros presenciais, pedir dados financeiros dos pais, dentre outros;
- risco de acesso à publicidade direcionada a eles, o que é vedado pela legislação brasileira;
- risco de cair em golpes e fraudes;
- risco de sofrer bullying (intimidações repetitivas), xingamentos, ofensas, ameaças, dentre outros.
- risco de usarem as redes sociais de forma indevida, achando que a Internet é uma terra sem lei. Crianças e adolescentes são usuários de redes sociais, mas nem sempre são capacitados a ter respeito nas interações online. Em diversas situações, crianças e adolescentes acabam criando perfis falsos na Internet para xingar e ofender colegas, achando que na internet "tudo pode". - CEIIAS, Centro de Estudos Integrados, Infancia, Adolescencia e Saude (comentário inserido por: Evelyn Eisenstein) 03/07/2023 às 16:33SIM, crianças e adolescentes tem prioridade ABSOLUTA # art 227 da Constituição Federal além da Convenção dos Direitos da Criança Comentario Geral #24 sobre Midias digitais ver em 5Rights www.5rights.com
- RENATO ROCHA 29/06/2023 às 20:23Criancas e Adolescentes nao sao responsaveis pelos seus atos, portanto os Pais e/ou Responsaveis sao, e devem ser responsabilizados civil e criminalmente por sua negligencia ou inepcia no cuidados para com os filhos.
- Jose Geraldo Leite Coura 28/06/2023 às 20:31As plataformas deveriam cobrar dos pais ou responsáveis o consentimento para os menores terem acesso para publicações nas mesmas.
- JOSE CLAUDIO LIMA DE SIQUEIRA 20/06/2023 às 14:36O acesso à informação deve ser amplamente democrático. As crianças e adolescentes tem seus direitos e deveres positivados em estatuto próprio. Esta ação cabe mais à família, à escola e aos pais (famílias mais modernas) e não a uma regulação nas plataformas sociais. O Estado proíbe crimes cometidos por adolescentes, no entanto, sabemos que há crimes cometidos pelos mesmos, sendo assim, não é a plataforma em si, mas sim a ação dos "tutores", professores, educadores, pais, responsáveis, sociedade, enfim, toda uma cadeia de proteção sobre "pessoas".
- Ivelise Fortim 28/04/2023 às 16:14riscos com relação a abuso, aliciamento sexual , aliciamento extremista, risco de conteúdo inadequado, de contato com estranhos,entre outros.
- Rodrigo Pereira 25/04/2023 às 20:08Este tema me é bem caro pela formação em psicologia e pelo trabalho permanente nas escolas. Celulares não são brinquedos. Associações de pediatria em todo o mundo vem recomendando que somente após os 13 anos crianças devam ter acesso a estes aparelhos. O que há 10 anos parecia um exagero vem se confirmando como realista. Quando em outras épocas teríamos aparelhos de verdade e não brinquedos de plástico nas mãos de crianças? Quem disse que a educação melhorou neste sentido?
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:30[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A regulação deve ter sempre em vista as regras vigentes e boas práticas atinentes a cada setor. Regras relativas a direitos do consumidor, proteção de segmentos vulneráveis e de respeito a direitos humanos devem orientar a atuação das plataformas. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:21(Contribuição da Coalizão Direitos na Rede)
As plataformas digitais têm se tornado no Brasil lugar fértil para ameaças à democracia, discurso de ódio, difusão de mentiras e ameaças a indivíduos e grupos. Exemplos mais recentes foram as eleições (inundadas por mentiras e discurso de ódio), a tentativa de golpe de Estado em 8 de janeiro de 2023, e a organização dos ataques às escolas. Em todos esses casos, grupos utilizaram plataformas digitais para organizar suas ações violentas.
Uma resposta adequada aos problemas hoje associados ao ambiente digital e que ameaçam democracias em todo o mundo deve ter como premissa a necessidade de equilibrar a imposição de novas responsabilidades às plataformas digitais com a garantia da proteção de direitos humanos – em especial a liberdade de expressão (inclusive em sua dimensão coletiva), o acesso à informação, a proteção de dados pessoais e a defesa do Estado Democrático de Direito –, bem como a necessidade de evitar a concentração de poder e a degradação da esfera pública.
Não se deve ampliar a imunidade parlamentar no âmbito das redes sociais, sendo suficiente a garantia prevista na Constituição Federal, Art. 53.
Sobre dogmas religiosos, a Constituição Federal não garante a defesa fundamentalista ou irrestrita de quaisquer visões religiosas nem ideológicas, mas, sim, o direito à liberdade religiosa, de consciência e de crença (Art. 5º, VI, CF). Não se pode abrir margem para uma proteção jurídica a discursos violentos contra determinados grupos sociais vulnerabilizados, como a população LGBTQIAP+, pessoas negras, mulheres, pessoas com deficiência, etc.. A liberdade de expressão é um direito fundamental e que buscamos proteger. Ela, contudo, não pode ser confundida com a liberdade de incitar violência, proferir falas racistas e outros discursos em desacordo com parâmetros constitucionais.
Sobre o risco de regras legais serem elas mesmas um problema, as redes sociais não devem ter incentivos, muito menos exigências e obrigações previstas em lei, que as impulsione em direção a se transformarem em espaços ainda mais homogêneos, inóspitos e tóxicos. Tais empresas devem assumir suas responsabilidades já vigentes, , por exemplo, aplicando medidas contra contas devidamente denunciadas e que, em contraposição aos termos de uso definidos pelas próprias empresas, destinam-se unicamente a promover crimes de assédio ou bullying, muitas vezes preservados falsamente em nome do direito à liberdade de expressão. Assim, impor regras que mitiguem essas obrigações, como já foi proposto no Brasil por meio da Medida Provisória nº 1068, de 06 de setembro de 2021, prejudicaria a possibilidade de internautas no Brasil terem a sensação de segurança para se expressar, e fomentaria uma internet sem diversidade de espaços, na qual poderiam imperar mais violência e mais conteúdo indesejado não solicitado. Esse cenário, sim, violaria frontalmente a liberdade de expressão e o acesso à informação de todas as pessoas. - Coletivo Digital (comentário inserido por: RAUL LUIZ) 16/07/2023 às 20:38Contribuição feita a partir do Coletivo Soberania Digital. O Soberania Digital é representado por diversos coletivos que atuam com inclusão digital, cultura digital, cultura hacker, metarecilagem, etc. O grupo conta com representantes de diversos estados do Brasil.
Participaram dessa construção: Alexandre Mesquita, Beatriz Tibiriça, Gabriel Vieira, Hernani Dimantas, Jader Cama, Jesulino de Souza, Maíra Begali, Nilce dos Santos, Oona de Castro, Raul Luiz, Silvana Lemos, Uirá Porã, Vicenzo Tozzi, Vilmar Nascimento, Wilken Sanches.
Destacamos alguns riscos medidas de mitigação que devem ser considerado para a necessidade da regulação das plataformas digitais.
RISCOS
- Vício em plataformas
- Design tecnológico afeta o design de pensamento
- Consumo exagerado de informação confusão
- Aprofundamento dos estereótipos
- Falta de padrões de dados insegurança
- Ineficiência programada
- Discurso de ódio gera engajamento e monetização design feito para isso
- Alienação técnica de gestores públicos, parlamentares e judiciário.
- Falta de alternativas não comerciais que protegem dados.
MEDIDAS DE MITIGAÇÃO
- Direito de acesso ao software, capacidade de modificar a tecnologia. Exemplo – retirar APPs da tecnologia.
- Letramento digital e formação tecno política para servidores e gestores públicos.
- Governo assumir plataformas de interesse público. Ex. Mapas e e-mails.
- Letramento e cultura digital nas escolas e cursos de pedagogia.
- Regulação de padrões de dados e APIs de interesse público. Modelo RFC.
- Obrigação de linguagem simples em termos de usos e políticas de privacidade.
- Algoritmos locais de moderação e curadoria de conteúdo.
- Interoperabilidade obrigatória para grandes plataformas.
- Princípios e limites para design de plataformas e algoritmos.
- Uso de satélites públicos e estatais para informação independente. - Coletivo Digital (comentário inserido por: RAUL LUIZ) 16/07/2023 às 20:32Contribuição feita a partir do Coletivo Soberania Digital. O Soberania Digital é representado por diversos coletivos que atuam com inclusão digital, cultura digital, cultura hacker, metarecilagem, etc. O grupo conta com representantes de diversos estados do Brasil.
Participaram dessa construção: Alexandre Mesquita, Beatriz Tibiriça, Gabriel Vieira, Hernani Dimantas, Jader Gama, Jesulino de Souza, Maíra Begali, Nilce dos Santos, Oona de Castro, Raul Luiz, Silvana Lemos, Uirá Porã, Vicenzo Tozzi, Vilmar Nascimento, Wilken Sanches.
Destacamos alguns riscos medidas de mitigação que devem ser considerado para a necessidade da regulação das plataformas digitais.
RISCOS
- Obrigatoriedade do uso de plataformas para acesso a direitos, serviços e projetos sociais
- Uso de dados por grandes corporações e pelo estado de modo a prejudicar acesso a direitos
- Deep Fake de dados
- Precificação de dados ambientais, geográficos e populacionais
- Uso indevido de dados para objetivos não informados.
- Unificação e troca/comércio de dados perfilares entre plataformas
- Acesso a informações estratégicas por plataformas.
- Impossibilidade de cancelar serviços digitais.
MEDIDAS DE MITIGAÇÃO
- Direito à exclusão digital – direito a não ter a vida digitalizada, obrigatoriedade de entrega de dados para ter acesso à direitos.
- Monitoramento ambiental por populações locais, com plataformas de código aberto e transparência de dados.
- “Agrofloresta de dados”, cui-dados sementes orgânicas ancestrais
- Planejamento de infraestrutura digital comunitária distribuída (hortas comunitárias digitais)
- Infraestruturas comunitárias; redes – datacenter; núcleos de formação continuada.
- Ampliação de plataformas de governo/serviços públicos. - Coletivo Digital (comentário inserido por: RAUL LUIZ) 16/07/2023 às 20:25Contribuição feita a partir do Coletivo Soberania Digital. O Soberania Digital é representado por diversos coletivos que atuam com inclusão digital, cultura digital, cultura hacker, metarecilagem, etc. O grupo conta com representantes de diversos estados do Brasil.
Participaram dessa construção: Alexandre Mesquita, Beatriz Tibiriça, Gabriel Vieira, Hernani Dimantas, Jader Cama, Jesulino de Souza, Maíra Begali, Nilce dos Santos, Oona de Castro, Raul Luiz, Silvana Lemos, Uirá Porã, Vicenzo Tozzi, Vilmar Nascimento, Wilken Sanches.
Elencamos alguns riscos que devem ser considerado para a necessidade da regulação das plataformas digitais.
RISCOS
- Falta de autonomia tecnológica da população
- Acesso limitado e limitante
- Dependência tecnológica
- Risco à democracia
- Relacionar os problemas ambientais com o avanço das plataformas
- Aumento da desinformação
- Avanço do fascismo e discursos de ódio
- Rapina, ou roubo, de dados sobre os biomas brasileiros
- Rapina, ou roubo, de dados de alunos de escolas públicas
MEDIDAS DE MITIGAÇÃO
- Conectividade significativa como direito
- Plano de autonomia tecnológica
- Articulação com a economia de fronteira do conhecimento técnico científico e saber ancestral.
PNIC que dialogue com a sociedade civil.
- Regulação específica sobre uso de dados de crianças, adolescentes, ambientes educacionais e científicos.
- Fundo de soberania tecnológica nacional recebe recursos proporcional ao lucro de grandes plataformas financia pesquisas de impacto ambiental, mental, social e cultural.
- Criação de um fundo de plataformas para tratamento de distúrbios mentais, relacionados ao uso de aplicações de Internet.
- Zero rating de serviços de interesse público.
- Proibir franquia de dados. - Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 19:48Precisamos pensar mecanismos que protejam as populações minorizadas para que não sejam alvo de cerceamento de seus livre pensamento e expressão nas plataformas digitais. É preciso que não sejam punidas pelos algoritmos, que acaba restringindo seu alcance junto à comunidade ou injustamente suspendendo suas contas quando defendem seus direitos à vida e à cidadania na luta contra o racismo, machismo e lgtbfobia por exemplo.
- Electronic Frontier Foundation e Access Now (comentário inserido por: Veridiana Alimonti) 16/07/2023 às 19:20(*** Nossa contribuição é uma adaptação de documento publicado pela EFF e Access Now levantando pontos de atenção e balizas sustentadas em padrões internacionais de direitos humanos como uma contribuição ao debate brasileiro de regulação de plataformas e ao PL 2630. A íntegra do documento está disponível aqui: https://www.eff.org/files/2023/07/07/padroes_de_direitos_humanos_como_linhas_de_base_para_a_regulacao_e_prestacao_de_contas_das_plataformas_pt-br.pdf )
Consideramos que as medidas de mitigação aos riscos relacionados a ameaças à democracia e aos direitos humanos devem se estruturar a partir de princípios e preocupações chave alinhados a padrões internacionais de direito humanos, sob pena de criarem, as próprias medidas de mitigação, ameaças à democracia e aos direitos humanos. Apesar dos atuais desafios críticos que nos levam ao debate de regulação de plataformas, é preciso não perder de vista que, há pelo menos uma década, instituições de direitos humanos têm reconhecido o potencial da Internet para concretizar uma série de direitos humanos. As tecnologias digitais se mostraram ferramentas imensamente transformadoras para permitir às pessoas se manifestarem contra atos arbitrários de poderes públicos e privados, empoderando a expressão de grupos historicamente vulneráveis, marginalizados e silenciados, catalisando a organização e a participação cívica e facilitando formas inovadoras de construir e compartilhar conhecimento coletivamente. Desde então, o direito de buscar, receber e difundir informações tem possibilitado o exercício de outros direitos e fortalecido o ecossistema da Internet.
Devemos ter a capacidade de modelar respostas a retrocessos e a desafios críticos atuais protegendo o potencial positivo das tecnologias digitais e o papel essencial que a liberdade de expressão, incluindo o acesso à informação, desempenha na preservação de sociedades democráticas.
Há pontos de preocupação cruciais que o debate sobre regulação de plataformas deve considerar atentamente. Como passamos a elaborar nesta contribuição, há um conjunto de questões que as partes interessadas devem examinar e encaminhar antes de aprovar uma nova regulação. Os mais relevantes são:
Neutralizar os riscos de abuso de regulações baseadas em conteúdo, abandonando as obrigações de dever de cuidado, privilegiando avaliações de impacto sistêmico e explicitando que a atuação diligente das plataformas não significa monitoramento e filtragem geral de conteúdos dos usuários.
Garantir freios, contrapesos e garantias de devido processo robustos para a aplicação de regras específicas a situações de conflito e risco iminente, se existentes.
Conceber de forma criteriosa e garantir os meios apropriados para estabelecer uma estrutura adequada de supervisão independente, autônoma, participativa e multissetorial para a regulação em debate.
Estabelecer garantias claras contra o aumento da vigilância e os riscos de segurança relacionados.
Abster-se de conceder proteções especiais a declarações de autoridades estatais, que têm responsabilidades especiais conforme padrões internacionais de direitos humanos.
Estes pontos de preocupação serão discutidos abaixo e em nossas respostas a outras perguntas desta consulta.
Garantias claras contra o aumento da vigilância e dos riscos de segurança relacionados.
A Declaração Conjunta de 2016 [1] dos Relatores Especiais para a Liberdade de Expressão que trata dos esforços do governo para combater o extremismo violento enfatiza que os Estados não devem adotar e devem revisar leis e políticas que envolvam medidas que enfraqueçam as ferramentas de segurança digital existentes. Leis voltadas à regulação de plataformas precisam deixar claro que suas disposições não devem implicar mudanças nos sistemas das plataformas para introduzir vulnerabilidades de segurança ou comprometer as proteções de privacidade por padrão. Isso é de vital importância para preservar as implementações de criptografia de ponta-a-ponta em aplicações de internet e prevenir intuitos de enfraquecer os princípios e proteções fundamentais da criptografia.
Por exemplo, o artigo 8º do PL 2630 já estipula que as medidas que os provedores implementem em conformidade com o projeto de lei devem preservar a segurança da informação e a proteção de dados pessoais. Isso é bom, mas a disposição deve ir além para repelir explicitamente aplicações da lei que busquem introduzir vulnerabilidades nos sistemas das plataformas ou fazer com que as aplicações de internet adotem outras medidas que possam aumentar sistematicamente o risco de incidentes de segurança.
Além disso, o projeto de lei contém regras que ampliam as obrigações de retenção de dados existentes. Neste ponto, a Declaração Conjunta de 2015 sobre situações de crise afirma que “requisitos para reter ou práticas de retenção de dados pessoais de forma indiscriminada com o fim de aplicação da lei ou segurança não são legítimos. Pelo contrário, os dados pessoais deveriam ser retidos por motivos de aplicação da lei ou segurança apenas de forma limitada e direcionada e de uma maneira que represente um equilíbrio adequado entre as necessidades de aplicação da lei e de segurança e os direitos à liberdade de expressão e privacidade”.
A previsão mais problemática relacionada às obrigações de guarda de dados se encontra no artigo 46 do PL 2630. Para uma análise mais detida dessa previsão, ver: https://www.eff.org/files/2023/07/07/padroes_de_direitos_humanos_como_linhas_de_base_para_a_regulacao_e_prestacao_de_contas_das_plataformas_pt-br.pdf
[1] https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=1022&lID=2 - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:40A vigilância persistente e a falta de compromisso com a não transferência de dados e informações para países ou governos autoritários, ou em transição autoritária, ou que possuem o potencial de ameaças direitos fundamentais e liberdades individuais. As plataformas digitais estão em uma posição precária onde elas podem inadvertidamente facilitar tais transferências. Para atenuar esse risco, é essencial implementar protocolos rigorosos de segurança e privacidade para proteger os dados dos usuários. Adicionalmente, as políticas de transparência devem ser fortalecidas para permitir que os usuários compreendam completamente como suas informações estão sendo usadas e como podem ser compartilhadas – com terceiros ou com autoridades.
Outra questão de importância crescente é a discriminação, em particular o monitoramento e classificação de perfis LGBTQIA+, para recomendação de conteúdo e captura da atenção (Seaver, 2019). O risco potencial de vazamentos de dados apresenta sérias implicações, tais como a exposição não autorizada dessas informações, que pode resultar em discriminação, assédio e outros danos para os membros dessas comunidades. Para prevenir isso, é fundamental implementar sistemas de segurança de dados mais robustos e conscientizar os usuários sobre os riscos de compartilhar informações pessoais sensíveis. Ademais, canais eficientes para a denúncia de violações dessas políticas precisam ser estabelecidos, como pontes mais diretas de reclamação de usuários com a Autoridade Nacional de Proteção de Dados ou órgãos de defesa do consumidor (SENACON ou PROCON), promovendo assim um ambiente digital mais seguro e inclusivo.
Referências: SEAVER, Nick. Captivating algorithms: Recommender systems as traps. Journal of material culture, v. 24, n. 4, p. 421-436, 2019. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:39A vigilância persistente e a falta de compromisso com a não transferência de dados e informações para países ou governos autoritários, ou em transição autoritária, ou que possuem o potencial de ameaças direitos fundamentais e liberdades individuais. As plataformas digitais estão em uma posição precária onde elas podem inadvertidamente facilitar tais transferências. Para atenuar esse risco, é essencial implementar protocolos rigorosos de segurança e privacidade para proteger os dados dos usuários. Adicionalmente, as políticas de transparência devem ser fortalecidas para permitir que os usuários compreendam completamente como suas informações estão sendo usadas e como podem ser compartilhadas – com terceiros ou com autoridades.
Outra questão de importância crescente é a discriminação, em particular o monitoramento e classificação de perfis LGBTQIA+, para recomendação de conteúdo e captura da atenção (Seaver, 2019). O risco potencial de vazamentos de dados apresenta sérias implicações, tais como a exposição não autorizada dessas informações, que pode resultar em discriminação, assédio e outros danos para os membros dessas comunidades. Para prevenir isso, é fundamental implementar sistemas de segurança de dados mais robustos e conscientizar os usuários sobre os riscos de compartilhar informações pessoais sensíveis. Ademais, canais eficientes para a denúncia de violações dessas políticas precisam ser estabelecidos, como pontes mais diretas de reclamação de usuários com a Autoridade Nacional de Proteção de Dados ou órgãos de defesa do consumidor (SENACON ou PROCON), promovendo assim um ambiente digital mais seguro e inclusivo.
Referências: SEAVER, Nick. Captivating algorithms: Recommender systems as traps. Journal of material culture, v. 24, n. 4, p. 421-436, 2019.
- Tarcizio Silva 16/07/2023 às 16:13A utilização de sistemas algorítmicos para automatizar tarefas em plataformas digitais tem levado a impactos discriminatórios em diversas dimensões, inclusive interseccionais. O histórico e o potencial de discriminação, notadamente o racismo algorítmico, deve ser levado em conta. Empresas provedoras de serviços de plataformas digitais devem incluir em seus relatórios de transparência e accountability as medidas de combate à discriminação racial, de gênero, região e outras, inclusive discriminação indireta ou por “proxy”.
O estado brasileiro, por sua vez, deve investir em programas para grupos interdisciplinares da academia, sociedade civil e governo para desenvolvimento, análise e auditoria de sistemas algorítmicos em conformidade com o Estatuto da Igualdade Racial. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:56Meio Ambiente e Bem-Estar
Risco relacionado ao transtorno de déficit da natureza
A ideia de “transtorno de déficit de natureza” foi cunhada por Richard Louv, e diz respeito à privação, na atualidade, do contato direto com a natureza e de seus benefícios para a saúde física e psíquica (https://criancaenatureza.org.br/pt/acervo/transtorno-do-deficit-de-natureza-o-que-e-isso/). Diversos são as notícias que identificam riscos associados ao vício em tela, que pode culminar, inclusive, em situações de violência (https://www.otempo.com.br/interessa/vicio-em-telas-gera-problemas-fisicos-e-psicossociais-1.2642989). Ressaltamos que a ideia do transtorno de déficit da natureza não diz respeito apenas à utilização de plataformas digitais, mas dialoga com um contexto sociocultural e econômico que também é afetado pela insegurança pública, por noções culturais de exploração do meio ambiente e, claro, por aprofundamento do uso de telas após a pandemia do Covid-19.
O direito ao meio ambiente ecologicamente equilibrado possui proteção constitucional (Art. 225 da Constituição Federal) e, ainda, é reforçado pelo art. 7º do ECA, que estabelece que crianças e adolescentes têm direito ao “desenvolvimento sadio e harmonioso, em condições dignas de existência”. Nesse mesmo sentido, a Lei 6938/81 (Política Nacional do Meio Ambiente) conta, em seu art. 2º, inciso X, com a proposta da educação ambiental para fomento de vínculos com o meio ambiente.
Uma agenda propositiva que busque a garantia da preservação ambiental e dos vínculos humanos e afetivos com a natureza dialoga com o bem-estar, a preservação da saúde mental, física e ambiental, na luta por uma natureza possível, quela que está acessível a todos, nos canteiros, jardins, praças, parques, praias e florestas, urbanas e remotas. O desenvolvimento do vínculo afetivo com a natureza propõe a gênese de uma sociedade capaz de assumir atitudes sustentáveis. A conexão com a natureza é benéfica para o desenvolvimento da criança e do adolescente, da humanidade e também para a saúde do planeta. Nesse sentido, agendas propositivas como o desemparedamento da infância, cidades ricas em natureza, aprendizagem ao ar livre e a garantia do direito à mobilidade e segurança podem ter efeitos transformadores na democracia e nos Direitos Humanos.
Para saber mais: Criança e Natureza, do Instituto Alana (https://criancaenatureza.org.br/pt/) e Benefícios da Natureza no Desenvolvimento
de Crianças e Adolescentes (https://www.sbp.com.br/fileadmin/user_upload/manual_orientacao_sbp_cen1.pdf)
A garantia da oferta de oportunidades de cultura, lazer e brincar em locais físicos
109. Estados Partes devem assegurar que a promoção de oportunidades de cultura, lazer e brincar no ambiente digital seja equilibrada com o fornecimento de alternativas atraentes nos locais físicos onde as crianças vivem. Sobretudo em seus primeiros anos, as crianças adquirem linguagem, coordenação, habilidades sociais e inteligência emocional em grande parte por meio de brincadeiras que envolvem movimento físico e interação direta face a face com outras pessoas. Para crianças mais velhas, brincadeiras e recreação que envolvam atividades físicas, esportes de equipe e outras atividades recreativas ao ar livre podem proporcionar benefícios à saúde, bem como habilidades funcionais e sociais.
Fonte: Item 109 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 230 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Risco relacionado ao impacto ambiental do modelo de negócios e de tecnologias emergentes
Atualmente, a humanidade enfrenta desafios relacionados ao meio ambiente, que pode ser localizada a partir da visão de uma quádrupla crise planetária: a crise climática, a crise da perda de biodiversidade, a crise da poluição e a crise invisível e transversal de transtorno de déficit da natureza, ou seja, de desconexão do ser humano da natureza. É necessário que o desenvolvimento tecnológico, bem como a visão de mitigação de riscos sobre desenvolvimento de plataformas digitais, considere o impacto ambiental causado por essas tecnologias. Destacamos, nesse sentido, o efeito ambiental da tecnologia blockchain (https://www.pwc.com/us/en/services/digital-assets/blockchain-environmental-impact.html), do uso em escala da IA Generativa (https://towardsdatascience.com/environmental-impact-of-ubiquitous-generative-ai-9e061bac6800) e de plataformas digitais em geral (https://www.datacamp.com/blog/environmental-impact-data-digital-technology). - João Coelho 15/07/2023 às 15:56Acesso:
Riscos relacionados à falta de acesso à Internet ou conectividade significativa de crianças e adolescentes:
“Em primeiro lugar, cabe ressaltar que o debate sobre a proteção de dados pessoais não pode prescindir da compreensão das questões relativas ao acesso à internet, vez que essa se trata de uma variável que pode impactar diretamente na qualidade da experiência de cada usuário. A título de exemplo, de acordo com informe comparativo produzido em 2020 pela Comissão Econômica para a América Latina e o Caribe (Cepal) sobre a presença de crianças e adolescentes em ambientes digitais no Brasil, Chile, Costa Rica e Uruguai, a modalidade de acesso mais utilizada nos quatro países citados eram os dispositivos móveis (telefones celulares), o que está associado à falta de habilidades digitais e à não diversidade de participação em ambientes digitais..
Além disso, as ofertas de acesso no modelo zero rating, oferecidas por pacotes de telefonia móvel com maior predominância no Sul Global, potencializam o problema. Nestes contratos, algumas aplicações de internet podem ser utilizadas “gratuitamente” pelo usuário mesmo quando o seu pacote de dados acaba. Além de essa prática limitar o acesso à internet do usuário, os aplicativos por ela oferecidos de forma gratuita geralmente baseiam seu modelo de negócios na coleta e tratamento de dados pessoais de detentores de contas — sendo estes, muitas vezes, crianças e adolescentes.”
Fonte: Dados e direitos na infância e adolescência no ambiente digital: caminhos para a proteção jurídica no Brasil e Argentina. Link: https://www.dataprivacybr.org/wp-content/uploads/2022/07/Dados-e-direitos-na-infancia-e-adolescencia-no-ambiente-digital_VF-ACES.pdf
Garantia de acesso à Internet e infraestrutura adequada para permitir acesso a serviços básicos necessários para ensino à distância e recursos suficientes para orientação à educadores e famílias:
102. Para crianças que não estão fisicamente presentes na escola ou para aquelas que vivem em áreas remotas ou em situações desfavorecidas ou de vulnerabilidade, as tecnologias educacionais digitais podem permitir o aprendizado à distância ou móvel. Estados Partes devem assegurar que haja uma infraestrutura adequada para permitir o acesso de todas as crianças aos serviços básicos necessários para o ensino à distância, incluindo acesso a dispositivos, eletricidade, conectividade, materiais educacionais e apoio profissional. Devem também assegurar que as escolas tenham recursos suficientes para fornecer às mães, pais e cuidadores orientação sobre o ensino remoto em casa e que os produtos e serviços de educação digital não criem ou exacerbem desigualdades no acesso das crianças aos serviços de educação presencial.
Fonte: Item 102 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 218 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Garantia de acesso às tecnologias digitais para crianças em situação de cuidado alternativo
87. É importante que as crianças separadas de suas famílias tenham acesso às tecnologias digitais. Evidências indicam que as tecnologias digitais são benéficas para manter as relações familiares, por exemplo, em casos de separação parental, quando as crianças são colocadas sob cuidados alternativos, com o objetivo de estabelecer relações entre as crianças e potenciais mães e pais adotivos ou famílias temporárias e para reunir as crianças em situações de crise humanitária com suas famílias. Portanto, no contexto de famílias separadas, Estados Partes devem apoiar o acesso a serviços digitais para crianças e suas mães, pais, cuidadores ou outras pessoas relevantes, levando em consideração a segurança e o melhor interesse da criança.
Fonte: Item 87 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 190 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
“Os cuidados alternativos – como família acolhedora, casas-lares ou acolhimento institucional –, consistem em uma medida de proteção utilizada quando crianças e adolescentes encontram-se sem cuidado familiar ou de um responsável legal e, segundo o ECA, deve ocorrer de forma excepcional e provisória. O principal propósito dos serviços de acolhimento é reintegrar as crianças e adolescentes a suas famílias de origem ou, quando impossível, inseri-las em famílias acolhedoras, adotivas ou acolhê-las até a maioridade.
Fonte: ADRIÃO, Maria do Carmo Salviano. Os serviços de acolhimento institucional para crianças e adolescentes: os desafios e o trabalho com a rede de proteção social. Fundação Getúlio Vargas, 2013. Referência Legal: art. 19, ECA; Plano Nacional de Promoção e Defesa dos Direitos de Crianças e Adolescentes à Convivência Familiar e Comunitária”
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 190 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Garantia de acesso à tecnologias assistivas e acessíveis, garantindo incentivos para reduzir preço dos produtos e campanhas de informação sobre as tecnologias disponíveis:
As tecnologias assistivas e acessíveis, compreendidas como recursos e serviços promovem a funcionalidade, participação, qualidade de vida e inclusão social das pessoas com deficiência, são consideradas um direito básico, consagrado em especial na Lei Brasileira da Inclusão (Lei nº 13.146/2015). Ainda assim, pesquisas indicam que há sérios problemas referentes à apropriação e uso dessas tecnologias pela população brasileira, com destaque para a falta de informação sobre os recursos existentes, os altos custos dos produtos e a ausência de políticas públicas abrangentes e suficientes.
Fonte: SONZA, Andréa Poletto (org.). Conexões assistivas: tecnologias assistivas e materiais didáticos acessíveis. 1. ed. Graffoluz Editora, 2020. Referência Legal: art. 4º, §1º da Lei nº 13.146/2015 e art. 23 da CRC.
Para ver mais: Coalizão Brasileira pela Educação Inclusiva e Inclusive: inclusão e cidadania.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 197 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Medidas de Mitigação sobre a falta de acesso à Internet ou conectividade significativa de crianças e adolescentes:
26. Estados Partes devem assegurar o funcionamento de mecanismos eficazes de proteção à criança online e políticas de segurança, respeitando também os outros direitos da criança, em todos os ambientes onde as crianças tenham acesso ao ambiente digital, o que inclui o lar, ambientes educacionais, cybercafés, centros de juventude, bibliotecas e ambientes de saúde e cuidados alternativos.
Fonte: Item 26 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 78 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Ressaltamos, nesse caso, a oportunidade de criação de espaços públicos e seguros para acesso à Internet e estímulo à invenção, à troca, à criatividade, à brincadeira e aos estudos no digital - ampliando oportunidades e possibilidades de acesso ao direito à cultura e à educação. Outras experiências inspiracionais são as de redes comunitárias: https://sites.usp.br/naifeusp/redes-comunitarias-internet-para-escolas-e-comunidades/. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:54Não garantir direitos fundamentais de crianças e adolescentes é um risco à democracia em si:
“A vulnerabilidade intrínseca da criança (e do adolescente) é decorrente de um estado a priori. Está diretamente relacionada ao próprio desenvolvimento infantojuvenil e ao potencial impacto da falta de cuidado e de violências que sejam perpetradas durante essa fase da vida do ser humano, seja para o indivíduo, seja para a coletividade, de imediato, no presente da vida da criança, ou no futuro, para toda sua vida adulta. (...) Mesmo porque, o grupo social constituído pelas crianças, em que pese seu imenso contingente numérico, pode ser compreendido como uma minoria “no sentido de fragilidade política e de proteção de seus interesses enquanto cidadãos cuja vida tem o mesmo valor de qualquer outra” e, por isso, cuja proteção nas democracias contemporâneas é indispensável.
Garantir que todas as crianças possam usufruir, plenamente, o ambiente digital estando protegidas e com seus direitos respeitados é, ademais, condição essencial para a garantia de um ambiente digital harmonioso para todas as pessoas, ou seja, para toda a humanidade. (...) Assim, considerando-se que são colossais os reflexos acerca da forma que o ambiente digital trata a criança, é certo que seu impacto também esparrama para a democracia. Não somente porque a criança está sendo formada, constituindo saberes, valores éticos, estéticos e políticos, em direção à pessoa adulta que será no futuro, mas porque a criança já é no presente. Os desafios que as agruras da escassez e das violências acarretam ao desenvolvimento holístico da criança e à capacidade de autonomia progressiva do seu ser já influenciam sobremaneira os rumos da noção. Da mesma forma, o sentimento de vazio decorrentes dos excessos sem afeto, sem vínculo, sem presença e sem participação forjam a identidade da criança em relação ao que ela é hoje e ao que será no futuro, individual e coletivamente.”
Fonte dos trechos: Direitos Fundamentais da Criança no Ambiente Digital, Isabella Henriques, capítulo 6 - Internet Society Capítulo Brasil (comentário inserido por: GT-RI ISOC Brasil) 14/07/2023 às 15:22Os riscos acima mencionados compreendem parte importante, embora não exaustiva, dos elementos a serem considerados na construção de novos elementos que componham o marco regulatório sobre Internet do país. Eles representam problemas fundamentais que têm sido sistematicamente afirmados como relevantes e urgentes dentro do lugar que plataformas digitais, em especial as de mídias sociais e de mensageria, têm assumido na contemporaneidade.
Nesses termos, o Grupo de Trabalho de Responsabilidade de Intermediários do capítulo brasileiro da ISOC Brasil considera que o modelo de responsabilidade já existente no Marco Civil da Internet é plenamente adequado para atender às demandas que vêm sendo colocadas. É importante avaliar que o Marco Civil não foi construído e não tem operado como forma de desresponsabilização generalizada ou criação de um ambiente isento de leis. Como um modelo específico e brasileiro de responsabilidade civil aplicada à Internet, mundialmente respeitado, o Marco prevê mecanismos de responsabilização para conteúdos de terceiros, como detalhado na Seção III da Lei 12.965/2014 que têm sido operados pelo Direito brasileiro. Além disso, o faz tendo por base princípios e valores balizados por meio de amplo debate público, e alinhados às propriedades críticas da estruturação e do funcionamento da Internet.
O prudente respeito ao ordenamento jurídico existente há quase uma década no país não é impeditivo ao possível aprimoramento da legislação, mas consideramos, também, que processos afins devem ser balizados no reconhecimento e continuidade dos fundamentos, princípios e objetivos nele estabelecidos. O Marco Civil, além disso, expressa igualmente os resultados benéficos e inigualáveis de processos legislativos feitos com abertura e centralidade para a participação social, multissetorial e democrática, de atores interessados, o que também integra a tradição legislativa por ele representada e o valor de que novas iniciativas atenham-se também à necessidade e proporcionalidade em relação aos problemas a serem enfrentados.
Nesses temas, o enfrentamento dos riscos acima dispostos pode ter por base não o descarte do acúmulo representado pelo Marco Civil, mas a sua completa efetivação e possíveis aprimoramentos compatíveis ao corpo da Lei, com atenção à crescente relevância de mecanismos de transparência e respeito ao devido processo legal, dentro e fora do ambiente imediato das plataformas. - Alex Camacho Castilho 12/07/2023 às 15:031. Riscos associados à manipulação algorítmica: As plataformas digitais utilizam algoritmos para determinar o conteúdo apresentado aos usuários, o que pode criar bolhas de informação, amplificar visões extremistas e reforçar polarizações sociais. Uma medida de mitigação é promover a transparência e a responsabilidade algorítmica, exigindo que as plataformas revelem como seus algoritmos operam e implementem salvaguardas para evitar vieses e discriminações. Além disso, é importante investir em pesquisa e desenvolvimento de algoritmos mais equitativos e diversificados.
2. Riscos associados à vigilância em massa e à violação da privacidade: O uso indiscriminado de tecnologias de vigilância, tanto pelo Estado quanto pelas plataformas digitais, pode comprometer a privacidade dos indivíduos e ameaçar a liberdade de expressão e os direitos humanos. Medidas de mitigação incluem a proteção robusta da privacidade, garantindo que a coleta e o uso de dados sejam restritos e regulamentados, além de reforçar a supervisão e a prestação de contas das práticas de vigilância.
3. Riscos associados à censura e à restrição da liberdade de expressão: Embora a disseminação de desinformação e discursos de ódio seja uma preocupação, a regulação das plataformas digitais deve evitar práticas arbitrárias de censura que possam restringir indevidamente a liberdade de expressão. Uma medida de mitigação é estabelecer diretrizes claras e transparentes para a moderação de conteúdo, garantindo a proteção da liberdade de expressão dentro dos limites estabelecidos pela legislação e pelos padrões internacionais de direitos humanos.
4. Riscos associados à falta de transparência nas práticas de publicidade política: A publicidade política nas plataformas digitais pode influenciar de maneira significativa as eleições e o debate público. A falta de transparência nessas práticas pode comprometer a integridade do processo democrático. Medidas de mitigação incluem a regulamentação da publicidade política, exigindo a divulgação de informações sobre os anunciantes, financiamento e critérios de segmentação de anúncios. Além disso, é importante promover a diversidade e a imparcialidade do conteúdo político.
5. Riscos associados à responsabilização das plataformas digitais: A falta de responsabilização das plataformas digitais por conteúdos ilegais ou prejudiciais pode gerar impunidade e perpetuar violações dos direitos humanos. Medidas de mitigação envolvem o estabelecimento de um quadro regulatório claro que responsabilize as plataformas por conteúdos ilegais, incentivando práticas de moderação justas e eficazes, além de mecanismos adequados de reclamação e recurso para os usuários afetados. - Jackson Ezidio de Deus 06/07/2023 às 15:33O maior risco que corremos é o próprio Estado regulando cada vez mais a vida das pessoas que não pediram por isso.
- ROSA VICARI 23/06/2023 às 16:40Existe um número pequeno, mas significativo de sistemas de IA, que podem mudar grande parte do funcionamento do processo democrático que conhecemos atualmente, para além dos citados neste documento. Por exemplo, sistemas de participação direta da população, via plataformas digitais, para a sugestão de Leis ou de Políticas Públicas. Todo o processo de escrita e adequação das propostas, à Constituição do país é feita de forma automática.
- Rede Narrativas (comentário inserido por: ROBERTA TASSELLI) 22/06/2023 às 15:57[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
Riscos relacionados a crianças e adolescentes:
- sobre a transparência no "monitoramento" desses conteúdos: é fato que autores dos recentes ataques contra escolas manifestam comportamentos violentos nas redes sociais. Antes, precisávamos acessar a deep web para entrar em contato com certos conteúdos, hoje você acessa esses conteúdos em redes sócias, facilmente; - Rede Narrativas (comentário inserido por: ROBERTA TASSELLI) 22/06/2023 às 15:36[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
Ter reguladores locais e regionais, respeitando legislação nacional
Garantir alcance de conteúdos educativos e verdadeiros, garantindo que essa moderação não seja feita apenas por plataformas;
Canais de denúncia e reclamação mais acessíveis, na língua local, para derrubada, roubo de perfis etc.
Relacionado ao aspecto das crianças e adolescentes, uma escuta feita de forma global trouxe como uma das demandas dessa faixa etária a necessidade de termos de uso no idioma deles e que fossem de fácil compreensão;
Autorregulação não é solução, é mais fácil para essas plataformas de atuação global - Rede Narrativas (comentário inserido por: Larissa Sampaio) 22/06/2023 às 15:35[SUGESTÃO ENVIADA PELA REDE NARRATIVAS] Medidas de mitigação:
1) Medidas de mitigação referente aos vieses algorítmicos. Avaliação de padrões de código que imprimem: racismo, misogenia, etarismo, homofobia, machismo etc.
2) Ações de verificação nas plataformas digitais para identificar, por exemplo, perfis falsos.
3) Ações de monitoramento de conteúdo pago que avalie idoneidade do conteúdo impulsionado - Rede Narrativas (comentário inserido por: ROBERTA TASSELLI) 22/06/2023 às 15:34[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
Passa também pela regulação de mídia em geral, incluindo os grandes conglomerados ;
Remodelar o modelo de atenção das plataformas, retirar monetização por engajamento;
Plataformas não querem remunerar grandes conglemados de mídia e esse não é o caminho;
Banir funcionalidade de engajamento baseado em ódio e monetização desses conteúdos;
Obrigação de esforço ativo das plataformas em combater os discursos de ódio; Dúvidas sobre como remunerar produtores de conteúdo (incluindo grandes mídias e nós);
Construção de um comitê com sociedade civil, governo e plataformas, para não ficar na mão das plataformas os critérios de remoção - Fernando Gentil 22/06/2023 às 15:26[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
Riscos associados à perseguição para inibir a capacidade de atuação de pessoas e organizações com posicionamentos contrários
Riscos de ameaça à vida e integridade física de pessoas por linchamentos digitais
Riscos relacionados à saúde mental de populações, principalmente mulheres: Conteúdos que incentivam padrões corporais, comportamentais e sexuais.
Riscos relacionados ao tipo de conteúdo consumido por crianças e adolescentes:
- Incitação à violência nas escolas
- Incentivo ao suicídio
- conteúdos de estímulo ao consumo
- Cyberbullying
Riscos relacionados a golpes financeiros/pirâmides: alto engajamento (pago) de conteúdo falso/criminoso afeta discernimento sobre veracidade da informação e facilita que outras pessoas cliquem/caiam em golpes por parecer ser algo idôneo.
Disseminação do racismo relgioso direcionados a comunidades de matriz africana.
Disseminação geral do crime de racismo, com risco especial para crianças e adolescentes
Riscos relacionados ao tipo de conteúdo consumidos por crianças e adolescentes - Gabriel Boscardim 06/06/2023 às 09:04Risco da absorção e naturalização das desigualdades sociais pelas plataformas, ou ainda da criação de novas formas de discriminação nunca antes vistas, como por exemplo o racismo algoritmo.
Para mim, esse problema só pode ser resolvido com auditorias externas nos algoritmos das plataformas, que possam verificar se os sistemas, e principalmente as inteligências artificiais, possuem viéses no seu funcionamento. Assim, a auditoria poderia dizer se aquele algoritmo já está pronto para uso ou não. As auditorias teriam o poder de testar os algoritmos como num laboratório, afinal, alguns problemas só aparecem quando realmente colocamos os algoritmos pra funcionar. Disso, haveria um parecer favorável ou não à disponibilização dessa tecnologia para o público geral. - Anderson Nascimento Nunes 26/05/2023 às 13:49As plataformas estrangeiras podem fazer uso de vigilância eletromagnética para invadir a privacidade dos usuários e se valer disso para ajustar seus algoritmos sem que os usuários possam perceber o modo de coleta de dados.
Enquanto as pessoas estiverem sujeitas à espionagem eletromagnética e enquanto não for reconhecido que plataformas estrangeiras já fazem uso disso para selecionar quais conteúdos seus algoritmos exigirão ao usuário, nenhum tipo de regulação garantia os direitos dos usuários. - Victor Lippi Zaccariotto 13/05/2023 às 20:21Assim como crianças e adolescentes não tem maturidade suficiente para algumas questões, é notável que isso também vem ocorrendo com pessoas de idade mais avançada. Sabemos que no processo de envelhecimento voltamos a ser criança. Acontece que no meio digital isso tem acontecido de forma prematura. Embora possam existir exceções, a regra é que esse público com idade mais avançada é alvo de golpes e desinformação de maneira alarmante. Seria interessante algum estudo que possa comprovar a relação de boletins de ocorrência de golpes digitais com idades mais avançadas. Assim como tende há existir supervisão desses públicos em atividades no mundo não digital (por filhos, netos, etc), deveria haver uma avaliação no mundo digital nesse sentido, na intenção de criar mecanismos de supervisão. Infelizmente, a maioria desse público acredita em praticamente tudo que vê na internet, o que pode agravar ainda mais os riscos citados acima.
- Cláudio Machado 26/04/2023 às 17:26Um risco estruturante das plataformas digitais é a falta de mecanismos de identificação segura dos usuários.
Isso permite o roubo de identidade, a falsidade ideológica, a proliferação de uso de robôs. Sem a identificação segura dos usuários não é possível proteger crianças e adolescentes de forma efetiva, entre outras graves consequências.
Medida de mitigação: as plataformas devem validar os cadastros dos usuários em bases de dados oficiais. O pseudônimo deve ser possível, gatantindo a liberdade de expressão, mas o cadastro das plataformas devem guardar os dados básicos mínimos necessários e suficientes o usuários. - Rodrigo Pereira 25/04/2023 às 20:17Temos muitos impactos da era digital para sermos mais atentos e efetivar o controle social. Principalmente no que tange às novas gerações. Os mais conhecidos são sobre a dependência tecnológica, que pode levar a uma alta exposição ingenua de dados sensíveis por crianças sem nenhuma psicopedagogia digital, exposição à violências e violações de direito, exposição excessiva a radiação de microondas (se o bip do forno sempre foi perigoso, é claro que roteadores 24h por dia dentro de casaa, com celulares, tablests, bluetooth, antenas por todo lado e demais emissões de microondas certamente serão pior para saúde - e nem ao princípio de precaução se dá ouvido!), sem falar nos impactos ambientais de lixo tecnológico, etc. Tenho um livro no prelo tratando de 6 eixos de ponderação sobre os impactos propondo uso racional na era digital, com programa de capacitação de professores e conscientização de pais através das escolas, como fiz voluntariamente em minha região em 2017...
- Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:50O ITI gostaria de encorajar o governo brasileiro a discutir e considerar minuciosamente o impacto de quaisquer mudanças significativas no modelo de governança da Internet no Brasil, previsto no Marco Civil da Internet (MCI). O MCI é considerado a melhor prática global em termos de seu desenvolvimento aberto e transparente e seu estabelecimento de princípios flexíveis e testados pelo tempo que transcendem as questões de política de tecnologia que surgem em um determinado momento.
- Electronic Frontier Foundation e Access Now (comentário inserido por: Veridiana Alimonti) 16/07/2023 às 19:53(*** Esta contribuição é uma adaptação do documento da EFF e da Access Now publicado como contribuição ao debate brasileiro de regulação de plataformas e ao PL 2630. A íntegra do documento está disponível aqui: https://www.eff.org/files/2023/07/07/padroes_de_direitos_humanos_como_linhas_de_base_para_a_regulacao_e_prestacao_de_contas_das_plataformas_pt-br.pdf )
AFASTAR INTENTOS DE ESTABELECER UMA PROBLEMÁTICA IMUNIDADE A AUTORIDADES PÚBLICAS
Considerando o debate atual em torno do PL 2630, interessa notar que o artigo 33, parágrafo 6º, do projeto de lei amplia a imunidade que a Constituição brasileira garante aos parlamentares por suas opiniões, palavras e votos no exercício de seus mandatos a conteúdos publicados por “agentes políticos” em redes sociais e plataformas de mensageria privada. O termo “agentes políticos” no artigo parece abranger todas as autoridades eleitas nos poderes Executivo e Legislativo nos níveis federal, estadual e municipal, bem como ministros de estado, secretários estaduais e municipais e os dirigentes de entidades governamentais em geral. Se esta disposição for aprovada, este grande conjunto de autoridades estaria imune à responsabilização civil e criminal pelo conteúdo que publicam online.
O projeto de lei confere proteções especiais ao discurso de autoridades públicas, enquanto os padrões interamericanos de liberdade de expressão reconhecem que estas autoridades, pelo contrário, têm obrigações especiais por suas declarações [1]. Tais obrigações incluem o dever de garantir que suas declarações não sejam uma ingerência arbitrária, direta ou indireta, nos direitos daqueles que contribuem para o discurso público com a expressão e difusão de seus pensamentos, o dever de garantir que suas declarações não se configurem como violações de direitos humanos e o dever de razoavelmente verificar os fatos nos quais suas declarações se baseiam.
Tendo em vista esses deveres, a Declaração Conjunta de 2021 [2] dos Relatores Especiais para a Liberdade de Expressão, ao abordar preocupações crescentes com a disseminação da desinformação, enfatizou que os Estados devem “a) [a]dotar políticas que estabeleçam a imposição de medidas disciplinares às pessoas que exercem funções públicas que, atuando ou sendo percebidas como atuando no exercício de suas funções, realizem, patrocinem, incentivem ou sigam disseminando declarações que elas saibam ou deveriam razoavelmente saber que são falsas; b) [g]arantir que as autoridades públicas façam todo o possível para difundir informações precisas e confiáveis, incluindo a respeito das suas atividades e de assuntos de interesse público.
O atual debate regulatório brasileiro se estabelece a partir de preocupações semelhantes, não podendo ignorar o papel que as autoridades públicas proeminentes desempenham na criação, financiamento e disseminação de conteúdo nocivo online. Previsões como esta contradizem os objetivos de enfrentar o problema da infodemia e não devem prosperar.
[1] http://www.oas.org/en/iachr/expression/docs/publications/INTER-AMERICAN%20LEGAL%20FRAMEWORK%20OF%20THE%20RIGHT%20TO%20FREEDOM%20OF%20EXPRESSION%20FINAL%20PORTADA.pdf
[2] https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=1214&lID=2 - Electronic Frontier Foundation e Access Now (comentário inserido por: Veridiana Alimonti) 16/07/2023 às 19:44(*** Esta contribuição é uma adaptação do documento da EFF e da Access Now publicado como contribuição ao debate brasileiro de regulação de plataformas e ao PL 2630. A íntegra do documento está disponível aqui: https://www.eff.org/files/2023/07/07/padroes_de_direitos_humanos_como_linhas_de_base_para_a_regulacao_e_prestacao_de_contas_das_plataformas_pt-br.pdf )
DE 2011 A 2023: LIDAR COM OS DESAFIOS ATUAIS A PARTIR DE PRINCÍPIOS E GARANTIAS EXISTENTES
Desde a declaração conjunta de 2011 sobre Liberdade de Expressão e Internet dos Relatores Especiais para a Liberdade de Expressão, as instituições de direitos humanos vêm ressaltando que as iniciativas governamentais que buscam regular as comunicações online devem preservar e se adaptar às características únicas da Internet. Isso porque tais iniciativas devem ao mesmo tempo ser eficazes e respeitar as características da Internet que potencializam o exercício de direitos e liberdades fundamentais. Quaisquer restrições devem seguir o “teste de três partes”, ou seja, devem ser claramente estabelecidas por lei, estritamente necessárias e proporcionais para alcançar um objetivo legítimo em uma sociedade democrática. Preocupações importantes em torno da fragmentação da Internet, censura colateral, remoção excessiva de expressão legítima e, mais recentemente, complexidades inerentes à moderação de conteúdo em escala, levaram especialistas ao longo dos anos a evitar regulações específicas de conteúdo. Os riscos de aplicação e interpretação arbitrárias de regras que restringem conteúdos em contextos não democráticos ou conflituosos adicionam outras camadas a esse conjunto de preocupações.
A seguir, detalhamos os nossos demais pontos de atenção já apresentados.
OBRIGAÇÕES DE DEVER DE CUIDADO PREOCUPANTES
A evolução das versões do PL 2630 foi uma expressão da opção por uma abordagem baseada em processos, em vez de uma focada em conteúdo, no âmbito de uma iniciativa de regulação com o objetivo de promover maiores compromissos das plataformas online. No entanto, após alterações no início deste ano, o projeto de lei agora contém uma lista de práticas ilícitas, ligadas a conteúdos ilícitos, que as aplicações de internet “devem atuar diligentemente para prevenir e mitigar (…), envidando esforços para aprimorar o combate à disseminação de conteúdos ilegais gerados por terceiros”. Tal previsão diz respeito às obrigações de dever de cuidado, que o projeto de lei não define, porém, ainda assim, operacionaliza sua aplicação. A lista de tais práticas ilícitas, prevista no artigo 11, aponta para disposições em seis leis diferentes que abarcam cerca de 40 infrações penais – cada uma contendo um conjunto de elementos que devem estar presentes para que a conduta seja ilegal. Algumas infrações também têm causas que excluem certas condutas de serem a base de um crime. Por exemplo, tanto a Lei Antiterrorismo (Lei nº 13.260/2016) quanto os crimes contra o Estado Democrático de Direito estabelecidos no Código Penal não se aplicam a manifestações políticas críticas baseadas em direitos constitucionais. De acordo com o artigo 11 do PL, caberia à aplicação de internet considerar todos esses elementos e avaliar se a conduta ou o conteúdo visível através de suas plataformas constituem uma atividade criminosa.
Em alguns casos, é ainda mais difícil entender o que exatamente o provedor de aplicações deve verificar, ou se é algo que ele realmente deve verificar, apesar de sua inclusão na lista de infrações penais do artigo 11. Por exemplo, o artigo 11 se refere genericamente aos crimes contra crianças e adolescentes da Lei nº 8.069/1990. Entre esses crimes está a falha do médico, enfermeiro ou dirigente de estabelecimento de saúde em identificar corretamente o recém-nascido e a mãe parturiente no momento do parto (artigo 229 da Lei nº 8069/1990). Qual é o dever de cuidado esperado das plataformas de internet aqui? Esta regra é um exemplo de uma disposição abrangida pelo artigo 11 que não parece ter qualquer relação com as plataformas online. O artigo 11 também não é muito claro sobre como e quais instituições avaliarão o cumprimento das obrigações de dever de cuidado por parte das aplicações de internet. Ele afirma que a avaliação de cumprimento não focará em casos isolados e incluirá informações que as aplicações de internet fornecerão às autoridades sobre seus esforços para prevenir e mitigar as práticas listadas, bem como a análise dos relatórios da plataforma e como respondem a notificações e reclamações.
Dentro do mesmo PL, o artigo 45 estipula que “quando o provedor tomar conhecimento de informações que levantem suspeitas de que ocorreu ou que possa ocorrer um crime que envolva ameaça à vida, ele deverá informar imediatamente da sua suspeita às autoridades competentes”. Embora um crime envolvendo uma ameaça à vida seja definitivamente uma emergência e uma situação terrível, o artigo 45 estabelece um novo papel de policiamento para aplicações de internet que, mesmo dentro desse escopo estrito, podem dar margem a resultados controversos, potencialmente afetando, por exemplo, mulheres no Brasil que buscam informações online sobre aborto seguro.
As obrigações de dever de cuidado estabelecidas no PL 2630 se sustentam em uma abordagem regulatória que reforça as plataformas digitais como pontos de controle sobre a expressão e as ações online das pessoas. Elas exigem que as aplicações de internet ajam como juízes quanto à legalidade de atos ou conteúdos com base em uma lista de delitos criminais complexos, como se fosse simples programar ferramentas e processos de moderação de conteúdo para reconhecer cada elemento que constitui cada delito. Pelo contrário, estas análises são com frequência desafiadoras até mesmo para juízes e tribunais. Em muitos casos, pessoas divulgam conteúdo sensível precisamente para denunciar a violência institucional, as violações de direitos humanos e a perpetração de crimes em situações de conflito. O compartilhamento de vídeos em redes sociais que expõem casos de discriminação contribui para responsabilizar os ofensores. Durante a onda de protestos no Chile, as plataformas de internet restringiram indevidamente conteúdo que denunciava a dura repressão policial às manifestações, por o terem considerado como conteúdo violento. No Brasil, vimos preocupações semelhantes, por exemplo, quando o Instagram censurou imagens do massacre da comunidade do Jacarezinho em 2021, que foi a operação policial mais letal na história do Rio de Janeiro. Em outras geografias, a missão de restringir o conteúdo extremista já removeu vídeos que documentavam violações de direitos humanos em contextos de conflito em países como Síria e Ucrânia.
Como a Relatoria Especial para a Liberdade de Expressão da Comissão Interamericana de Direitos Humanos (CIDH) destacou [1], enquanto atores privados, as aplicações de internet “não têm a capacidade de ponderar direitos e interpretar a lei em conformidade com os padrões em matéria de liberdade de expressão e outros direitos humanos”, particularmente quando deixar de restringir conteúdos específicos pode ocasionar sanções administrativas ou responsabilidade legal.
Não é que as aplicações de internet não devam fazer esforços para evitar a prevalência de conteúdo pernicioso em suas plataformas, ou que não queremos que elas façam um trabalho melhor ao lidar com conteúdo capaz de causar sérios danos coletivos. Concordamos que elas podem fazer melhor, especialmente por meio da consideração da cultura e realidades locais. Também concordamos que suas políticas devem se alinhar a padrões internacionais de direitos humanos e que devem considerar os impactos potenciais de suas decisões em direitos humanos, de forma a prevenir e mitigar possíveis danos.
No entanto, não devemos misturar a garantia desses compromissos com o reforço das plataformas digitais como pontos de controle sobre a expressão e as ações online das pessoas. Este é um caminho perigoso considerando o poder que já está nas mãos das grandes plataformas e a crescente intermediação de tecnologias digitais em tudo o que fazemos. A abordagem do artigo 11 também é problemática na medida em que estabelece esse controle com base em uma lista de práticas potencialmente ilegais que a correlação de forças política pode mudar e expandir a qualquer momento ou levar a uma aplicação oportunista ou abusiva para restringir o acesso à informação e silenciar críticas ou vozes dissidentes.
Pelo contrário, compromissos de maior diligência e prestação de contas pelas plataformas priorizam uma abordagem sistêmica e baseada em processos pela qual o provedor de aplicações avalia e elabora respostas para prevenir e mitigar os impactos negativos de suas atividades aos direitos humanos. Isso é consistente com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos. O próprio PL 2630 contém disposições sobre avaliação de risco sistêmico e medidas de mitigação relacionadas às atividades das empresas. Os legisladores brasileiros devem priorizar essa abordagem em detrimento das obrigações relativas ao “dever de cuidado”.
Além disso, o conceito de dever de cuidado, como vemos atualmente no debate brasileiro, apresenta um outro risco. Ele pode ensejar interpretações de que as aplicações de internet devem realizar um monitoramento geral do conteúdo de terceiros que elas hospedam. Tais interpretações não são explicitamente negadas no texto do PL 2630, como são, por exemplo, na DSA da UE.
REPELIR REGRAS E INTERPRETAÇÕES QUE POSSAM LEVAR A OBRIGAÇÕES DE MONITORAMENTO DE CONTEÚDO
Os Relatores Especiais para a Liberdade de Expressão afirmaram também [2]: “No mínimo, não se deve exigir que os intermediários controlem o conteúdo gerado por usuários.” E que [3]: “Os sistemas de filtragem de conteúdo que sejam impostos por um governo e não sejam controlados pelo usuário final não representam uma restrição justificada à liberdade de expressão.”
Há pelo menos duas razões principais pelas quais as obrigações gerais de controle de conteúdo não são uma boa ideia. Em primeiro lugar, tais obrigações são talvez a expressão máxima do tratamento de aplicações de internet como uma força de policiamento de tudo o que fazemos e dizemos online, com consequências nocivas para a liberdade de expressão e acesso à informação, e infringindo expectativas de privacidade. Se as práticas comerciais de aplicações de internet frequentemente geram preocupações semelhantes, a resistência da sociedade à vigilância corporativa impulsionou regulações de privacidade e proteção de dados, bem como mudanças nas políticas das empresas em favor da privacidade de usuárias e usuários. Em segundo lugar, o controle geral e a filtragem de conteúdos relacionada falham constantemente, e o fato de ter um desempenho deficiente causa ainda mais preocupações para direitos humanos. Dado o grande volume de novos conteúdos que as pessoas postam e compartilham em plataformas online a cada minuto, a moderação de conteúdo depende cada vez mais de ferramentas automatizadas, refletindo suas limitações e falhas. Regulações ou interpretações que obrigam a adoção dessas ferramentas e vinculam tal obrigação a sanções ou responsabilização de aplicações de internet ampliam o potencial de erros e de aplicação problemática da lei.
Apenas em termos de probabilidade, quando um sistema que já é propenso a cometer erros é ampliado em escala para moderar conteúdos que são gerados em uma taxa de muitos milhões a bilhões de entradas por dia, mais erros ocorrerão. E quando os modelos de aprendizagem são empregados para educar a inteligência artificial (IA) dentro desses métodos, são poucas as chances de esses modelos reconhecerem e corrigirem esses erros. Na maioria das vezes, essas tecnologias reproduzem discriminação e vieses. São propensas a censurar conteúdo lícito, não ofensivo e relevante. Embora defendamos e continuaremos a defender a análise humana em processos de moderação de conteúdo, ter moderadores humanos suficientes trabalhando em condições adequadas para evitar restrições indevidas de conteúdo será um desafio contínuo.
Os sistemas de IA geralmente empregados na moderação de conteúdo incluem algoritmos de reconhecimento de imagem e modelos de processamento de linguagem natural. Quanto às complexidades do treinamento de modelos de linguagem de IA, os especialistas ressaltam que a linguagem depende muito de contextos culturais e sociais e varia consideravelmente entre grupos demográficos, temas de conversa e tipos de plataformas. Além disso, o treinamento de algoritmos de processamento de linguagem exige definições claras e precisas do conteúdo alvo, o que é muito difícil de alcançar com termos complexos normalmente implicados na caracterização de uma prática criminosa ou ilícita. Mesmo que, no geral, consideremos que o estágio atual das ferramentas de processamento de linguagem natural disponíveis mostra um desempenho eficaz em inglês, elas apresentam variações significativas em termos de qualidade e precisão para outros idiomas. Elas também podem reproduzir discriminação nos dados, afetando desproporcionalmente comunidades marginalizadas, como pessoas LGBTQIA+ e mulheres. Modelos de linguagem multilíngue também têm suas limitações, pois podem não refletir bem a linguagem do cotidiano usada por falantes nativos e não levar em conta contextos específicos.
Por sua vez, apesar dos avanços atuais na tecnologia, as ferramentas de reconhecimento de imagem também têm suas limitações. Um bom exemplo está relacionado ao reconhecimento de imagens sexuais. Uma vez que a fronteira exata em relação a imagens sexuais ofensivas e não ofensivas é objeto de discordância, a tendência natural dos sistemas que construímos para reconhecê-las automaticamente e removê-las das plataformas online estará alinhada às estimativas mais conservadoras para minimizar os riscos legais. Isso significa que a expressão que é de outra forma protegida, legal e, muitas vezes proveniente de minorias sexuais, será considerada inadequada. Um caso marcante de censura online privada no Brasil reflete precisamente esse problema. Em 2015, o Facebook bloqueou uma foto do início do século XX de um casal indígena parcialmente vestido, postada pelo Ministério da Cultura para divulgar o lançamento do acervo digital Portal Brasiliana Fotográfica logo antes do Dia dos Povos Indígenas no Brasil.
Da mesma forma, e à medida que nos aproximamos de sistemas sofisticados de IA capazes de determinar com precisão imagens sexuais de outros materiais, nos deparamos com o antigo problema da arte versus pornografia. A arte clássica que retrata a forma nua continua a ser sinalizada como imprópria por algoritmos de moderação, apesar do consenso esmagador de que ela está firmemente na categoria “arte”, e não na qualificação como ilegal ou contrária aos padrões da comunidade. A arte contemporânea confunde ainda mais esses limites, muitas vezes intencionalmente. Nossa capacidade de expressão como seres humanos está em constante mudança, o que continuará a ser um desafio para os desenvolvedores de sistemas de computadores construídos para reconhecer e categorizar o conteúdo gerado por pessoas, o que, em escala, produzirá ainda mais erros.
Uma taxa considerável de erros também pode acontecer em sistemas de reconhecimento de imagem baseados em hashes. Erros comuns enfrentados por esse tipo de tecnologia, como as chamadas “colisões”, ocorrem porque duas imagens diferentes podem ter o mesmo valor hash, criando falsos positivos, onde uma imagem é identificada incorretamente como algo que não é. Isso pode ocorrer por vários motivos, por exemplo, se as imagens forem muito semelhantes, se a função hash não é muito boa em distinguir entre imagens diferentes ou se a imagem foi corrompida ou manipulada. O oposto também pode ocorrer, ou seja, manipular imagens infratoras para que a função hash não as reconheça e sinalize. Além das questões de eficiência, esses sistemas comprometem as proteções inscritas na arquitetura de plataformas digitais que, por padrão, garantem a inviolabilidade das comunicações, privacidade, segurança e proteção de dados, como é o caso da criptografia de ponta-a-ponta.
Quando os sistemas de moderação são dimensionados para tamanhos desproporcionalmente grandes, o alcance de obrigações de monitoramento e denúncia anexadas a eles, se existentes, é dimensionado da mesma maneira. Isso pode ser e tem sido moldado como os olhos e ouvidos de forças arbitrárias e não democráticas.
A regulação de plataformas não deve incentivar interpretações ou regulamentação adicional que exijam o controle geral e filtragem de conteúdo. O PL 2630 deve ser mais explícito para repelir tais interpretações, e o debate regulatório no Brasil sobre compromissos de diligência e prestação de contas das aplicações de internet deve rejeitar essas obrigações por não serem respostas necessárias e proporcionais.
FREIOS, CONTRAPESOS E GARANTIAS DE DEVIDO PROCESSO ROBUSTOS PARA A APLICAÇÃO DE MEDIDAS EXCEPCIONAIS EM SITUAÇÕS DE CRISE, SE EXISTENTES
O PL 2630 estabelece obrigações especiais para quando há um risco iminente de dano ou negligência de um provedor de aplicações (Artigos 12-15). Ao avaliar esta seção do projeto de lei, é fundamental recordar a Declaração Conjunta de 2015 [4] sobre situações de crise. Entre outras recomendações, ela destaca que os “[e]stados não devem responder a situações de crise com a adoção de restrições adicionais à liberdade de expressão, salvo o estritamente justificado pela situação e pelas leis internacionais de direitos humanos. [...] Medidas administrativas que restrinjam a liberdade de expressão deveriam ser impostas unicamente quando justificadas em virtude do teste de três partes para tais restrições.”
A intenção desta seção do projeto de lei é ser o fundamento jurídico para restringir as liberdades fundamentais durante situações de crise. Porém, sua redação atual não contém precisão e clareza suficientes, bem como freios e contrapesos adequados para fundamentar uma intervenção necessária e proporcional.
De acordo com o PL 2630, a decisão de implementação do protocolo de segurança especificará, entre outros, os provedores impactados, o prazo do protocolo (até 30 dias, que pode ser prorrogado) e uma lista de quesitos relevantes que devem ser abordados pelos provedores por meio de medidas de mitigação eficazes e proporcionais durante o período do protocolo. Enquanto o protocolo vigorar e para os tipos de conteúdo especificados na decisão de implementação, os provedores afetados estão sujeitos à responsabilidade solidária pelo conteúdo gerado pelo usuário, desde que os provedores tenham conhecimento prévio de tal conteúdo. Uma simples notificação do usuário, utilizando o mecanismo de notificação que o artigo 16 exige que as aplicações de internet forneçam, é suficiente para configurar esse conhecimento prévio. O projeto de lei, portanto, cria um mecanismo excepcional de notificação e retirada a ser aplicado enquanto o protocolo vigorar e relacionado a certos tipos de conteúdo (conforme a “delimitação temática” do protocolo).
Mecanismos de notificação e retirada causam muitas preocupações, pois podem alimentar a utilização de sistemas de notificação como arma para censurar reportagens críticas, críticas políticas e vozes de grupos marginalizados. Com muita frequência levam a remoções excessivas. A Relatoria Especial da CIDH para a Liberdade de Expressão [5] observou que eles criam incentivos para a censura privada, pois colocam “os intermediários privados em posição de ter que tomar decisões sobre a licitude ou ilicitude” dos conteúdos gerados por usuárias e usuários. Tais intermediários não vão "necessariamente considerar o valor da liberdade de expressão ao tomar decisões sobre conteúdos produzidos por terceiros que possam comprometer sua responsabilidade”. A própria experiência brasileira nos tribunais mostra como a questão pode ser complicada. Pesquisa do InternetLab [6] baseada em decisões judiciais envolvendo liberdade de expressão online, divulgada cinco anos após a aprovação do Marco Civil, mostrou que os tribunais de apelação brasileiros negaram pedidos de remoção de conteúdo em mais de 60% dos casos. Na audiência pública que o STF realizou para receber contribuições sobre seus casos envolvendo responsabilidade de intermediários, a Associação Brasileira de Jornalismo Investigativo (ABRAJI) apresentou dados sobre solicitações de remoção apresentadas judicialmente entre 2014 a 2022. De acordo com a ABRAJI [7], em algum momento do processo judicial, os juízes concordaram com os pedidos de remoção de conteúdo em cerca de metade dos casos, sendo que alguns destes foram revertidos posteriormente.
O papel cada vez mais poderoso das principais aplicações de internet tem motivado [8] debates e iniciativas para revisar os atuais regimes de responsabilidade de intermediários em diferentes países. No entanto, há perguntas-chave a fazer [9], ferramentas a considerar [10] e lições aprendidas [11] a ter como base antes de se introduzir mudanças que possam afetar seriamente expressões protegidas e a capacidade das pessoas de fortalecerem suas vozes e direitos fazendo uso de tecnologias digitais.
O mecanismo de notificação e retirada do PL 2630 ligado a um protocolo de segurança parece desempenhar um papel moderador em meio a uma pressão crescente do Poder Executivo e do STF para expandir as exceções à regra geral do Marco Civil sobre responsabilidade de intermediários. O fato de que esse mecanismo seria limitado no tempo e no escopo poderia ajudar com algumas das preocupações acima, assim como a aplicação das regras do artigo 18, que incluem o direito dos usuários de recorrer de decisões de moderação de conteúdo. Porém, a dinâmica geral do protocolo de segurança ainda apresenta sérios problemas. Uma preocupação primordial é que as situações de crise não se tornem permanentes, por meio da extensão da duração ou reiterando a ocorrência de medidas que, por definição, são restritas a circunstâncias excepcionais. São necessários controles claros e eficazes para que uma disciplina legal para situações de crise não se transforme na regulação por padrão.
(detalhamento de principais questões do protocolo de segurança no PL 2630 e possíveis mitigações que os legisladores brasileiros devem considerar pode ser visto em: https://www.eff.org/files/2023/07/07/padroes_de_direitos_humanos_como_linhas_de_base_para_a_regulacao_e_prestacao_de_contas_das_plataformas_pt-br.pdf )
[1] https://www.oas.org/pt/cidh/expressao/docs/publicaciones/2014%2008%2004%20Liberdade%20de%20Express%C3%A3o%20e%20Internet%20Rev%20%20HR_Rev%20LAR.pdf
[2] https://www.oas.org/pt/cidh/expressao/showarticle.asp?artID=849&lID=4
[3] https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=1056&lID=2
Outros links relevantes citados nesta seção (ver documento completo para acessar todas as referências de todas as seções)
https://cdt.org/insights/mixed-messages-the-limits-of-automated-social-media-content-analysis/
https://cdt.org/insights/lost-in-translation-large-language-models-in-non-english-content-analysis/
https://www.usenix.org/conference/usenixsecurity22/presentation/jain
[4] https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=987&lID=2
[5] https://www.oas.org/pt/cidh/expressao/docs/publicaciones/2014%2008%2004%20Liberdade%20de%20Express%C3%A3o%20e%20Internet%20Rev%20%20HR_Rev%20LAR.pdf
[6] https://internetlab.org.br/pt/especial/responsabilidade-de-intermediarios-e-a-garantia-da-liberdade-de-expressao-na-rede/
[7] https://www.youtube.com/watch?v=q-yd8DrGfXk&t=10919s
[8] https://www.eff.org/deeplinks/2022/05/platform-liability-trends-around-globe-safe-harbors-increased-responsibility
[9] https://www.eff.org/deeplinks/2021/03/rewriting-intermediary-liability-law-what-eff-asks-and-you-should-too
[10] https://www.eff.org/deeplinks/2022/05/platform-liability-trends-around-globe-taxonomy-and-tools-intermediary-liability
[11] https://www.eff.org/deeplinks/2022/05/platform-liability-trends-around-globe-conclusions-and-recommendations-moving - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:24Em primeiro lugar, é importante ter em consideração que o Brasil adotou, com o Marco Civil da Internet, um modelo de "ordem judicial e retirada" para a maioria dos tipos de conteúdos ilegais que, potencialmente, podem ser encontrados em serviços online.
Esta definição buscou alcançar o melhor equilíbrio entre, de um lado, a preservação da liberdade de expressão e, de outro, a remoção de conteúdos ilegais. Isso porque o modelo do Marco Civil evita a criação de incentivos excessivos para a remoção de conteúdo, o que poderia ocorrer caso uma plataforma fosse solidariamente responsável pelos conteúdos gerados por terceiros ou nos casos em que uma mera notificação fosse suficiente para estabelecer a responsabilidade de uma plataforma. Como diversos estudos documentam, modelos de notificação e retirada podem levar a um excesso de remoções por parte de intermediários para evitar o risco de punições ou responsabilidade. LINK: Empirical Evidence of Over-Removal by Internet Companies Under Intermediary Liability Laws: An Updated List
Por meio do sistema de ordem judicial e retirada, portanto, entendeu-se que o Poder Judiciário está melhor posicionado (em comparação com intermediários de interent) para definir o que é um conteúdo ilegal e que, portanto, deve ser indisponibilizado. Esse sistema ainda possui a vantagem de evitar, ao contrário do que muitas vezes se imagina, um excesso de processos judiciais buscando indenizações, já que, ao lado de outras regras, cria um mecanismo para responsabilizar o efetivo autor de um dano gerado pela postagem de um conteúdo ilegal. FONTE: Estudo Terranova Consultoria
A regulação sobre a remoção obrigatória pelas plataformas de categorias de conteúdos baseados em hipóteses que vão além do Marco Civil da Internet deve ser profundamente avaliada. A análise a ser realizada pelo particular acerca de possíveis ilícitos praticados pelo terceiro sem prévia intervenção do Poder Judiciário tende a ser mais superficial e pode ser equivocada, na medida em que não dispõe de instrumentos aptos para investigar com a profundidade necessária para a aferição adequada e correta dos eventuais fatos que possam constituir um ilícito. Tanto é assim que há diversos casos perante o Poder Judiciário em que os próprios tribunais têm dificuldade de afirmar se determinado fato constitui, ou não, ilícito passível de reprovação e consequente remoção por parte do provedor. A falta de clareza quanto ao tema é relevante a ponto de ter o Supremo Tribunal Federal reconhecido Repercussão Geral em tema ainda pendente de julgamento.
A existência desse sistema não impede que plataformas atuem proativamente para remover conteúdos ilegais ou que contrariam seus termos de uso ou diretrizes de comunidade. As plataformas, portanto, não raras vezes atuam proativamente para remover tais conteúdos quando é possível identificá-los, independentemente de ordem judicial ou notificação, seja mediante uma mera notificação de um usuário ou por detecção proativa.
A remoção de conteúdos nocivos aos usuários vai além de conteúdos ilegais. Certos conteúdos que poderiam ser considerados legais, como spam ou materiais que envolvem nudez infantil, são indisponibilizados para preservar a experiência dos usuários online.
Para além disso, é importante ter em mente que certos fenômenos mencionados na questão, como a disseminação de desinformação, não raras vezes ocorrem sem que qualquer ilegalidade seja cometida. É o que ocorre, por exemplo, quando um usuário dissemina uma informação que acredita ser verdadeira. Ou quando um agente mal intencionado repercute uma declaração, interpretando-a de acordo com uma narrativa mais ampla que deslegitima instituições ou adversários políticos, sem necessariamente acrescentar informações falsas à informação repercutida.
Esse tipo de situação mostra que o combate a fenômenos complexos como desinformação possui nuances que merecem ampla discussão.
Nesse sentido, a mera mudança nas regras de responsabilidade, não necessariamente terá o efeito esperado de ampliar a remoção de conteúdos considerados problemáticos por diferentes parcelas da sociedade.
Em qualquer caso, as regras que afetam o modelo de responsabilidade de plataformas de internet por conteúdo gerado por terceiros, devem levar em consideração que existe um imenso desafio em lidar com obrigações de indisponibilização de conteúdos que sejam considerados legais pela legislação brasileira
Exigir ação contra categorias definidas abertamente como conteúdos “nocivos” não oferece aos serviços de internet a clareza jurídica de que precisam para agir em relação a tais conteúdos e pode, fatalmente, levar intermediários de internet a adotar uma postura cautelosa de "errar para mais" na remoção de conteúdo, ou seja, promovendo a remoção excessiva de conteúdos que poderiam ser considerados nocivos, ainda que legais. Medidas desse tipo podem ensejar, inevitavelmente, um dano colateral à liberdade de expressão.
A União Europeia reconheceu isso quando deixou claro que conteúdos não deveriam estar sujeitos a obrigações de remoção no DSA com base numa ideia ampla de que são ou seriam nocivos ou lesivos, uma vez que "Existe um consenso … de que os conteúdos «lesivos» (mas não, ou pelo menos não necessariamente, ilegais) não devem ser definidos no Regulamento Serviços Digitais e não devem ser objeto de obrigações de remoção, uma vez que este é um domínio delicado com graves implicações para a proteção da liberdade de expressão." Fonte: https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=CELEX:52020PC0825
Uma legislação bem desenhada, ao invés de incrementar a responsabilidade de provedores com base em obrigações vagas que impõem a indisponibilização de conteúdos amplamente definidos como nocivos (ainda que lícitos), pode dar aos provedores a segurança jurídica e a liberdade para tomar ações em relação a tais conteúdos, conforme apropriado, por meio de medidas voluntárias.
Abaixo, trazemos alguns exemplos desse tipo de ideia, já materializada em iniciativas regulatórias estrangeiras.
- O Artigo 7º do DSA estabelece que: "Os prestadores de serviços intermediários não são considerados inelegíveis para beneficiar das isenções de responsabilidade referidas nos artigos 4.o, 5.o e 6.o apenas por realizarem, de boa-fé e de forma diligente, investigações voluntárias por iniciativa própria ou por tomarem outras medidas destinadas a detectar, identificar e suprimir ou bloquear o acesso a conteúdos ilegais, ou por tomarem as medidas necessárias para cumprir os requisitos do direito da União e nacional, incluindo os requisitos previstos no presente regulamento."
- O artigo 8º do DSA define que: “Não será imposta a esses prestadores qualquer obrigação geral de controlar as informações que os prestadores de serviços intermediários transmitem ou armazenam, nem de procurar ativamente factos ou circunstâncias que indiquem ilicitudes.”
- Cláusula do bom samaritano. A seção 230 do Communications Decency Act nos EUA tem uma cláusula que especifica que o provedor não é responsável por qualquer ação tomada voluntariamente de boa fé para restringir o acesso ou a disponibilidade de material que o provedor ou usuário considere ser “obsceno, lascivo, lascivo, imundo, excessivamente violento, assediador ou de outra forma censurável, independentemente de tal material ser protegido constitucionalmente ou não”. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:19No que tange à responsabilidade das plataformas relacionadas a infodemias, engajamento cívico e conteúdos ilícitos, esta deve ser estabelecida com muita cautela.
O regime de responsabilização presente no Marco Civil da Internet (Lei nº 12.965, de 23 de abril de 2014) possui salvaguardas importantes que garantem o equilíbrio entre a proteção de direitos dos usuários e a liberdade de expressão. Essas salvaguardas permitem que as plataformas permitissem o fluxo de informações, a liberdade de expressão, as oportunidades educacionais, o pluralismo da mídia, a cultura, a criatividade e o crescimento econômico. Estudos mostraram que as proteções destas salvaguardas promoveram a inovação e o crescimento econômico, e que as contribuições das plataformas digitais para a economia não seriam possíveis no nível atual sem essas proteções.
Combater o conteúdo ilegal é um desafio social – no qual empresas, governos, sociedade civil e usuários têm um papel a desempenhar. Em alguns casos, o conteúdo pode não ser claramente ilegal, seja porque os fatos são incertos, dependem da análise de contexto ou porque o resultado legal depende de um difícil equilíbrio; por sua vez, os tribunais têm um papel essencial a desempenhar na apuração de fatos e na obtenção de conclusões legais nas quais as plataformas podem confiar.
Assim, responsabilizar e requerer que as plataformas realizem um julgamento prévio sobre o teor do conteúdo que circula em seus serviços para determinar se ele se é lícito ou não pode ser extremamente prejudicial à sociedade além do potencial de violar a Constituição Federal, que delega de forma exclusiva ao Poder Judiciário a função de interpretar a lei.
Cabe ainda destacar a necessidade de levar em conta as plataformas de mensageria privadas e a questão da criptografia. Enfraquecer a criptografia pode trazer altos riscos para os direitos humanos. A criptografia é uma ferramenta muito importante para manter todos seguros: protege a privacidade das pessoas, dá mais liberdade a jornalistas, ativistas e informantes. Introduzir, por exemplo, rastreabilidade pode quebrar o princípio de criptografia, colocando em perigo pessoas expostas. - Rodolfo Salema 16/07/2023 às 10:20Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
Entendemos que um ambiente equilibrado e propício para a efetiva mitigação dos riscos indicados por esse r. CGI será alcançado a partir da criação de um regime de responsabilidade civil capaz de conduzir as plataformas digitais a agir proativa e diligentemente em casos especiais, que envolvam certas categorias ou tipos de conteúdo, conforme se passa a expor.
Conforme leciona Stefano Rodotá, não obstante a internet ser uma peça fundamental para o exercício da democracia, uma vez que qualquer usuário se torna um produtor de conteúdo, é necessário que se criem políticas públicas adequadas a garantir a convivência harmônica desses progressos tecnológicos com os direitos fundamentais e a dignidade da pessoa humana. Noutras palavras, a regulação a ser imposta deve garantir incentivos suficientes para que as plataformas digitais combatam os riscos inerentes às suas atividades.
Ocorre que, na sistemática adotada pelo ordenamento jurídico atual, a partir do Marco Civil da Internet (Lei nº 12.965/14 ou “MCI”), as plataformas digitais são, na realidade, encorajadas a se manterem inertes ante conteúdos ilegais publicados e disseminados por terceiros em seus ambientes, já que para serem responsabilizadas por dano decorrente daquele conteúdo, terão que descumprir uma ordem judicial.
Neste cenário, propomos um a reformulação do regime de responsabilidade civil por conteúdo gerado por terceiro aplicável às plataformas digitais, a ser dividida em duas frentes. A primeira delas, diz respeito à reformulação do ‘regime geral’, por assim dizer, de responsabilidade civil por conteúdo gerado por terceiro em vigor. Entendemos que a atual redação do art. 19 do MCI, que prevê responsabilidade do provedor após ordem judicial, deva ser alterada para que passe a prever responsabilidade após qualquer notificação, judicial ou não. A segunda delas, consiste na criação de um regime mais estrito, um ‘regime especial’ de responsabilidade civil das plataformas digitais por conteúdo gerado por terceiro, a ser aplicado em hipóteses especiais, em que certas categorias ou tipos de conteúdo, causadores de riscos mais elevados à sociedade, estejam sendo disseminados por meio de plataformas digitais.
Finalmente, não se pode admitir a ideia de que as plataformas devem ser neutras com relação aos conteúdos, para não colocar em risco a liberdade de expressão. O risco à liberdade está, na verdade, na falta de responsabilização, na medida em que as plataformas já fazem (para fins de econômicos e apesar da falta de regulamentação) a curadoria, gestão, direcionamento, classificação e ranqueamento de conteúdo (de todos os tipos, inclusive criminoso e desinformacional) postado e difundido pelos usuários para a execução da sua atividade econômica.
a. Regime geral – reformulação do regime de responsabilidade civil previsto no Marco Civil da Internet
Preliminarmente, importante estabelecer que o debate acerca do momento em que nasce a responsabilidade civil dos provedores de aplicações de internet por conteúdo gerado por terceiro hoje gira em torno de três principais possíveis correntes: (i) a não responsabilização do provedor em razão da conduta praticada pelos seus usuários; (ii) a responsabilidade civil objetiva do provedor, fundada no conceito de risco de atividade ou no defeito da prestação dos serviços; e (iii) a responsabilidade civil subjetiva, que subdivide em duas vertentes: (iii.a) responsabilidade civil subjetiva decorrente da inércia após ciência do conteúdo ilegal e (iii.b) aquela que defende a responsabilização somente em caso de descumprimento de ordem judicial específica .
A esse passo, importante destacar que, até a publicação do MCI, o Superior Tribunal de Justiça (“STJ”) vinha consolidando entendimento no sentido de que seria cabível a responsabilização dos provedores de aplicação por dano decorrente de conteúdo gerado por terceiro, a partir do momento em que notificado, independentemente de ordem judicial, permanecesse inerte, deixando de retirar, preventivamente, o conteúdo ofensivo de suas plataformas.
Contudo, o Poder Legislativo, a partir do art. 19 do Marco Civil da Internet, rompendo com o que vinha sendo consolidado pela jurisprudência, instituiu no ordenamento jurídico o regime de responsabilidade civil subjetiva condicionada ao descumprimento de ordem judicial.
Ocorre que, no ambiente virtual, em que a comunicação é quase que instantânea e em nível global, o dano ganha imensurável extensão em segundos, extrapolando quaisquer barreiras geográficas e temporais , tornando o receio de dano irreparável ou de difícil reparação quase que uma característica intrínseca dos danos causados nas plataformas digitais.
Além disso, o que se quis alcançar à época da edição do Marco Civil da Internet e seu art. 19 – evitar criar às plataformas um incentivo ao monitoramento prévio dos conteúdos que pudesse desaguar em censura – hoje já se vê inviabilizado pelas próprias circunstâncias. De fato, hoje as plataformas já fazem este monitoramento prévio amplamente – tanto para fazer valer seus próprios termos de uso, quanto para evitar violações a direitos autorais e pornografia de vingança (temas específicos que estão sujeitos ao regime do mero notice and take down sob o Marco Civil da Internet) e, fazer funcionar seus sistemas de impulsionamento e recomendação, os quais favorecem certos conteúdos em detrimento de outros – não por acaso, geralmente, aqueles de violência, crime, fake news e extremismo, já que são os que mais são capazes de gerar o engajamento dos usuários e, portanto, lucro às grandes plataformas.
Deste modo, o dispositivo em questão vêm sendo objeto de grandes debates e críticas. De fato, essa garantia fornecida pelo art. 19 de não responsabilização a não ser via descumprimento de ordem judicial tem dado espaço para as plataformas não só se omitirem quanto a conteúdos violência, crime, fake news e extremismo postados em suas redes mas terem uma atuação livre no estímulo à disseminação desses conteúdos, com foco único e exclusivo no aumento de seus lucros.
Neste sentido, nas palavras do ilustre autor e professor Anderson Schreiber:
“Em vez de disciplinar o notice and takedown, instituindo garantias recíprocas e assegurando a eficiência do seu funcionamento, a Lei 12.965, de 23 de abril de 2014 – conhecida como Marco Civil da Internet –, estabeleceu um mecanismo extremamente engessado, que cria uma proteção intensa para as sociedades empresárias que exploram redes sociais e reduz o grau de proteção que já vinha sendo fixado pela jurisprudência brasileira para os usuários da internet.
[...] para os usuários da internet e pessoas humanas que possam ser afetadas por conteúdo lesivo aos seus direitos fundamentais, o art. 19 não traz qualquer benefício. Muito ao contrário, representa um flagrante retrocesso se comparado aos caminhos que vinham sendo trilhados pela jurisprudência brasileira nessa matéria. Trata-se de uma norma de blindagem das sociedades empresárias que exploram serviços de internet, em especial por meio de redes sociais e outros espaços de comunicação virtual.” (grifo nosso)
Ao impor o recurso ao Judiciário como condição para a reparação do dano sofrido, o art. 19 do MCI deturpa o objetivo do art. 5º, XXXV, que garante à vítima o direito, e não um dever, de acesso à justiça. Tal situação deve ser corrigida.
b. Regime especial – regime de responsabilidade civil aplicável a categorias especiais de conteúdo
Como já adiantado, para além da reformulação do art. 19 do Marco Civil da Internet, propomos a criação de um regime de responsabilidade civil específico, aplicável a certas categorias de conteúdos a apenas a provedores de redes sociais, de mensageria instantânea e as ferramentas de busca (conforme exposto na resposta ao enunciado n° 1 da presente Consulta), em razão dos riscos associados à natureza da atividade que exercem.
O regime em questão seria fundado na responsabilidade civil independente de notificação, em razão de um dever de cuidado a ser atribuído a estas plataformas digitais, a partir do qual passariam a dever atuar proativa e diligentemente para prevenir, mitigar a disseminação e remover conteúdos gerados por terceiros que possam configurar, por exemplo:
vi. crimes contra o Estado Democrático de Direito, tipificados no Decreto-Lei nº2.848, de 7 de dezembro de 1940;
vii. atos de terrorismo e preparatórios de terrorismo, tipificados pela Lei nº13.260, de 16 de março de 2016;
viii. crime de induzimento, instigação ou auxílio a suicídio ou a automutilação, tipificado no Decreto-Lei nº 2.848, de 7 de dezembro de 1940;
ix. crimes contra crianças e adolescentes previstos na Lei nº 8.069, de 13 de julho 1990, e de incitação à prática de crimes contra crianças e adolescentes ou apologia de fato criminoso ou autor de crimes contra crianças e adolescentes, tipificados no Decreto-Lei nº 2.848, de 7 de dezembro de 1940;
x. crime de racismo de que trata o art. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 5 de janeiro de 1989;
xi. violência contra a mulher, inclusive os crimes dispostos na Lei nº 14.192, de 4 de agosto de 2021;
xii. infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias quando sob situação de Emergência em Saúde Pública de Importância Nacional, de que trata o art. 10 da Lei nº 6.437, de 20 de agosto de 1977; e
xiii. crime eleitoral previsto no art. 323, do Código Eleitoral (Lei n° 4.737/65).
A proposta acerca deste regime especial – que podemos identificar como um ‘dever de cuidado ou diligência’ a ser promovido pelas plataformas digitais em questão – apoia-se no racional de que conteúdos mais sensíveis – cf. reconhece, inclusive, o Regulamento dos Serviços Digitais da União Europeia – devem estar sujeitos a um regime específico de responsabilidade civil, atraindo, assim, um dever de moderação de ofício pelas plataformas, sob o risco de serem responsabilizadas civilmente por dano causado em razão de uma atuação insuficiente ou inerte em relação àquele conteúdo que se enquadre no rol supracitado, independentemente de notificação.
O rol acima proposto reflete o que hoje está previsto no art. 11 do Substitutivo apresentado pelo deputado relator Orlado Silva ao PL das Fake News (PL n° 2630/20) – contando apenas com o acréscimo do crime eleitoral previsto no art. 323, do Código Eleitoral –, por serem consideradas situações mais graves, que envolvem valores constitucionais que consideramos inegociáveis – sem prejuízo, contudo, de que o seu escopo possa ser rediscutido.
Nesses casos específicos, a aferição da culpa da plataforma digital poderá ser afastada caso a plataforma demonstre ter atuado de forma diligente para identificar, prevenir, mitigar a disseminação e remover os conteúdos infringentes. Os parâmetros, para tanto, contudo, deverão ser previstos em lei a ser promulgada pelo Poder Legislativo, a fim de uniformizá-los e evitar eventual insegurança jurídica, para que casos idênticos não tenham tratamentos distintos. Por ora, reputa-se que as obrigações hoje propostas no Substitutivo apresentado pelo deputado relator Orlado Silva ao PL das Fake News (PL n° 2630/20), tais como a realização de relatórios de identificação, avaliação e atenuação de riscos sistêmicos, relatórios de transparência, dentre outros, sejam bons parâmetros para aferição ou afastamento da culpa das plataformas. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:40A regulação sobre a remoção obrigatória pelas plataformas de categorias de conteúdos baseados em hipóteses que vão além do Marco Civil da Internet (MCI) deve ser profundamente e cuidadosamente avaliada. A análise a ser realizada pelo particular acerca de possíveis ilícitos praticados por um terceiro sem prévia intervenção do Poder Judiciário tende a ser mais superficial e pode ser equivocada, na medida em que este não dispõe de instrumentos aptos para investigar com a profundidade necessária para a aferição adequada e correta dos eventuais fatos que possam constituir um ilícito.
Tanto é assim que há diversos casos perante o Poder Judiciário em que os próprios tribunais têm dificuldade de afirmar se determinado fato constitui, ou não, ilícito passível de reprovação e consequente remoção por parte do provedor. A falta de clareza quanto ao tema é relevante a ponto de ter o Supremo Tribunal Federal reconhecido Repercussão Geral em tema ainda pendente de julgamento.
No que tange a responsabilidade das plataformas sobre conteúdo impulsionado e monetizado, vale destacar que veículos de comunicação como jornais, revistas e emissoras de televisão não são responsabilizados por veiculação de propaganda, mesmo aquelas enganosas. Como exemplo, podemos citar o recente caso da operadora VIVO, que foi condenada pelo Tribunal de Justiça do Mato Grosso do Sul por veicular propaganda enganosa na TV. Em ambos os casos as emissoras/jornais saíram ilesas. Equiparar a responsabilidade das plataformas com aquela do anunciante seria o mesmo que responsabilizar quaisquer veículos de comunicação tradicionais por quaisquer danos ou violações legais decorrentes dos anúncios, o que sabidamente não ocorre.
Para além disso, cabe destacar que o modelo de negócio das plataformas digitais não se assemelha aos veículos de comunicação de mídias tradicionais (jornal, revista, televisão). Enquanto as mídias tradicionais dedicam espaço definido para exploração de anúncios, com transmissão ao público totalmente controlada pelo veículo, os provedores de aplicações de internet operam sob uma lógica diferente, em que múltiplos anunciantes podem inserir as suas ofertas publicitárias simultaneamente, para diferentes públicos. Assim, o volume de anúncios veiculados diariamente em uma plataforma online é exponencialmente maior, havendo verdadeira impossibilidade técnica de se realizar amplo controle editorial de todo o conteúdo previamente à divulgação.
Diante disso, um excesso na responsabilização das plataformas por conteúdos sejam eles monetizados ou não, pode gerar o chamado chilling effect ou efeito inibidor, com a retirada massiva de todo conteúdo que represente, minimamente, um risco para as empresas, de modo que conteúdos legítimos possivelmente serão perdidos nessa atuação “diligente” das plataformas. Esse cenário impactaria diretamente o exercício do direito à liberdade de expressão nessas plataformas. Somado ao estado da arte e custo de operação de modelos automatizados, teríamos uma redução da esfera de direitos garantidos sem a segurança, sequer, de uma compensação em termos de redução de danos relativos à desinformação ou discurso de ódio e criminoso. - Sarah Martins 14/07/2023 às 19:00- Moderação de Conteúdo e a Preservação da liberdade de expressão (Item 29):
Quanto a questões sobre desinformação e discurso de ódio disseminados na internet, presentes no item 29, a Brasscom gostaria de apontar a necessidade de se ter em mente as discussões em torno da moderação de conteúdo e a preservação da liberdade de expressão.
Especificamente para as plataformas que permitem o compartilhamento de conteúdos gerados por usuários, como redes sociais e plataformas de compartilhamento de vídeos, uma possível regulação deve ter especial cuidado com os modos de mitigação dos riscos identificados e com a disciplina da responsabilidade pelos conteúdos de terceiros. Deve-se, ainda, preservar-se o regime de responsabilidade já previsto no Art. 19 do Marco Civil da Internet, o qual estabelece que “com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente [...]”.
Ainda que usuários compartilhem conteúdos potencialmente ilícitos, a criação de regimes de responsabilidade de intermediário - contrária ao previsto no MCI - e que pesem sobre as plataformas ou provedores, ou ainda a instituição de quaisquer regras que possam ter como efeito a criação de filtros de conteúdo, potencialmente representam restrições à liberdade de expressão dos usuários, já que muitos de seus conteúdos poderão ser vetados previamente pelas plataformas, possivelmente por mero receio de responsabilização, o que constituiria censura prévia. É o que apontam análises de especialistas nacionais e estrangeiros sobre os possíveis prejuízos do atual PL 2630/20. (7)
No mais, é preciso lembrar que as plataformas combatem conteúdos ilícitos com seus procedimentos de moderação de conteúdos e colaboram com as autoridades, de modo compatível com o art. 19 do Marco Civil da Internet, e com as definições contra a censura prévia consolidadas na Constituição Federal e na jurisprudência constitucional, em especial a ADPF 130. (8)
Considerando o item 30 da consulta pública, a Brasscom gostaria de afirmar que entende que estabelecer deveres de transparência sobre os procedimentos e decisões relacionados ao tratamento de conteúdos pelos provedores de redes sociais é uma medida legítima para endereçar e mitigar o problema da desinformação na Internet. No entanto, é preciso um olhar atento para se alcançar o equilíbrio delicado entre garantir transparência sobre o uso das plataformas e impor obrigações ou restrições excessivas e desproporcionais.
(7) v. por exemplo BARATA, J. Regulating Online Platforms Beyond the Marco Civil in Brazil: The Controversial “Fake News Bill”. Maio 23, 2023. Disponível em: https://techpolicy.press/regulating-online-platforms-beyond-the-marco-civil-in-brazil-the-controversial-fake-news-bill/
(8) BRASIL. Supremo Tribunal Federal. ADPF 130, Relator(a): Min. CARLOS BRITTO, Tribunal Pleno, julgado em 30/04/2009. Disponível em: https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=605411 - Rodrigo Pereira 25/04/2023 às 20:19Há muito protecionismo ainda sobre a transparência das empresas em relação ao uso de algorítimos. Enquanto não pudermos falar sobre mudanças neste sentido, não há muito o que contribuir... Ou voltamos ao orkut, sem feeds, ou temos que manter a liberdade do usuário que antes poderia escolher se deixava por conta das relevâncias algorítmicas, ou preferia exposição de feeds de notícias por linha do tempo efetiva (da mais recente à mais antiga).
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:30[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A ampliação do poder das plataformas digitais sobre a circulação de conteúdos no ambiente da internet deve ser feita com extremo cuidado e respondendo aos princípios internacionais para regulação envolvendo o direito à liberdade de expressão. A remoção obrigatória pelas plataformas de determinados tipos de conteúdos deve estar vinculada a danos graves e imediatos a direitos individuais e coletivos e estar baseada em procedimentos definidos por lei e regulamentação detalhada, em processo envolvendo participação multissetorial. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:23(Contribuição da Coalizão Direitos na Rede)
A ideia de se impor obrigações de avaliação e mitigação dos riscos sistêmicos se apresenta como um caminho mais favorável e seguro à proteção dos direitos dos usuários e usuárias, na medida em que busca resolver questões estruturais e mitigar potenciais riscos dos serviços, não se limitando a temas específicos de conteúdo.
Não se deve atribuir um dever de remoção sobre uma gama extensa de conteúdos, obrigando as plataformas a indevidamente exercerem função jurisdicional para averiguar se esses conteúdos seriam ou não ilícitos.
Preocupa-nos que a conduta de “incitação” possa também ensejar a remoção, por tornar as hipóteses de remoção absolutamente amplas. O conceito é muito amplo, possui significado próprio na doutrina penalista, e não deveria ser base para interpretação de conteúdos por parte das plataformas. Deve ser preservada a interpretação nítida, objetiva e restritiva desses ilícitos, em respeito à lógica inerente à garantia de liberdade de expressão e do princípio da legalidade estrita na interpretação de tipos penais. Comandos legais amplos podem criar pressão e incentivos econômicos sobre as empresas para que elas removam conteúdos em excesso, com risco de remoção de conteúdo legítimos.
Além de violação ao princípio constitucional da reserva de jurisdição, consideramos que a potencial ameaça a direitos fundamentais de expressão e de acesso à informação é um fator significativo.
Tampouco se deve permitir a ampliação de exceções ao regime de responsabilização de plataformas digitais por conteúdos de terceiros. Isso inverte a lógica do Marco Civil da Internet, que visou remediar a pressão por remoções abusivas que existiam anteriormente. Tal regime pode e deve ser aprimorado, em especial, para reconhecer explicitamente a interpretação já existente de que há responsabilidade solidária das plataformas nos casos em que recebam pagamento e atuam em medidas de promoção publicitária dos conteúdos. Entretanto, isso não deve ocorrer de maneira a atribuir poder quase jurisdicional, especialmente em matéria criminal, às plataformas.
Cabe relembrar, que esse modelo do Marco Civil é uma das escassas experiências legislativas brasileiras que atingiram repercussão global. Seu mérito vem justamente por formular um mecanismo que autoriza a moderação de conteúdo sem imunizar as plataformas de responsabilidades civis e, ao mesmo tempo, vincula a remoção de conteúdo às ordens judiciais, resguardando direitos fundamentais. - Filipe Saraiva 16/07/2023 às 22:20Penso ser medida necessária. Também é preciso responsabilizar as plataformas caso não cumpram ou demorem a cumprir a remoção de conteúdos sensíveis.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:17A remoção obrigatória de conteúdos por simples notificação é uma solução que se apresenta desproporcional, na medida em que os riscos que ela impõem ao exercício de direitos fundamentais, como de liberdade de expressão e acesso à informação, é maior do que os possíveis benefícios que pode trazer. Estudos mostram que a imposição de obrigações às plataformas nesse sentido levam à remoção excessiva de conteúdos de usuários, isso por conta de um incentivo ecônomico que a plataforma tem de risco por ser responsável em conjunto. Assim, incentiva-se o cálculo econômico da empresa acima dos direitos de usuários.
O artigo 19 do Marco Civil da Internet é fundamental ao garantir o pleno exercício dos direitos dos usuários e garantir ambiente de inovação no campo digital. Ademais, é possível considerá-lo um piso normativo, a base em que novas obrigações possam ser construídas para complementá-lo e não para descontruí-lo. Em suma, obrigações de remoção obrigatório por simples notificação não são o caminho ideal para a construção de um ambiente digital mais saudável, pois ampliam a margem de poder na moderação de conteúdo das plataformas digitais e restringem direitos de usuários. Se considerada, tal alternativa deve ser compreendida como altamente perigosa e de uso excepcional. - INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:56Para proteger a liberdade de expressão da sanha de pessoas, instituições, ou grupos organizados que queiram banir informações da rede e ao mesmo tempo limitar o poder de moderação das próprias plataformas, a remoção obrigatória de conteúdo deve ocorrer a partir de notificação judicial, seguindo o devido processo legal, excetuando os casos de remoção imediata já previstos no Marco Civil da Internet. Notificações simples feitas por usuários devem obedecer ao procedimento estabelecido pela plataforma na elaboração de seus termos e condições de uso, estando estes, por sua vez, abertos ao escrutínio público e ao aprimoramento periódico, a partir dos relatórios de transparência que serão oferecidos pelas plataformas. A previsão para elaboração de relatórios de transparência e aprimoramento periódico devem estar contidas em lei. Ademais, todas as políticas de moderação de conteúdo, sejam elas públicas (objeto de leis) ou privadas (objeto de termos de usos) devem estar alinhadas aos padrões internacionais de liberdade de expressão, a saber, Convenção Americana dos Direitos Humanos (Art. 13) e Pacto Internacional dos Direitos Civis e Políticos (PIDCP) (Art. 20).
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:55Para proteger a liberdade de expressão da sanha de pessoas, instituições, ou grupos organizados que queiram banir informações da rede e ao mesmo tempo limitar o poder de moderação das próprias plataformas, a remoção obrigatória de conteúdo deve ocorrer a partir de notificação judicial, seguindo o devido processo legal, excetuando os casos de remoção imediata já previstos no Marco Civil da Internet. Notificações simples feitas por usuários devem obedecer ao procedimento estabelecido pela plataforma na elaboração de seus termos e condições de uso, estando estes, por sua vez, abertos ao escrutínio público e ao aprimoramento periódico, a partir dos relatórios de transparência que serão oferecidos pelas plataformas. A previsão para elaboração de relatórios de transparência e aprimoramento periódico devem estar contidas em lei. Ademais, todas as políticas de moderação de conteúdo, sejam elas públicas (objeto de leis) ou privadas (objeto de termos de usos) devem estar alinhadas aos padrões internacionais de liberdade de expressão, a saber, Convenção Americana dos Direitos Humanos (Art. 13) e Pacto Internacional dos Direitos Civis e Políticos (PIDCP) (Art. 20).
- ITS Rio (comentário inserido por: Carlos Affonso Souza) 16/07/2023 às 19:09Remoção obrigatória de conteúdo por simples notificação (notice and takedown) (1) é uma solução ineficiente que pode representar uma violação da liberdade de expressão, (2) além de ser um mecanismo sujeito a abusos por parte dos usuários de plataformas digitais.
Em primeiro lugar, é preciso considerar o alto volume de informações que são compartilhadas todos os dias em plataformas digitais de grande porte. Um número muito citado neste debate para ilustrar a magnitude do desafio são as 500 horas de vídeos postadas no YouTube a cada minuto. É por isso que analogias entre a moderação de conteúdo em plataformas digitais e o processo judiciário (informado por valores como devido processo legal, ampla defesa e contraditório), embora importantes para o desenvolvimento de mecanismos regulatórios, são extremamente limitadas e não conseguem dar conta de todo o fenômeno. Nas palavras de Evelyn Douek, devemos resistir ao "canto da sereia" do formalismo aplicado à moderação de conteúdo. Consequentemente, não se pode esperar que plataformas digitais façam uma análise detida dos conteúdos denunciados diante da possibilidade de responsabilização por simples notificação. O incentivo que se cria é para a remoção imediata de todo e qualquer conteúdo denunciado como forma de defesa contra futura responsabilização, ainda que o conteúdo não se encaixe em categorias/tipos pré-definidos, representando um risco à liberdade de expressão.
Em segundo lugar, o incentivo mencionado acima pode ser explorado por usuários mal-intencionados que buscam a indisponibilização de um conteúdo com o qual meramente discordam, embora protegido pelo direito à liberdade de expressão. Em outras palavras, esse mecanismo poderá ser explorado e abusado por usuários que irão denunciar certos conteúdos de forma coordenada, forçando a plataforma a indisponibilizá-los como um mecanismo de defesa contra eventual responsabilização. Ou seja, cria-se uma espécie de princípio "in dubio pro removeo" (na dúvida o conteúdo será removido). Uma forma que vem aparecendo no debate público sobre o tema é a adoção de mecanismos de notificação e ação (notice and action), segundo o qual a plataforma tem o dever de agir quando notificada (sendo um elemento da implementação do chamado "dever de cuidado"), sem risco direto de responsabilização por conteúdos específicos de terceiros. Ainda assim, no caso do PL 2630, o mecanismo de notificação e ação precisa de ajustes diante da possibilidade de responsabilização das plataformas por conteúdos notificados durante a vigência do chamado "protocolo de segurança", o que pode levar às exatas mesmas distorções supramencionadas. Assim, é importante definir em lei como se daria tal notificação, assim como faz o DSA, gerando uma espécie de ônus ao notificante diante da gravidade de se alegar que um determinado conteúdo é ilícito. Um exemplo seria a exigência de concordância com um termo no qual o usuário declara estar agindo de boa-fé e no limite do seu conhecimento fático sobre o conteúdo notificado. - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:41Obrigar as plataformas a remover conteúdo por simples notificação não é uma medida de mitigação particularmente produtiva na maior parte dos casos, podendo inclusive criar riscos mais profundos.
A hipótese de exceção do Marco Civil da Internet, que responsabiliza a plataforma por danos causados por conteúdo sexual de caráter privado após mera notificação, se justifica pelo fato de que (i) é simples determinar a ilicitude do conteúdo; (ii) em geral, há um usuário legitimamente interessado em notificar a plataforma e demandar a remoção do conteúdo e (iii) existe urgência extrema na remoção do conteúdo para evitar a propagação dos danos decorrentes da violação da intimidade sexual da vítima.
Nos casos de infodemias, a dificuldade de se identificar determinado conteúdo como “desinformativo”, “discurso de ódio” ou “terrorista”, e a associação comum desse conteúdo com a expressão política, fazem com que a notificação possa ser usada como ferramenta de censura por agentes mal-intencionados.
Considere-se, por exemplo, uma obrigação de remoção de conteúdo “sabidamente inverídico”, “desinformativo” ou “de ódio” por mera notificação de usuário em período eleitoral. Agentes políticos poderiam denunciar conteúdo de seus opositores como forma de incentivar a remoção pelas plataformas, alegando que esse conteúdo seria nocivo e promovendo a censura política.
No modelo em prática hoje, a decisão final sobre um conteúdo ser ilícito durante o período eleitoral cabe ao TSE, que cumpre o papel de fiel da balança em disputas políticas sobre um determinado conteúdo publicado em plataformas. Por mais que esse modelo não permita uma resposta extremamente célere, ele assegura que agentes mal-intencionados não possam manipular a plataforma para remover conteúdo de opositores.
Assim, a ideia de obrigação de remoção por mera notificação pode ser bastante perigosa e deve ser tratada com muito cuidado, sendo limitada a categorias de conteúdo cuja ilicitude é mais que evidente, como conteúdo de exploração sexual infantil ou atos sexuais privados. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:25Em linha com o que foi citado anteriormente, na eventualidade de se revisitar o regime escolhido para o Marco Civil da Internet, essas categorias ou tipos de conteúdo precisam ser extremamente precisas, detalhadas, bem definidas, para evitar remoção em excesso.
- João Coelho 15/07/2023 às 16:10Responsabilização pela violação de dever de cuidado: As plataformas digitais devem ser responsabilizadas pelo conteúdo publicado por terceiros que ofendam os direitos da criança e do adolescente, quando não demonstrarem que exerceram o dever de cuidado que lhes cabe.
Referências Legais: Art. 227 da Constituição Federal, CDC, ECA
Referência Jurisprudencial: REsp 1783269
Para ver mais: https://criancaeconsumo.org.br/biblioteca/dever-geral-de-cuidado-das-plataformas-diante-de-criancas-e-adolescentes/#:~:text=No%20parecer%20%E2%80%9CDever%20geral%20de,por%20viola%C3%A7%C3%B5es%20de%20direitos%20infantis.
O dever de cuidado na mitigação de riscos sobre conteúdo:
O Marco Civil da Internet estabelece as regras de responsabilização por atos praticados por terceiros no ambiente digital. De modo geral, os provedores de aplicações (ou seja, empresas que disponibilizam serviços ou conteúdo online) só serão responsabilizados por conteúdos danosos gerados por terceiros se não providenciarem a sua remoção mesmo após receberem ordem judicial específica nesse sentido. Entretanto, conforme defende a Profa. Ana Frazão em parecer sobre o tema concedido ao Instituto Alana, essas disposições devem ser interpretadas em harmonia com a Constituição Federal, o Código de Defesa do Consumidor e o Estatuto da Criança e do Adolescente em se tratando de conteúdos que possam afetar negativamente os direitos de crianças e adolescentes. Assim, nesses casos, as plataformas digitais podem ser responsabilizadas se falharem com o seu dever geral de cuidado já expresso nas legislações específicas para com esses indivíduos e não tomarem as medidas necessárias para impedir que conteúdos danosos a eles circulem em seus espaços digitais, afastando-se a literalidade das disposições do Marco Civil da Internet.
Referência legal: seção III do Marco Civil da Internet
Para ver mais: FRAZÃO, Ana. Parecer: Dever geral de cuidado das plataformas diante de crianças e adolescentes - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:28A alteração ou emenda ao Marco Civil da Internet é uma medida que precisa ser analisada com cautela, sob o risco de descaracterizar o atual modelo de responsabilização civil de plataformas. Contudo, modelos que inibam o compartilhamento de notícias falsas e desinformação online são de extrema importância para o atual cenário brasileiro em vista dos males causados por estes. A atual exceção do Marco Civil da Internet para a exclusão de conteúdos caracterizados como pornografia de vingança ou pornografia infantil, nos termos do artigo 21, são um bom exemplo de como o projeto de lei poderia tratar conteúdos associados a desinformação e ao discurso de ódio. Existe, também, o exemplo da legislação NetzDG (2017) na Alemanha, que torna ilícito o compartilhamento de conteúdos tipificados no Código Penal alemão, como o IP.rec salientou no Relatório Amostral: evolução histórica dos conceitos de Responsabilidade Civil de Intermediários no Norte-Sul Global. Alguns dos conteúdos ilícitos caracterizados no NetzDg que também estão presentes no Código Penal alemão, como os que se referem à distribuição de pornografia infantil, preparação ou incentivo a práticas de crimes violentos, incitação ao ódio e falsificação de dados.
Além da Alemanha, a Austrália aprovou, depois dos episódios de Christchurch, o Criminal Code Amendment (Sharing of Abhorrent Violent Material) Act em 2019, que ampliou as hipóteses de responsabilização objetiva dos intermediários. De acordo com a lei, os provedores (Internet Service Providers, Content Service Providers e Hosting Service Providers) serão responsabilizados criminalmente se falharem em deixar de hospedar ou de remover rapidamente conteúdo definido na lei como “abominável”. De acordo com as seções v. 474.31 e v.474.32 da lei, conteúdo “abominável” é definido como todo material de áudio, vídeo e audiovisual que registre ou transmita condutas consideradas ofensivas por pessoas razoáveis e que envolvam terrorismo, assasinato (ou a tentativa), tortura, estupro e sequestro. Há algumas exceções para reprodução desse tipo de material como reportagem ou relatório, que sejam de interesse público e/ou tenham sido produzido por uma pessoa que trabalha profissionalmente como jornalista;
Em 2021, o país aprovou também o Online Safety Act de 2021. A lei estabeleceu as chamadas "Basic Expectations of Online Safety" (BESO), que compreendem um conjunto de diretrizes estabelecidas com o objetivo de promover maior transparência e proatividade por parte de provedores de serviços online. Há também os esquemas de reclamações (de abuso cibernético direcionado a um adulto, de abuso baseado em imagem, de cyberbullying e de conteúdo restrito e ilegal), administrados pelo eSafety Commissioner, agência regulatória criada para garantir a segurança no ambiente online.
Há muitas críticas a essa alteração no Código Penal australiano, especialmente por distribuir todo ônus para os provedores e pela rápida tramitação da lei. É preciso, portanto, ter cuidado com esse tipo de determinação, uma vez que conceitos indeterminados ou vagos podem abrir brechas para interferências no direito de liberdade de expressão e participação das pessoas, principalmente em países com histórico autoritário. Ademais, o direito penal deve ser utilizado como ultima ratio. As expectativas básicas de segurança online, apesar de trazerem orientações interessantes, também possuem alguns pontos problemáticos, especialmente com orientações que põem em risco à criptografia. Alguns especialistas também apontam que os requisitos de remoção de conteúdo adotados podem prejudicar grupos marginalizados, como profissionais do sexo, educadores sexuais, pessoas LGBTQIA+ e artistas. Nesse sentido, muito mais acertado é o modelo brasileiro que, além de adotar as hipóteses de responsabilização a partir de notificação extrajudicial como exceções, trata esses casos em âmbito cível. - Alex Camacho Castilho 12/07/2023 às 15:41Essa medida pode ser eficaz para combater a disseminação de conteúdos prejudiciais, como desinformação, extremismos, discurso de ódio e discurso terrorista. No entanto, é importante garantir que a definição dessas categorias seja clara, precisa e alinhada com os princípios de liberdade de expressão e proteção dos direitos humanos. Além disso, deve haver mecanismos de notificação transparentes e processos justos de avaliação e remoção para evitar abusos e garantir a transparência e a prestação de contas das plataformas digitais.
- Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 18:04No entendimento da ABRANET, o atual regime de responsabilidade das plataformas digitais, estabelecido no art. 19 do Marco Civil da Internet, é o modelo ideal de responsabilização dos agentes no que tange à preservação dos direitos fundamentais em sua integralidade.
Nesse sentido, vale resgatar que tal regime surgiu de uma necessidade prática de se harmonizar a responsabilização dos agentes da internet no sentido mais produtivo e eficiente possível. Desde o começo dos anos 2000, operava uma tendência geral do judiciário em considerar em suas decisões o modelo de notificação e remoção, o que poderia gerar um abuso por parte dos denunciantes, tolhendo a liberdade de expressão e obrigando as plataformas digitais a atuarem como verdadeiros censuradores de conteúdo.
Por isso, de meados de 2009 até 2011, houve intensas discussões sobre como endereçar estes problemas, mas, ao mesmo tempo, garantir que haja responsabilidade dos agentes. A proposta inicial do Ministério da Justiça – derrotada em uma consulta pública – era a de manter o sistema de notificação e retirada.
No Marco Civil da Internet, solidificou-se o modelo adotado no art. 19, qual seja, o da responsabilização por inação em caso de ordem judicial específica: “Art. 19 - Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”
Contudo, após intensos debates nas arenas parlamentares, os legisladores entenderam que haveriam algumas exceções à essa regra, sendo estas os casos da pornografia de vingança e os casos de direitos autorais, que ensejam uma maior responsabilização dos agentes, conforme art. 21: “O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.”
A ABRANET entende como positiva a inclusão dessas exceções, pois, ao mesmo tempo em que respeitam e observam a liberdade de expressão, fundamental para o funcionamento da internet, estabelecem valores jurídicos cuja tutela maior se faz necessária. Nesse sentido, a ABRANET entende que o sistema de retirada por simples notificação é um retrocesso e uma violação de direitos fundamentais conquistados com ampla participação popular e com enorme esforço legislativo.
Todavia, reconhecendo que há necessidades de se atualizar os bens jurídicos que deverão ser tutelados de forma mais enfática, a ABRANET sugere que a nova regulação de plataformas preveja reformas no rol de exceções do Marco Civil da Internet, de modo a contemplar as principais preocupações levantadas pelos parlamentares e confirmadas, de forma democrática, pela população. - Christian Abreu 21/06/2023 às 09:23Medida perigosa. Ninguém deve ter tal poder de "remoção obrigatória pelas plataformas digitais por simples notificação". Equivale a cerceamento da liberdade de expressão, é inconstitucional, é instrumento para imposição de ditadura.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:54(Contribuição da Coalizão Direitos na Rede)
Não se deve prever em lei a concessão às plataformas de atribuições e prerrogativas próprias do Poder Judiciário, inclusive na análise de crimes: é um erro incentivar a retirada de conteúdos de forma indiscriminada, pois isso amplia o poder das plataformas. Entretanto, no caso de conteúdos impulsionados e monetizados, entende-se que já houve uma análise das plataformas sobre os mesmos e uma escolha das mesmas em lucrar com tais conteúdos. Neste sentido, a Coalizão Direitos na Rede entende que as empresas devem ser corresponsabilizadas por danos causados por conteúdos que tenham sido objeto de impulsionamento e monetização. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:31[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Sim, nos termos do proposto na versão de abril de 2023 do PL 2630/2020. - Filipe Saraiva 16/07/2023 às 22:22É necessária a responsabilização das plataformas pelos conteúdos impulsionados e monetizados, entretanto mesmo aqueles não impulsionados também devem ser regulados, afinal o modelo econômico dessas plataformas também extrai valor destes.
- Rede de Pesquisa em Governança da Internet (comentário inserido por: Rede de Pesquisa em Governança da Internet) 16/07/2023 às 20:46Há várias evidências de como plataformas como YouTube, Facebook, WhatsApp, Telegram têm contribuído para a ascensão da extrema direita, e para riscos de saúde em períodos de crises sanitárias como Zika e COVID-19, promovendo conteúdos perigosos via recomendações de seus algoritmos. Os trabalhos de Yaso Córdova, Letícia Cesarino, David Nemer, Rosana Pinheiro-Machado, João Cezar de Castro Rocha são referências. A ação dessas plataformas contribui para mais desigualdades e riscos a populações em vulnerabilidade social devido ao seu próprio modelo de negócios. Também salientamos a dificuldade de fazer com que conteúdos de comunidades tradicionais, pequenos comerciantes e jornalismo independente se sobressaiam devido ao modelo cassa-cliques dessas plataformas, o que se torna mais um risco à democracia e à diversidade, princípio da internet brasileira (CGI.br, 1995).
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:18Estabelecer a responsabilidade de plataformas por conteúdos impulsionados e monetizados pode sim ser um caminho eficaz na expansão da responsabilidade de plataformas digitais. Tal caminho não apresenta contradição com o modelo consolidado no MCI de responsabilidade de intermediários. Ao garantir a base normativa para conteúdos publicados por usuários, essa responsabilização complementa o MCI, transformando as plataformas corresponsáveis por conteúdos "não naturais", ou seja, conteúdos pelos quais elas vão receber quantia de dinheiro diretamente para que influenciem na sua disseminação. Assim, a plataforma passar a ser obrigada a garantir que o conteúdo impulsonado e monetizado seja analisado, mitigando o lucro direto sobre conteúdo ilegais ou nocivos.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:57As plataformas devem ser solidariamente responsáveis por conteúdos danosos impulsionados e monetizados por terceiros. Para isso, o tratamento dado aos conteúdos cujo impulsionamento fora requerido, devem passar por escrutínio técnico mais rigoroso, levando em conta os termos e condições de uso da plataforma. Estes por sua vez devem ser abertos ao escrutínio público e ao aprimoramento periódico, a partir de relatórios de transparência que deverão ser oferecidos pelas plataformas, tais relatórios devem apresentar transparência também no que diz respeito a quem patrocina o impulsionamento de tais conteúdos e os valores. A previsão para elaboração de relatórios de transparência e aprimoramento periódico devem estar contidas em lei.
- ITS Rio (comentário inserido por: Carlos Affonso Souza) 16/07/2023 às 19:11A discussão jurídica sobre a possibilidade de responsabilização de plataformas por conteúdos monetizados é incipiente e ainda precisa ser amadurecida antes de pensar em formas de implementá-la no contexto regulatório. Recentemente, a Suprema Corte dos EUA decidiu dois casos relacionados à possibilidade de responsabilização de plataformas por conteúdos recomendados por algoritmos. Diante da falta de nexo causal entre o dano alegado pelos requerentes (morte de parentes em razão de ataques terroristas do Estado Islâmico na Europa) e a "ação" das plataformas digitais (recomendação de conteúdos do Estado Islâmico, como vídeos no YouTube), a Corte decidiu não adentrar na discussão sobre a constitucionalidade da Seção 230, norma que prevê a imunidade destas empresas diante de danos causados por conteúdos de terceiros. Em um dos casos, Gonzalez v. Google, a Corte indicou interesse pela discussão sobre monetização de conteúdo (revenue-sharing system), mas reconheceu que isso estaria fora do escopo da ação. Já sobre conteúdos impulsionados ou recomendados, há argumentos no sentido de que é tecnicamente inviável distinguir essa categoria dentro do ecossistema de moderação de conteúdo. É dizer, as escolhas das plataformas sobre o que é apresentado ao usuário, como as informações são filtradas e categorizadas e quais serão "impulsionadas" são "funcionalmente inseparáveis" do "design unificado de plataformas digitais" (NESCHKE et al, 2023). Sistemas de recomendação, portanto, são peças centrais da infraestrutura digital das plataformas e isso deve ser considerado pelo regulador.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:45No que concerne ao conteúdo que é promovido e monetizado pelas entidades empresariais que operam plataformas digitais, a noção de responsabilidade solidária se revela notoriamente pertinente. O papel desempenhado por essas entidades ultrapassa a simples intermediação quando elas deixam de ser apenas um veículo passivo entre o produtor e o consumidor final, e se transformam em um amplificador ativo. Em outras palavras, essas plataformas assumem a posição de um agente que se esforça para conectar o consumidor de maneira proativa com o conteúdo em questão, semelhante a alguém que bate à porta e questiona se o consumidor tem interesse naquele conteúdo.
- Tarcizio Silva 16/07/2023 às 16:16Sim. A manutenção de conteúdo abusivo tem o potencial de gerar engajamento, impressões e outros tipos de métricas que são contabilizadas pelas plataformas e acabam por fazer parte de seus negócios.
Além das obrigações de remoção de conteúdo a partir da decisão judicial, as plataformas devem ser obrigadas a direcionar toda a receita gerada nas páginas com o conteúdo nocivo a fundo estatal de fomento a organizações de defesa de direitos humanos. - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:42Dado que a plataforma seleciona ativamente conteúdo para impulsionar ou monetizar, normalmente a partir de solicitação de usuário interessado em difundir seu conteúdo ou em gerar receita a partir dele, é plausível exigir dela maior rigor nessa seleção a partir da responsabilização.
Dito isso, é importante entender que essa hipótese de responsabilização pode criar um incentivo para que a plataforma evite impulsionar ou monetizar conteúdo polêmico (em particular, manifestações políticas). Isso porque ela visará reduzir o risco de ser responsabilizada por entender incorretamente que aquela publicação é protegida pela liberdade de expressão. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:25Equiparar a responsabilidade das plataformas com aquela do anunciante seria o mesmo que responsabilizar quaisquer veículos de comunicação tradicionais por quaisquer danos ou violações legais decorrentes dos anúncios, o que sabidamente não ocorre.
Cabe destacar que o modelo de negócio das plataformas digitais não se assemelha aos veículos de comunicação de mídias tradicionais (jornal, revista, televisão). Enquanto as mídias tradicionais dedicam espaço definido para exploração de anúncios, com transmissão ao público totalmente controlada pelo veículo, os provedores de aplicações de internet operam sob uma lógica diferente, em que múltiplos anunciantes podem inserir as suas ofertas publicitárias simultaneamente, para diferentes públicos. Assim, o volume de anúncios veiculados diariamente em uma plataforma online é exponencialmente maior, havendo verdadeira impossibilidade técnica de se realizar amplo controle editorial de todo o conteúdo previamente à divulgação.
Diante disso, um excesso na responsabilização das plataformas por conteúdos sejam eles monetizados ou não, pode gerar o chamado chilling effect ou efeito inibidor, com a retirada massiva de todo conteúdo que represente, minimamente, um risco para as empresas, de modo que conteúdos legítimos possivelmente serão perdidos nessa atuação “diligente” das plataformas. Esse cenário impactaria diretamente o exercício do direito à liberdade de expressão nessas plataformas de grande porte. Somado ao estado da arte e custo de operação de modelos automatizados, teríamos uma redução da esfera de direitos garantidos sem a segurança, sequer, de uma compensação em termos de redução de danos relativos à desinformação ou discurso de ódio e criminoso. - José Antonio Galhardo 16/07/2023 às 10:56E das empresas patrocinadoras que monetizam muitas vezes sem saber ou sem se preocupar qual o público-alvo está sendo atingido. Em casos extremos, que resultem em mortes ou tentativas de golpe contra instituições democráticas e de justiça, pode-se pensar em uma legislação que atribua responsabilidade objetiva às plataformas digitais, tal qual a lei anticorrupção.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:44Sim. Os conteúdos monetizados, seja por publicidade direcionada ou impulsionamento, devem ser alvo de responsabilização, na medida que os atos dos provedores no controle do fluxo de informações permanecem sob responsabilidade do CDC e todo o arcabouço jurídico brasileiro.
Em demandas afetas aos direitos do consumidor, presume-se a participação da plataforma na cadeia de consumo em razão da sua remuneração, direta ou indireta, para fins de impulsionamento ou publicidade de determinado conteúdo, havendo responsabilidade objetiva e solidária (i) pelas falhas na prestação do serviço e (ii) pela violação de demais direitos dos consumidores (parágrafo único, art. 7º CDC c/c art. 14 CDC).
No mesmo sentido, deve haver a responsabilidade das plataformas sobre conteúdos ilegais, abusivos e fraudulentos veiculados por meio dela e sobre como se dá a interação de usuários. Ou seja, se há prática de crime/ilícito em anúncios na plataforma, ela não pode ser isenta.
Esse reconhecimento pode ser reiterado em futura legislação (assim como está sendo na atual versão do PL 2630), mas o Idec entende que o atual arcabouço jurídico brasileiro também já garante essa responsabilização por meio da aplicação do CDC. - João Coelho 15/07/2023 às 16:10Nos casos em que conteúdos são monetizados ou impulsionados pelas próprias plataformas, sua responsabilidade deve ser ainda maior.
Ana Frazão, no já mencionado parecer, destaca que o dever de cuidado das plataformas pelo conteúdo gerado por terceiros deve ser ampliada quando elas impulsionarem ou monetizar esse conteúdo, já que, nessa hipótese, esses agentes adotam uma conduta proativa para amplificar o alcance desse conteúdo.
Para ver mais: FRAZÃO, Ana. Parecer: Dever geral de cuidado das plataformas diante de crianças e adolescentes - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:29A maior parte dos sites da Internet são monetizados por empresas de publicidade que veiculam anúncios neles. A responsabilização de plataformas por conteúdos impulsionados é algo que já existe pelo regime de responsabilidade subjetiva de plataformas caracterizado pelo Marco Civil da Internet, o qual o faz independente de o conteúdo ser impulsionado ou não.
- Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 14:34As plataformas devem ser responsabilizadas por conteúdo que tenha seu alcance ampliado a partir de pagamento, como pela venda de impulsionamento ou palavras-chave. Deve-se considerar a especificidade de conteúdos que violem os direitos humanos.
- Alex Camacho Castilho 12/07/2023 às 15:42É fundamental estabelecer a responsabilidade das plataformas digitais pelos conteúdos que são impulsionados e monetizados em suas plataformas. Isso significa que as plataformas devem ser responsáveis pela verificação e moderação desses conteúdos, a fim de evitar a disseminação de informações falsas, discurso de ódio ou conteúdo prejudicial. Essa medida incentiva a responsabilidade das plataformas em relação ao impacto de suas práticas de monetização e impulsionamento de conteúdo, contribuindo para a promoção de um ambiente mais seguro e saudável.
- Edson Andrade 26/06/2023 às 21:02Não somente as plataformas, mas seus autores que impulsionaram e monetizaram.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:31[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A regulação deve buscar limitar práticas danosas aos direitos individuais e coletivos, especialmente em setores sensíveis para a democracia, o exercício de direitos e o reconhecimento da pluralidade e da diversidade que compõem o Brasil, com destaque para as plataformas de produção e circulação de conteúdos informativos e culturais. Da mesma forma, deve ser instrumento para a diversificação dos agentes e dos serviços prestados, com vistas à afirmação da internet como um bem comum. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 21:12Como medida de mitigação, seria interessante uma regulação exigindo que os algoritmos de recomendação incluam dentre as recomendações uma opção do tipo "Show me another view", que mostra outro lado politico/filosofico/religioso, se o usuário quiser.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:22A regulação de plataformas pode prever normas sobre transparência algorítmica para que os usuários compreendam a que tipo de conteúdo estão sendo expostos e por quê, o que os auxilia no combate à desinformação. Um dos possíveis mecanismos para isso é possibilidade de abertura da curadoria de conteúdos, tornando obrigatório às plataformas a possibilidade de outras fórmulas de exposição de conteúdo que podem ser adotadas livremente pelo usuários. Tal medida é proposta no documento "Tamming Big Tech" da Article 19, no qual é apontada o que se chama de "unbundling of hosting and content moderation".
Esse esforço deve ser acompanhado de iniciativas de educação midiática, política pública essencial a ser tomada por órgãos do Governo Federal e agências. - INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:58O modelo de negócios das plataformas baseado no superávit comportamental, faz da própria navegação do usuário a trilha para a oferta de conteúdos por parte das plataformas, o que na prática produz grupos cada vez mais circunscritos a universos particularizados e pouco diversos. Para além de uma regulação que incida diretamente sobre o modelo de negócios, uma indicação seria, dar ao usuário o poder de definir de forma ativa e informada a forma como a plataforma irá entregar a curadoria do conteúdo, que poderia ser a) baseado em dados da navegação ou b) previamente definidos pelo usuário. Outras medidas são garantir que os termos de uso dos provedores contenham os parâmetros utilizados nos seus sistemas de recomendação de conteúdo, ressalvados os segredos comerciais, e garantir a responsabilização algorítmica, com relatórios periódicos que mostrem as etapas cumpridas pelo sistema para garantir que a hierarquização e/ou recomendação de conteúdos estejam de acordo com os termos de uso, podendo o usuário a qualquer momento incidir sobre esta definição.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:45Uma perspectiva essencial que deve ser considerada é a necessidade de instituir um sistema de certificação de plataformas em relação aos seus compromissos com os direitos humanos e a democracia. Este conceito seria semelhante a um "selo verde" para questões ambientais. Dentro desse compromisso, seria crucial incentivar a disseminação de conteúdos que promovam valores públicos, ancorados nos direitos humanos e na democracia. Adicionalmente, a demonstração adequada de devida diligência para empresas comprometidas com direitos humanos, em relação a conteúdos recomendados por sistemas algorítmicos, poderia ter como critério incorporado, o pluralismo midiático.
- Tarcizio Silva 16/07/2023 às 16:20É uma boa medida de mitigação. Uma possibilidade é a inclusão de programa de apoio, pelas plataformas, de conteúdo de associações científicas das grandes áreas do conhecimento.
Também é recomendada a obrigatoridade de opções de feeds sem curadoria algorítmica, ordenados apenas por ordem de publicação. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:25Diversas empresas tomam medidas para fazer emergir em seus serviços informações de qualidade, como informações contextuais sobre conteúdo disseminado por terceiros, conteúdo criado por checadores de fatos e conteúdos de notícias.
Em relação ao combate ao terrorismo, as empresas que compõem a ALAI, como Facebook, Microsoft, Twitter e YouTube, estabeleceram um Forum Global de Combate ao Terrorismo (GIFCT). Este fórum busca estabelecer a colaboração técnica entre as empresas, avançar pesquisas sobre o assunto e compartilhar informações com outras plataformas menores. Em colaboração com a iniciativa Tech Against Terrorism, o GIFCT realiza workshops globais, envolvendo empresas de tecnologia, organizações não governamentais e órgãos governamentais internacionais.
O banco de dados de compartilhamento de hashes do GIFCT permite que parceiros do setor compartilhem hashes (ou “impressões digitais”) de conteúdo terrorista para impedir sua disseminação. O banco de dados compartilhado atualmente contém mais de 320.000 hashes exclusivos que são quase idênticos ao olho humano. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:05Estabelecimento de mecanismos de feedback para treinamento de IA Generativa, com a preocupação de que modelos amplos de feedback podem vir a serem manipulados por “cadeias” de manipulação da informação:
O feedback e a própria avaliação crítica dos conteúdos gerados por inserção de prompts em ferramentas de IA Generativa podem ser uma estratégia educacional importante para crianças e adolescentes, inclusive, incentivando a pesquisa de fontes externas e a compreensão dos juízos de valores no conteúdo gerado. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:05Para além da ideia de transparência - maior controle sobre as possibilidades de visibilidade e filtragem de conteúdo, adequado à compreensão do desenvolvimento progressivo de capacidades de crianças e adolescentes:
As plataformas digitais devem disponibilizar mais de um mecanismo de curadoria de conteúdo e sistema de recomendação e proporcionar aos usuários a possibilidade de escolha significativa entre eles, compartilhando informações acessíveis e transparentes sobre seu funcionamento.
(Fonte: Safeguarding freedom of expression and access to information: guidelines for a multistakeholder approach in the context of regulating digital platforms, Unesco - p. 23 - https://www.unesco.org/en/internet-conference/guidelines)
“53. Estados Partes devem assegurar que todas as crianças sejam informadas sobre, e possam facilmente encontrar, informações diversas e de boa qualidade online, incluindo conteúdo independente de interesses comerciais ou políticos. Eles devem assegurar que a busca automatizada e a filtragem de informações, incluindo sistemas de recomendação, não priorizem conteúdos pagos com motivação comercial ou política sobre as escolhas das crianças ou às custas do direito das crianças à informação.”
Fonte: Item 53 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:31O incentivo à existência de conteúdos que apoiem a diversidade e existência de diversas abordagens políticas e/ou científicas é algo benéfico para a sociedade, porém, a prevalência destes conteúdos em detrimento de outros seria algo mais difícil de ser colocado em prática, tendo em vista que cada plataforma possui seu próprio mecanismo de moderação. Além disso, a interpretação de conteúdos é subjetiva. Um exemplo é a exclusão indevida de imagens indígenas enxergadas por algumas plataformas como conteúdo de nudez, quando simplesmente é um conteúdo culturalmente diferente dos padrões estabelecidos pela cultura ocidental. Portanto, a medida mencionada neste tópico para mitigação desse risco pode ser arbitrária em alguns contextos, perigosamente afetando a liberdade de expressão, de diversidade e crenças.
- Alex Camacho Castilho 12/07/2023 às 15:43Essa medida é importante para combater a polarização e a disseminação de informações enviesadas. Ao melhorar a exposição dos usuários à diversidade de conteúdos, posições políticas e abordagens científicas, as plataformas digitais podem contribuir para uma visão mais abrangente e pluralista do mundo. Isso pode ser alcançado por meio de algoritmos mais transparentes e equitativos, que evitem a criação de bolhas de informação e promovam a diversidade de perspectivas. Além disso, é fundamental fornecer aos usuários ferramentas que lhes permitam personalizar suas preferências e receber uma variedade de informações que reflitam a diversidade de opiniões e visões.
- Irineu Barreto 12/07/2023 às 10:37Importante salientar que mitigar o discurso de ódio exige preservar a liberdade de pensamento e expressão, considerando sua proteção um primado das democracias modernas, mas que provocam responsabilidade nas situações de discursos odientos, caluniosos ou discriminatórios.
- Christian Abreu 21/06/2023 às 09:28Medida perigosa. Não deve haver "critérios ou mecanismos" - os usuários devem ter liberdade de consumir a informação que deseja, e as plataformas devem ter liberdade para direcionar o que bem entenderem segundo quaisquer que sejam os seus objetivos, em particular de ser interessantes e úteis. Ninguém deveria ter poder sobre a "definição de critérios e mecanismos" sob risco de impor a sua própria visão de "diferença" o "diversidade".
- Roberto Cardoso Freire da Silva 20/06/2023 às 12:31Deveria haver a possibilidade de escolha dos usuários de não ter seus dados coletados e rastreados, para que não fossem enquadrados nas bolhas informacionais. A coleta de dados ou não deveria ser uma escolha dos seus proprietários.
- Victor Lippi Zaccariotto 13/05/2023 às 21:16Esse item é de extrema importância, principalmente no que tange a questão política. Sabemos da grave polarização política que temos hoje. Tal situação é fruto da manipulação de temas sensíveis e facilidade de transformar pontos de vista e opiniões em verdades absolutas. Esse ponto é um dos mais polêmicos da regulação digital, afinal nem sempre é simples metrificar a diferença entre opinião e mentira, principalmente quando ela vem disfarçada de liberdade de expressão. Sabemos que no mundo político, a oposição e situação demonizam atos uns dos outros e endeusam seus próprios atos. Considerando a capacidade de manipulação exagerada que o meio político usa, onde o internauta menos questionador que consome somente uma dessas fontes, acaba por ficar cerceado naquela "realidade" implantada. Tal situação, faz com que o usuário crie uma intolerância à figuras que muitas vezes são denegridas e isso gera uma repulsa em consumir outros pontos de vista. Os algoritmos das redes acabam por agravar esse cenário, ao filtrar mais conteúdos correlatos aos que agradam o usuário, de forma a acentuar essa situação. Se houvesse um ajuste dos algoritmos para que em determinados temas pulverizassem opiniões diversas, haveria uma chance maior, de, em algum momento o usuário se permitir consumir um conteúdo que exponha um contraponto válido para o que está tão enraizado na sua concepção política.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:31[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A legislação e normas associadas devem também fixar diretrizes para a formulação das políticas e regras (como termos de uso e diretrizes de comunidade) em linha com a legislação em vigor, com o fortalecimento da democracia e com o respeito e promoção dos direitos humanos. - Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:34São quatro os pontos que sintetizam a impertinência deste trecho da proposta de legislação:
A proposta inova e representará um óbice para que redes sociais apliquem regras privadas em face de parlamentares que violem a conduta nestes espaços. Ao estabelecer que a imunidade parlamentar “estende-se” às redes sociais, a medida dá a entender que a inviolabilidade de parlamentares pode ser oposta à ação das redes sociais em aplicarem suas regras de conduta e termos de uso. Assim, o projeto abre brecha para que a salvaguarda constitucional seja utilizada como escudo contra a autorregulação das plataformas em relação a seus ambientes digitais.
Por exemplo, atualmente se um parlamentar usar suas redes sociais para disseminar conteúdos de questionamento da campanha vacinal de Covid-19, ele terá suas publicações removidas rapidamente por violar as políticas de uma rede social desenhadas para conter o dano na vida real. Caso o art. 22, § 8º entre em vigor, o parlamentar possuirá base legal possível para acessar à Justiça para afirmar que suas palavras na rede social não poderiam ser removidas pela empresa por conta de sua imunidade parlamentar, argumentando que seu discurso político é inviolável.
Desta maneira, o dispositivo será mobilizado por parlamentares para impedir que as empresas proprietárias de redes sociais atuem em face de qualquer conteúdo por eles publicado, impossibilitando, assim, a retirada de conteúdos, inclusive os desinformativos e os ilícitos, gerando efeitos graves, até mesmo em casos de calamidade e emergências públicas. Assim, o desdobramento seria a utilização abusiva do instituto.
O efeito de “blindagem” independe da atuação direta do Judiciário. A mera aprovação do dispositivo certamente constrói incentivos para que as redes sociais titubeiem ao aplicar regras em face de parlamentares em quaisquer casos sob pena de darem causa a ações. Este receio pode inclusive prejudicar a própria atividade parlamentar, já que os termos de uso possuem regras que garantem a segurança dos próprios usuários frente aos outros ou em casos de invasão de seus perfis, por exemplo.
A “moderação de conteúdo”, atividade necessária para o convívio nas redes sociais, será prejudicada por esse dispositivo. Moderação de conteúdo é um termo que designa as ações de elaboração e aplicação de regras privadas de conteúdo por provedores de internet. Assim, a violação de tais regras pode ensejar a remoção, restrição de circulação, sinalização de conteúdos ou a derrubada de perfis, dentre outras ações.
Esta atividade é parte constitutiva do serviço oferecido por plataformas de redes sociais, por exemplo. Ela ocorre para organizar o espaço digital que elas entregam como serviço aos seus usuários e parceiros de negócios, e para promover diferentes tipos de convívio e expressão. É por conta da moderação de conteúdo que podem ser oferecidas redes sociais segmentadas (como aquelas destinadas a crianças ou a temas específicos) ou que promovam tipos diferentes de debate (mais ou menos acalorados, ácidos ou divertidos). É a moderação de conteúdo que também evita que conteúdos explicitamente nocivos, violentos ou mesmo criminosos circulem logo de saída, promovendo assim a liberdade de expressão e de participação política daqueles que tem seu espaço de manifestação reduzido por tais condutas, como já foi explicado pelo InternetLab no documento "Armadilhas e caminhos na regulação da moderação de conteúdo". Desta maneira, se realizada de maneira equilibrada e lícita, a moderação de conteúdo é uma atividade necessária para o convívio saudável nas redes sociais e para a promoção da liberdade de expressão.
Conforme visto acima, a mitigação desta atividade a partir de uma blindagem em favor deste ou daquele usuário (especialmente usuários com grandes redes de conexões e seguidores) desequilibra esse arranjo de forma indevida. Esta blindagem produzirá focos de inação das plataformas de redes sociais, prejudicando não só o seu negócio, mas o uso de seus serviços pelos demais usuários. Por não estarem submetidos à célere aplicação dessas regras, parlamentares estarão desimpedidos de causar danos uns aos outros, aos demais usuários, à sociedade e às instituições.
A medida opõe indevidamente a imunidade parlamentar à ação de particulares, desvirtuando o seu significado. A restrição indevida da expressão de contas “de interesse público” já possui tratamento equilibrado no projeto de lei. Como é sabido, a imunidade material funciona em oposição à responsabilização civil e penal pelas opiniões, palavras e votos de parlamentares. Ela possui função republicana de proteger os representantes eleitos de cerceamentos pela Justiça Cível ou Criminal por sua atividade política. Afasta o controle do Estado em relação a sua expressão, o que poderia representar uma limitação de caráter definitivo, coercitivo e não limitado a este ou aquele espaço.
A medida proposta no PL 2630 desvirtua este significado, opondo a imunidade parlamentar à particulares ao "estendê-la" às redes sociais. Assim, ela inverte as obrigações de provedores, estabelecendo que um particular (a rede social) deveria intermediar/carregar a priori um conteúdo que ele não deseja (uma postagem contra suas regras privadas). A aplicação de tais termos de uso não representa um cerceamento civil ou penal em decorrência de uma ação processual no âmbito do aparato estatal do Poder Judiciário.
Desta maneira, mesmo que a remoção de conteúdo de parlamentares seja vista como uma restrição, ela tem natureza radicalmente diferente do cerceamento que a imunidade busca evitar. Em razão disso, o projeto de lei já estabelece procedimento equilibrado para garantir a manutenção de conteúdos produzidos por “contas de interesse público” nas redes sociais, conforme abaixo:
Art. 22 (...) § 2º As decisões de provedores que constituam intervenção ativa ilícita ou abusiva em contas e conteúdos de contas de interesse público autorizam o ajuizamento de ação judicial para a sua restauração, de forma célere, devendo o Poder Judiciário obrigar os provedores a restabelecerem tais contas nos casos em que fique comprovada a sua operação em conformidade com direitos fundamentais e com os princípios da legalidade, impessoalidade, moralidade, publicidade e eficiência.
O dispositivo acima já confere proteção devida às contas de interesse público, dando o tratamento equilibrado, ad hoc e adequado à relação entre agentes públicos e redes sociais. Um conteúdo protegido pela imunidade parlamentar material deve poder ser removido pela rede social, sem gerar qualquer consequência civil ou penal ao parlamentar, do mesmo modo que um conteúdo pode gerar responsabilização civil ou penal ao parlamentar mesmo que não seja removido pela plataforma. O mecanismo de "imunidade" parlamentar proposto no projeto de lei oferece, efetivamente, um sistema online de duas castas, onde os parlamentares teriam uma capacidade superior de liberdade de expressão, permitindo-os violar as regras de convívio dos espaços digitais.
A proposta cria discriminações indevidas entre usuários de redes sociais, com efeitos também no plano eleitoral. Ao impedir a moderação sobre a expressão de legisladores, a regra pode gerar efeitos discriminatórios. Ao cabo, poderá permitir a existência de duas categorias de usuários, uns sujeitos às regras de moderação e outros que estão isentos delas. Essa preocupação foi expressa em posição dos ex-Relatores da Liberdade dos sistemas interamericano e universal de direitos humanos, Edison Lanza, Santiago Cantón e Frank LaRue.
Compreendendo que essa pode ser uma porta para abusos por parte de atores políticos disseminadores de informações falsas e que vão utilizar-se desse dispositivo para barrar qualquer ação contra seus conteúdos, é preciso que o dispositivo seja excluído do atual texto da proposta legislativa.
A título de exemplo, a imunidade parlamentar poderá garantir, no período eleitoral, um privilégio aos parlamentares que concorrerão à reeleição contra os postulantes que não são possuidores de mandato. As regras de moderação serão impostas aos últimos de forma mais ampla do que aos primeiros, que poderão recorrer à interpretação extensiva da imunidade aqui apresentada. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:46Iniciativas em âmbito público e privado, em nível global, reconhecem a necessidade de obrigações de transparência mais rigorosas para grandes plataformas, desfrutando atualmente de um bom nível de consenso entre os diferentes setores da sociedade. O desafio imposto às medidas de mitigação relacionadas à falta de transparência é definir princípios, diretrizes e critérios claros para orientar decisões sobre o que se deve publicizar, para quem, em que contexto e de que forma, além de detalhar medidas e obrigações de transparência específicas para plataformas digitais, respeitando os diversos contextos de atuação.
As medidas de mitigação para os riscos associados a infodemias, como desinformação, extremismos, discurso de ódio e discurso terrorista, devem considerar a implementação de obrigações de transparência mais rigorosas para as grandes plataformas. Essas obrigações se estabelecem como um consenso entre diversos setores da sociedade. Entretanto, um desafio significativo reside em definir princípios, diretrizes e critérios claros que norteiem decisões sobre o que se deve divulgar, para quem, em qual contexto e de que forma, além de detalhar medidas e obrigações de transparência específicas para plataformas digitais (YORK & ZUCKERMAN, 2019). É relevante também mencionar que avaliações independentes e periódicas de terceiros podem ajudar a garantir a conformidade das empresas com Direitos Humanos (baseando-se em documentos como os Ruggie Principles), tendo em vista a importância do escrutínio externo para garantir a transparência e legitimidade das ações privadas das plataformas digitais.
Adicionalmente, há que se destacar a primeira legislação mundial que exige relatórios de transparência pública para as principais plataformas de conteúdo gerado pelo usuário, a NetzDG. De acordo com a legislação alemã, todas as empresas operando redes sociais com mais de 2 milhões de usuários no país (como Facebook, Google, Twitter e Change.org) devem publicar relatórios semestrais incluindo detalhes sobre procedimentos operacionais, remoções de conteúdo e como os usuários foram notificados sobre tais remoções. Porém, a transparência não é uma panaceia para os problemas mais estruturais, mas sim uma parte essencial de um quadro mais amplo de medidas de mitigação. Assim, é imprescindível mais pesquisas para examinar como as empresas de plataformas promovem e executam a transparência, assim como esta funciona em um cenário de governança cada vez mais contestado (ANANNY & CRAWFORD, Kate, 2018). Portanto, propostas regulatórias devem adotar uma visão mais abrangente para enfrentar esses desafios, considerando as dinâmicas de plataforma que resultam em assimetrias de informação que afetam stakeholders e sociedades.
Referências:
ANANNY, Mike; CRAWFORD, Kate. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. new media & society, v. 20, n. 3, p. 973-989, 2018
YORK, Jillian C.; ZUCKERMAN, Ethan. Moderating the public sphere. Human rights in the age of platforms, v. 137, p. 143, 2019
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:45Ressalta-se a importância de se equilibrar o combate à desinformação com outros direitos, como a liberdade de expressão e a repressão à censura. Deve ser feito um balanço entre diversos direitos que estão em jogo quando se trata de discursos pela internet. Ou seja, qualquer marco que lide com conteúdos deve também levar em contas direitos humanos e um correto equilíbrio entre direitos.
"Uma resposta adequada deve ter como premissa a necessidade de equilibrar a imposição de novas responsabilidades às plataformas digitais com a garantia da proteção de direitos humanos, em especial a liberdade de expressão, inclusive em sua dimensão coletiva, o acesso à informação, proteção de dados e a defesa do Estado Democrático de Direito. Além disso, deve evitar respostas aparentemente fáceis, como a determinação de ações de moderação de conteúdos para plataformas unicamente, podem gerar intervenções desproporcionais e incorretas, com riscos de cerceamento indevido de liberdade de expressão e de ampliação do poder de agentes privados sobre o que circula e chega ao público. O combate a práticas nocivas, portanto, não pode justificar a adoção de mecanismos vigilantistas.
Para tanto, faz-se necessário garantir um modelo de regulação público, que contemple freios e contrapesos, conte com participação multissetorial e evite instrumentalização. O Brasil pode, mais uma vez, ser exemplo de proposições democráticas sobre a governança da Internet, assim como no caso do Marco Civil da Internet." [1]
[1] CDR. Carta Aberta: Regulação democrática das plataformas com urgência!. 20 abr. 2023. Disponível em: https://direitosnarede.org.br/2023/04/20/carta-aberta-regulacao-democratica-das-plataformas-com-urgencia/, - João Coelho 15/07/2023 às 16:12Abordagens preventivas e justiça restaurativa como nortes para casos em que crianças e adolescentes sejam autores de violências no ambiente digital
81. (...) Nos casos em que as crianças tenham praticado essas ações, Estados Partes devem buscar abordagens preventivas, de salvaguarda e de justiça restaurativa para as crianças envolvidas, sempre que possível.
Fonte: Itens 81 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A Justiça restaurativa é alternativa aos métodos tradicionais de administração de conflitos no âmbito do Poder Judiciário. Contudo, expoentes dessa alternativa têm entendimento da Justiça Restaurativa, não como uma técnica de solução de conflitos – apesar de conter um leque delas –, mas como uma verdadeira mudança dos paradigmas de convivência, voltada à conscientização dos fatores relacionais, institucionais e sociais motivadores da violência e da transgressão, de forma a envolver todos os integrantes da sociedade como sujeitos protagonistas da transformação rumo a uma sociedade mais justa e humana.
Fonte: Conselho Nacional de Justiça. Apresentação da Minuta da Política Nacional da Justiça Restaurativa
Referência Legal: Resolução nº 125/2010, CNJ; Resolução n. 225/2016, CNJ, que institui e regulamenta especificamente uma Política Nacional de Justiça Restaurativa no âmbito do Poder Judiciário. Para ver mais: Conselho Nacional de Justiça. Pilotando a Justiça Restaurativa.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 180 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Segundo a Constituição Federal, o Estatuto da Criança e do Adolescente e a Lei 12.594/2012, que regulamenta o Sistema Nacional de Atendimento Socioeducativo, a brevidade e a excepcionalidade são os princípios que devem guiar a aplicação de qualquer medida de privação de liberdade de adolescentes. Ainda, a Lei do Sistema Nacional de Atendimento Socioeducativo determina que as medidas socioeducativas devem ser regidas, entre outros, pelo princípio da excepcionalidade da intervenção judicial e da imposição de medidas, favorecendo-se meios de autocomposição de conflitos.
Referência legal: art. 227, §3º, CF/88; arts. 104 e 105, ECA; art. 35, inciso II, da Lei 12.594/2012; Regras Mínimas das Nações Unidas para a Administração da Justiça da Infância e da Juventude - Regras Beijing; Regras das Nações Unidas para a Proteção dos Menores Privados de Liberdade; Diretrizes das Nações Unidas para Prevenção da Delinquência Juvenil Diretrizes de Riad.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 243 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Direito à dignidade de crianças e adolescentes no âmbito do sistema socioeducativo:
Direito à dignidade Direitos de crianças e adolescentes são direitos humanos que devem ser respeitados com absoluta prioridade sobretudo durante a intervenção em suas vidas. Ressalta-se que, no âmbito do sistema socioeducativo, o direito à dignidade deve permear não apenas a atuação judicial mas também a atuação da Administração Pública, responsável pelas instituições estaduais que executam as medidas socioeducativas. Referência legal: art. 3º, ECA; Convenção sobre os Direitos da Criança.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 247 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A obrigação de proporcionar contato presencial no contexto de aplicação de medidas socioeducativas para crianças e adolescentes:
120. O Comitê reconhece que, quando a digitalização dos procedimentos judiciais resulta na falta de contato pessoal com as crianças, isso pode ter um impacto negativo sobre as medidas de sua reabilitação e de justiça restaurativa construídas sobre o desenvolvimento de relações com a criança. Nesses casos, e quando as crianças são privadas de sua liberdade, Estados Partes devem proporcionar contato presencial para facilitar a capacidade das crianças de se envolverem de forma significativa com os tribunais e com a sua reabilitação.
Fonte: Item 120 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 248 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Um olhar para o letramento digital e educação para as mídias para o cumprimento do objetivo de integração social na aplicação de medidas socioeducativas:
De acordo com o Sinase, os objetivos das medidas socioeducativas são (i) a responsabilização do adolescente quanto às consequências lesivas do ato infracional, sempre que possível incentivando a sua reparação; (ii) a integração social do adolescente e a garantia de seus direitos individuais e sociais, por meio do cumprimento de seu plano individual de atendimento; e (iii) a desaprovação da conduta infracional, efetivando as disposições da sentença como parâmetro máximo de privação de liberdade ou restrição de direitos, observados os limites previstos em lei. Dito isso, o objetivo de integração social e garantia de seus direitos incluem o direito à educação, à profissionalização, à cultura, ao acesso aos meios de comunicação social e à corresponder-se com seus familiares e amigos. Ademais, considerando ainda que o Comentário Geral 24 sobre os Direitos das Crianças na Justiça Juvenil destaca que toda criança e adolescente tem direito à educação adequada às suas necessidades e habilidades, bem como a um acompanhamento para prepará-las para um futuro emprego, conclui-se que tais disposições abarcam o direito ao contato e ao letramento no âmbito das mídias digitais, tão essenciais na sociedade contemporânea, como já exposto ao longo desta publicação.
Referência legal: art. 124, incisos VIII, XI, XII e XIII, do ECA; art. 1º, § 2º da Lei 12.594/2012; General Comment n. 24 on Children ‘s rights in juvenile justice.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 250 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:09Educação que valorize o papel construtor das tecnologias para a liberdade de expressão ética, engajamento cívico e participação:
58. O direito das crianças à liberdade de expressão inclui a liberdade de buscar, receber e difundir informações e ideias de todos os tipos, utilizando qualquer mídia de sua escolha. As crianças relataram que o ambiente digital oferecia um alcance significativo para expressar suas ideias, opiniões e pontos de vista políticos. Para crianças em situações desfavorecidas ou de vulnerabilidade, a interação facilitada pela tecnologia com outras pessoas que compartilham suas experiências pode ajudá-las a se expressar.
59. Quaisquer restrições ao direito das crianças à liberdade de expressão no ambiente digital, como filtros, incluindo medidas de segurança, devem ser lícitas, necessárias e proporcionais. A fundamentação para essas restrições deve ser transparente e comunicada às crianças em linguagem apropriada à sua idade. Estados Partes devem fornecer às crianças informações e oportunidades de treinamento sobre como exercer efetivamente esse direito, em particular como criar e compartilhar conteúdo digital com segurança, respeitando os direitos e a dignidade dos outros e não violando a legislação, como a relativa ao incitamento ao ódio e à violência.
Fonte: Itens 58 e 59 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A valorização da natureza como forma de criação de vínculos comunitários e de melhorar o bem-estar físico, emocional, social e acadêmico de crianças e adolescentes
Diversas pesquisas relacionam a presença da natureza na vida das crianças com seu bem estar físico, emocional, social e acadêmico. Entretanto, as crianças estão cada dia mais restritas a ambientes fechados e brincando menos ao ar livre ao lado de outras crianças. Richard Louv, jornalista e fundador do Movimento Criança e Natureza, inclusive, cunhou o termo Transtorno do Déficit de Natureza (TDN), chamando a atenção para o impacto negativo da falta da natureza na vida das crianças. Além disso, estudos apontam que a relação criança e natureza propicia um maior senso coletivo de responsabilidade por ambientes naturais e urbanos, de forma a não só beneficiar o desenvolvimento da criança, mas também melhorar o espaço para todos. A essencialidade da vida offline e ao ar livre enseja a reflexão sobre um direito à desconexão de crianças e adolescentes, como fator fundamental de seu desenvolvimento e bem-estar.
Fonte: LOUV, Richard. A última criança na natureza: resgatando as nossas crianças da síndrome de déficit de natureza. 1ª Ed., São Paulo, Aquariana, 2016.
Para saber mais: Sociedade Brasileira de Pediatria. Benefícios da Natureza no Desenvolvimento de Crianças e Adolescentes; Criança e Natureza; FROST, Jerome. Cities Alive: Designing for urban childhoods.
Projetos de Inspiração: TiNis (Instituto Alana) como um projeto de aproximação e aprofundamento do vínculo da criança e do adolescente com a natureza
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 231 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:08Deve haver cooperação entre plataformas em contextos de crise (ex: ameaça às escolas) para garantir: i) remoção de conteúdos que incitam violência contra crianças e adolescentes; ii) criação de banco de dados e compartilhamento de hashes de conteúdos identificados para auxiliar na remoção de conteúdos danosos.
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:08Mecanismos eficazes de denúncias e reclamações fáceis e acessíveis, seja nas plataformas digitais ou para recebimento do poder público:
48. As crianças podem enfrentar dificuldades particulares na obtenção de reparações quando seus direitos tiverem sido violados no ambiente digital por empresas, em particular no contexto de suas operações globais. Estados Partes devem considerar medidas para respeitar, proteger e efetivar os direitos das crianças no contexto das atividades e operações extraterritoriais das empresas, desde que haja um vínculo razoável entre o Estado e a conduta em questão. Eles devem assegurar que as empresas forneçam mecanismos eficazes de reclamação; esses mecanismos não devem, entretanto, impedir que as crianças tenham acesso aos recursos do Estado. Devem também assegurar que as agências com poderes de supervisão relevantes aos direitos das crianças, como as relacionadas à saúde e segurança, proteção de dados e direitos do consumidor, educação e publicidade e marketing, investiguem reclamações e forneçam medidas de reparação adequadas para violações ou abusos dos direitos das crianças no ambiente digital.
Fonte: Item 48 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:09A adoção de medidas de moderação de conteúdo que garantam a efetividade na remoção de conteúdos ilegais e a curadoria daqueles de caráter indefinido - porém não recomendáveis.
A adoção de canais de comunicação intuitivos, objetivos e eficientes para que o usuário possa denunciar conteúdos ilegais.
A criação de conteúdos educativos por parte das plataformas aos usuários sobre conteúdos desinformativos e ilegais, apresentando maneiras de denunciá-los. - Alex Camacho Castilho 12/07/2023 às 15:461. Promoção de alfabetização midiática e digital: Investir em programas de educação e conscientização que visam capacitar os usuários a identificar e avaliar conteúdos desinformativos, extremismos e discursos de ódio. Isso inclui o desenvolvimento de habilidades críticas para discernir informações confiáveis, verificar fontes, compreender estratégias de manipulação e avaliar a credibilidade do conteúdo.
2. Parcerias com verificadores de fatos: Colaborar com organizações de verificação de fatos para identificar, verificar e desacreditar informações falsas e desinformativas. Essas parcerias podem ajudar a reduzir a disseminação de desinformação, fornecendo aos usuários acesso a informações confiáveis e baseadas em evidências.
3. Promoção de padrões de moderação mais rigorosos: As plataformas digitais podem estabelecer diretrizes de moderação mais rigorosas e claras para combater o discurso de ódio, extremismo e terrorismo. Isso inclui a implementação de políticas mais robustas de remoção de conteúdo prejudicial, a identificação e ação contra contas falsas ou robôs automatizados, e a colaboração com especialistas e organizações relevantes para enfrentar essas questões.
4. Estímulo à cooperação internacional: A cooperação entre países e organizações internacionais é fundamental para combater os riscos associados a infodemias. Isso inclui compartilhamento de informações, boas práticas e coordenação de esforços para combater a disseminação de desinformação, extremismo e discurso de ódio em escala global.
5. Investimento em tecnologias de detecção e remoção automática: O desenvolvimento e aprimoramento contínuo de tecnologias de inteligência artificial e aprendizado de máquina podem auxiliar na detecção automatizada de conteúdo desinformativo, extremista e prejudicial. Essas tecnologias podem ajudar a identificar e remover rapidamente conteúdos problemáticos, aumentando a eficácia da moderação e reduzindo a disseminação de informações falsas.
6. Estímulo à colaboração entre plataformas: A cooperação entre diferentes plataformas digitais pode ser incentivada para compartilhar melhores práticas, tecnologias e informações que possam ajudar a enfrentar os riscos associados a infodemias. Isso pode envolver a criação de iniciativas conjuntas para combater a disseminação de desinformação, extremismo e discurso de ódio, promovendo uma abordagem colaborativa e abrangente. - Christian Abreu 21/06/2023 às 09:34Não deve haver medida alguma, além da defesa da liberdade de expressão. Podem ser adotadas medidas para coibir anonimato, ressalvados os casos em que o sigilo é garantido por lei como correspondência pessoal ou sigilo da fonte na função de jornalista.Alex Camacho Castilho 12/07/2023 às 15:50Embora a defesa da liberdade de expressão seja de extrema importância, é preciso considerar que a disseminação de desinformação, extremismos, discurso de ódio e discurso terrorista nas plataformas digitais pode ter graves consequências para a sociedade. A adoção de medidas de mitigação não implica necessariamente em restrição à liberdade de expressão, mas sim em garantir um ambiente digital mais seguro e saudável. Medidas como coibir o anonimato em determinadas situações podem ajudar a reduzir a propagação de conteúdos prejudiciais sem violar os direitos fundamentais. Além disso, a proteção de certas informações sensíveis, como correspondência pessoal e sigilo da fonte jornalística, pode ser assegurada dentro de um quadro regulatório adequado. O objetivo é encontrar um equilíbrio entre a liberdade de expressão e a proteção dos indivíduos e da sociedade contra riscos que podem comprometer a democracia e os direitos humanos.
Atualmente há uma cofusão grande, em especial por quem propaga fake news, entre liberdade de expressão e cometimento de crime, você pode tudo, mas existem suas consequências.Alex Camacho Castilho 12/07/2023 às 15:54Exigir que as plataformas forneçam informações claras e acessíveis sobre suas práticas de remoção, priorização, direcionamento, recomendação e impulsionamento de conteúdos é essencial para que os usuários possam entender e avaliar como os algoritmos e as políticas das plataformas afetam sua experiência online. Isso também permite que a sociedade civil, pesquisadores e outras partes interessadas monitorem e avaliem o impacto dessas práticas.Alex Camacho Castilho 12/07/2023 às 15:55É importante que as plataformas digitais divulguem de forma transparente como monetizam conteúdos e como a publicidade direcionada é implementada. Isso permite aos usuários compreenderem como seus dados são utilizados para fins publicitários e promove uma relação mais transparente entre as plataformas e seus usuários.Alex Camacho Castilho 12/07/2023 às 15:56Exigir que as plataformas digitais publiquem informações compreensíveis e acessíveis sobre suas relações societárias e os serviços que oferecem é crucial para que os usuários e a sociedade possam ter uma visão clara de quem são os atores envolvidos e como as plataformas operam em termos de prestação de serviços e governança corporativa.Alex Camacho Castilho 12/07/2023 às 15:56Estabelecer mecanismos e critérios para a transparência dos algoritmos das plataformas digitais é essencial para compreender como o conteúdo é selecionado, priorizado e apresentado aos usuários. Isso pode envolver a divulgação de informações sobre fatores considerados pelos algoritmos, bem como auditorias independentes para avaliar seu impacto e garantir a equidade e a imparcialidade nas recomendações e moderação de conteúdo.Alex Camacho Castilho 12/07/2023 às 15:56Identificar categorias de conteúdo de claro interesse público e submetê-las a mecanismos mais rigorosos de transparência é uma medida importante para garantir que informações críticas, como notícias e informações sobre saúde pública, sejam tratadas com a devida importância e responsabilidade. Isso pode incluir a divulgação de informações sobre a fonte, a veracidade e o processo de curadoria desses conteúdos.Alex Camacho Castilho 12/07/2023 às 15:57Estabelecer uma política clara de compartilhamento de dados das plataformas digitais para pesquisa acadêmica, juntamente com mecanismos regulatórios adequados, é fundamental para promover a produção de conhecimento científico e entender melhor o impacto das plataformas na sociedade. Isso deve ser feito com salvaguardas adequadas para proteger a privacidade e a segurança dos usuários.Alex Camacho Castilho 12/07/2023 às 16:17Realizar auditorias independentes nas práticas das plataformas digitais em relação ao uso de dados pessoais, moderação de conteúdo e publicidade pode ajudar a garantir a transparência e a conformidade com as políticas e regulamentações estabelecidas. Essas auditorias podem ser conduzidas por terceiros imparciais e especializados, que analisam os processos, algoritmos e práticas das plataformas, e fornecem relatórios detalhados sobre o cumprimento das obrigações de transparência. Isso ajudaria a identificar possíveis problemas e a promover melhorias na forma como as plataformas lidam com essas questões.Alex Camacho Castilho 12/07/2023 às 16:20Estabelecer obrigações de transparência mais abrangentes durante os períodos eleitorais é uma medida importante para garantir a integridade dos processos eleitorais. Isso pode incluir a divulgação de informações sobre anúncios políticos, financiadores e gastos de campanha nas plataformas digitais. A transparência nesses aspectos é fundamental para que os eleitores tenham uma visão clara das influências por trás dos conteúdos políticos e possam tomar decisões informadas.Alex Camacho Castilho 12/07/2023 às 16:20Durante os períodos eleitorais, é essencial que as plataformas digitais assumam responsabilidades ampliadas na moderação de conteúdos políticos. Isso inclui a identificação e remoção de informações falsas, desinformação, discurso de ódio e outras formas de manipulação que possam distorcer o processo eleitoral. A moderação deve ser realizada de forma justa, imparcial e transparente, com critérios claros e processos de apelação eficazes.Alex Camacho Castilho 12/07/2023 às 16:21Estabelecer critérios para limitar os gastos em publicidade política nas plataformas digitais durante os períodos eleitorais é uma medida que visa evitar a influência excessiva do dinheiro no processo democrático. Limitar os gastos publicitários pode ajudar a garantir que todos os atores políticos tenham condições equitativas de alcançar o eleitorado, promovendo um ambiente mais justo e nivelado.Alex Camacho Castilho 12/07/2023 às 16:22Durante o período de campanha eleitoral, pode ser necessário impor restrições ao impulsionamento de conteúdos nas plataformas digitais. Isso ajuda a evitar que campanhas políticas possam ampliar artificialmente o alcance de suas mensagens através de pagamentos para impulsionamento, garantindo que todos os candidatos e partidos políticos tenham condições equitativas de alcançar os eleitores.Alex Camacho Castilho 12/07/2023 às 16:251. Promover a alfabetização digital e a educação cívica: Investir em programas de alfabetização digital e educação cívica é essencial para capacitar os eleitores a reconhecer e lidar com desinformação, discursos de ódio e outras formas de manipulação online. Isso inclui a promoção de habilidades críticas de avaliação de informações, o entendimento dos mecanismos de propagação de desinformação e a conscientização sobre os direitos e responsabilidades cívicas.
2. Estabelecer mecanismos de denúncia e monitoramento: Criar canais de denúncia eficazes para relatar práticas ilegais, violações das regras eleitorais e outras ameaças à integridade dos processos eleitorais. Além disso, é importante estabelecer mecanismos de monitoramento contínuo por parte das autoridades competentes, com a participação da sociedade civil, para identificar e responder a ameaças emergentes.
3. Promover a diversidade e a pluralidade de vozes: Incentivar a diversidade de opiniões e perspectivas nas plataformas digitais é fundamental para garantir que os eleitores sejam expostos a uma gama mais ampla de informações e pontos de vista. Isso pode ser feito por meio de políticas que priorizem a promoção de conteúdos diversos e a mitigação de bolhas de filtro, bem como por meio de iniciativas de apoio e financiamento de mídias independentes e jornalismo de qualidade.
4. Reforçar a segurança cibernética: Investir em medidas de segurança cibernética para proteger os processos eleitorais contra ataques cibernéticos e interferências externas é de extrema importância. Isso envolve a implementação de protocolos robustos de segurança, a auditoria regular dos sistemas eleitorais e a colaboração entre entidades governamentais, especialistas em segurança e setor privado para identificar e responder a possíveis ameaças.
5. Promover a transparência no financiamento político: Estabelecer regras claras e transparentes para o financiamento de campanhas eleitorais, incluindo a divulgação obrigatória de doadores, valores e gastos, é essencial para evitar a influência indevida de interesses particulares no processo democrático. Isso ajuda a evitar a corrupção, a promover a equidade entre os candidatos e a fortalecer a confiança dos eleitores no sistema político.Alex Camacho Castilho 12/07/2023 às 16:21É importante considerar limites no perfilamento de dados para fins de propaganda eleitoral. Restringir o uso excessivo e indiscriminado de dados pessoais na segmentação de anúncios políticos pode ajudar a proteger a privacidade dos eleitores e evitar práticas manipulativas que possam influenciar indevidamente suas decisões políticas. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:39A exigência de fornecer informações claras, transparentes e objetivas sobre as principais características de um serviço oferecido já está prevista no MCI (art. 7º, VI e XI) e no CDC (art. 6º, III e 46). Além disso, a prestação de serviços implica, em certa medida, o tratamento de dados pessoais, já regulamentado pela LGPD. Isso inclui a obrigação de divulgar informações abrangentes e transparentes sobre o tratamento de dados pessoais (art. 6, VI) e a exigência de que o controlador forneça informações claras e adequadas sobre os critérios e procedimentos para tomada de decisão automatizada, quando solicitado (art. 20, I)
- LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 12:58De modo geral, obrigações que estimulem a transparência para as plataformas digitais são um bom caminho para a construção de espaços mais seguros. Isso porque somente a partir dessa transparência é possível que entidades diversas, incluindo a sociedade civil, possam monitorar se as plataformas estão agindo em conformidade com as normas estabelecidas pelo ordenamento jurídico pátrio.
Em específico, quanto às práticas de remoção, a transparência sobre as medidas adotadas ganha ainda mais importância. Independentemente do formato a ser adotado, será necessário fiscalizar a atuação das plataformas a fim de garantir que (i) não usurpem o papel do Judiciário na identificação e punição de crimes, (ii) não promovam a censura, (iii) não criem uma figura do direito de resposta do ofendido sem determinar quem seria esse ofendido, entre outros.
Além disso, é fundamental garantir que seja estabelecida uma política comum - ainda que mínima - de compartilhamento de dados de plataformas digitais para pesquisa acadêmica. Um exemplo recente do quão problemática é a inexistência de parâmetros mínimos para compartilhamento é o caso do Twitter, que restringiu o uso de sua API do Twitter, por meio da qual as pessoas usuárias podiam coletar dados de maneira autorizada e controlada, e inviabilizou o trabalho de pesquisadores que estudavam dinâmicas sociais, o funcionamento das redes sociais e a construção de conjuntos de dados para treinamentos de inteligência artificial.
GALF, Renata. Projeto de lei sobre fake news pode dar 'papel judicial' às plataformas digitais. Folha de São Paulo, São Paulo, 09 jul. 2020. Disponível em https://www1.folha.uol.com.br/poder/2020/07/projeto-de-lei-sobre-fake-news-pode-dar-papel-judicial-as-plataformas-digitais.shtml. Acesso em: 15 jul. 2023.
CORTIZ, Diego. Guerra dos dados: Google usará seus posts para treinar robôs inteligentes. UOL, São Paulo, 06 jul. 2023. Disponível em: https://www.uol.com.br/tilt/analises/ultimas-noticias/2023/07/06/guerra-dos-dados-google-usara-seus-posts-para-treinar-robos-inteligentes.htm. Acesso em: 15 jul. 2023. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:26É importante estabelecer legislação robusta de segurança de dados e privacidade para garantia de todas as pessoas, incluindo menores, assim como para proteção da infraestrutura nacional. Também é importante estabelecer uma legislação resiliente sobre direitos de liberdade de expressão que sopese a sua importância ao mesmo tempo que leva em consideração a proteção aos direitos humanos (discurso de ódio, terrorismo, incitamento a tais comportamentos) e procedimentos eleitorais críticos. É crucial que se estabeleça leis ou guias que governem a integridade jornalística. Discussões sobre esses temas, contudo, devem ser mantidas em separado de discussões sobre a regulação de “plataformas digitais” para fins concorrenciais.
A obrigação de prestação de informação clara, pública e objetiva sobre as principais características do serviço oferecido já está previsto no MCI (art.7, VI e XI) e no CDC (arts. 6, III e 46). Além disso, a prestação de serviços pelos provedores e sistemas de recomendação pressupõe em maior ou menor nível o tratamento de dados pessoais, o que já é extensivamente regulado pela LGPD - inclusive para determinar a obrigatoriedade de divulgação de informações claras e completas sobre o tratamento de dados pessoais (art.6, VI) e para prever que o controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial (art. 20, par. 1). - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:41A obrigação de prestação de informação clara, pública e objetiva sobre as principais características do serviço oferecido já está prevista no MCI (art.7, VI e XI) e no CDC (arts. 6, III e 46). Além disso, a prestação de serviços pelos provedores e sistemas de recomendação pressupõe, em maior ou menor nível, o tratamento de dados pessoais, o que já é extensivamente regulado pela LGPD, inclusive para determinar a obrigatoriedade de divulgação de informações claras e completas sobre o tratamento de dados pessoais (art.6, VI) e para prever que o controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial (art. 20, par. 1º).
Ademais, a divulgação de informações sobre os algoritmos, métodos e parâmetros utilizados para a moderação de contas e conteúdos, de forma ampla e detalhada, pode permitir que, com a obtenção de tais informações, usuários maliciosos possam burlar os mecanismos dos provedores de aplicação, inviabilizando o cuidado e a segurança pelas plataformas.
Cabe ressaltar ainda, que a obrigação de viabilizar o acesso a informações sobre algoritmos, métodos e parâmetros utilizados para a moderação de conteúdos pode culminar na divulgação de diretrizes e padrões de desenvolvimento e emprego de sistemas automatizados, o que representaria violação à proteção dos segredos comercial e industrial. Conforme decidido na ADPF 449 (Caso Uber), as restrições às liberdades constitucionais devem estar baseadas por parâmetro constitucionalmente legítimo. - Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:09A falta de transparência em plataformas digitais é um dos problemas mais importantes e que pode levar a abusos, violações de privacidade, disseminação de desinformação e manipulação do comportamento do usuário. Para mitigar esses riscos, o Instituto de Referência em Internet e Sociedade já elaborou uma publicação em que apresenta recomendações às plataformas e ao setor governamental sobre esse tema.
Nesse sentido, em relação ao tópico I) listado na pergunta, o IRIS recomenda que as plataformas:
Comuniquem de forma expressa, visível e pública quais os meios e critérios empregados na detecção e avaliação de conteúdo passível de moderação, especificando sempre que sistemas automatizados forem utilizados.
Indiquem conteúdos que são proibidos por meio de termos que denotam proibição expressamente, como “não é permitido” ou “é proibido”.
Indiquem quais os critérios ou fatores que influenciam na determinação da medida tomada sempre que múltiplas medidas forem cabíveis.
Garantam o acesso público permanente a todas as versões anteriores sempre que as políticas de comunidade forem atualizadas. Sinalizar a data em que a política foi atualizada.
Notifiquem o usuário sempre que este for alvo de alguma intervenção. A notificação deve incluir, no mínimo, as seguintes informações: URL da publicação, trecho do conteúdo que causou a intervenção (ou dados adicionais que possibilitem sua identificação), cláusula violada dos padrões de comunidade, meios de detecção e intervenção sobre o conteúdo. Ainda, deve ser fornecida em formato duradouro e deve permanecer disponível mesmo que a conta do usuário seja suspensa ou indisponibilizada.
Instituam um sistema de contestação robusto, que inclua, no mínimo: revisão humana por um ou mais indivíduos que não estiveram envolvidos na decisão inicial, oferta ao usuário da oportunidade de apresentar informações adicionais a serem consideradas na revisão, notificação dos resultados da revisão e uma declaração de motivos suficiente para que o usuário compreenda a decisão.
Acerca do tópico II), listado na pergunta, o IRIS recomenda que:
Sejam fornecidas informações nítidas e de fácil acesso e compreensão acerca das razões para que determinados anúncios sejam exibidos ao usuário;
O armazenamento das informações de identificação pessoal dos anunciantes;
Proibição de perfilamento de contas pertencentes a crianças e adolescentes para fins de publicidade digital;
Possibilitar aos usuários, de forma acessível e simples, optarem pelo não recebimento de publicidade digital customizada, devendo ser adotado como padrão a configuração pela não customização desse conteúdo. - Sarah Martins 14/07/2023 às 19:11- Preservação de segredos comerciais e industriais (Item 31):
Em conjunto, as plataformas digitais são serviços que se destacam pela inovação, possibilitando novos modelos de negócios e funcionalidades não apenas para elas próprias, mas também para seus usuários, sejam pessoas físicas ou jurídicas.
No centro dessa inovação, estão bases de dados e algoritmos, parcial ou totalmente de propriedade das plataformas, que permitem a organização de conteúdo de diferentes formas, de acordo com as preferências de seus usuários. Portanto, é importante que não haja exigência para que essas companhias divulguem os dados ou código-fonte de nenhuma maneira que possam interferir na competição, inibir a inovação ou abrir as portas para maus-atores. Além disso, dados e códigos-fonte poderão estar disponíveis para compra e podem ser obtidos por qualquer participante potencial em condições normais de mercado.
Com efeito, o ordenamento jurídico brasileiro confere proteção de segredo comercial e industrial àquelas informações que têm valor comercial. A exemplo de muitos países da OCDE, o Brasil é signatário do Acordo TRIPS (Trade-Related Aspects of Intellectual Property Rights), internalizado no ordenamento pátrio, com estatura supralegal, pelo Decreto Legislativo 30/1994 e Decreto Presidencial 1.355/1995.
Em seu artigo 39, parágrafo 2, o Acordo define que, para se proteger de competição desleal, “pessoas físicas e jurídicas terão a possibilidade de evitar que informação legalmente sob seu controle seja divulgada, adquirida ou usada por terceiros, sem seu consentimento, de maneira contrária a práticas comerciais honestas, desde que tal informação: a) seja secreta, no sentido de que não seja conhecida em geral nem facilmente acessível a pessoas de círculos que normalmente lidam com o tipo de informação em questão, seja como um todo, seja na configuração e montagem específicas de seus componentes; b) tenha valor comercial por ser secreta; e c) tenha sido objeto de precauções razoáveis, nas circunstâncias, pela pessoa legalmente em controle da informação, para mantê-la secreta.”
Considerando que o Brasil, assim como muitos outros países da OCDE, reconhece a importância e protege o segredo comercial nos termos do Acordo TRIPS, eventuais deveres de transparência ou interoperabilidade às plataformas devem levar os limites para a publicização de informação, sempre para compatibilizar os objetivos da regulação com a preservação de um mercado baseado na inovação. - CCOM- UnB (comentário inserido por: Murilo César Ramos) 12/07/2023 às 15:38Talvez o efeito mais deletério da internet comercial tenha sido a monetização, no início disfarçada de gratuidade (sic), dos dados pessoais, estes fundamentalmente. Se a publicidade, ao tempo do analógico, já trazia consigo efeitos perversos de estímulo ao consumo sem freios, à concentração de poder político e econômico, à manipulação da esfera públicos, e o que mais, isto foi potencializado pelo modelo de negócios que tomou de assalto, ainda nos anos 1990, a internet comercial. Não há desafio normativo e regulatório que este, o de devolver às pessoas o controle dos seus dados pessoais, para além dos consentimentos pro-forma ainda dominantes, e das legislações de proteção e seus evidentes limites, Chama a atenção a pouca atenção que se dá ao projeto de descentralização da Web, idealizado por ninguém menos que Tim Berners-Lee. Trata-se do Projeto Solid, iniciado no MIT, hoje com vida autônoma, centrado justamente na ideia de devolver à cidadania o c0ntrole dos dados pessoais, para efeitos do que bem entendesse fazer, inclusive comercializá-los, mediante a devida compensação. Quixotesco? Ver https://solidproject.org/.
- Rodrigo Pereira 25/04/2023 às 20:21Ótimas medidas abaixo listadas
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:32[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Um arcabouço regulatório deve prever obrigações robustas de transparência às plataformas digitais, incluindo a necessidade da disponibilização de informações sobre suas regras, critérios e procedimentos para a moderação de conteúdos. Plataformas digitais devem prestar informações também sobre a implementação dessas regras, sobre as denúncias recebidas por usuários, sobre as medidas de moderação aplicadas e sobre o funcionamento dos sistemas de recurso. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:30(Contribuição da Coalizão Direitos na Rede)
É importante haver regras legais para limitar o poder das plataformas digitais e empoderar a sociedade. É o caso das obrigações de transparência, atenção aos termos de uso e outras políticas das plataformas, bem como das regras do chamado devido processo – como exigências de notificação do usuário quando da moderação de conteúdo e de mecanismos de recurso. Precisamos conhecer mais como funcionam espaços que se tornaram extremamente relevantes para o debate público e para envolver a sociedade na busca para que eles sejam sadios, por isso deve haver mecanismos para denúncias de conteúdos criminosos e acesso a informações. Também deve haver regras para agentes públicos, para serviços de mensageria e para a publicidade digital, a fim de garantir que o interesse público seja respeitado no ambiente digital. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:47É imperativo estabelecer obrigações de transparência para plataformas digitais, principalmente no que se refere ao monitoramento de práticas de remoção, priorização, direcionamento, recomendação e impulsionamento de conteúdos, inclusive publicitários. Tal medida proporciona maior controle social sobre a atuação dessas empresas, contribuindo para a criação de um ambiente digital mais justo e seguro. A proposta é corroborada por Ananny e Crawford (2018) quando apontam para a necessidade de compreensão dos sistemas para a efetivação de sua governança.
Referência: ANANNY, Mike; CRAWFORD, Kate. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. new media & society, v. 20, n. 3, p. 973-989, 2018. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:41Este é um procedimento perfeitamente exequível para conteúdo que se identifica como flagrantemente ilegal. Exemplos disso já existem para violações de direitos autorais e exposição indevida de imagens privadas. Obviamente, existem áreas ambíguas que podem representar desafios, mas acredita-se que os mecanismos de detecção podem ser aprimorados para conter conteúdos que incitam atos de terrorismo doméstico, venda de armas, e outros, além de discursos de ódio e práticas discriminatórias contra a comunidade LGBTQ+, práticas racistas e sexistas, como o uso indevido do nome de nascimento (deadnaming), linguagem ofensiva e ameaças diretas.
Esses esforços requerem um comprometimento significativo por parte das plataformas digitais para aprimorar a moderação de conteúdo. A possibilidade de remoção arbitrária de conteúdo que seja considerado legal é frequentemente destacada como uma consequência indesejada na discussão sobre tal medida. No entanto, o verdadeiro efeito inibidor ("chilling effect") que parece ser negligenciado, são os custos geracionais impostos às minorias que desejam participar ativamente do debate público, mas são restringidos pelo medo de serem vítimas de violência online (Franks, 2018).
Referências: FRANKS, Mary Anne. Fearless speech. First Amend. L. Rev., v. 17, p. 294, 2018. - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:42Os sistemas de moderação de conteúdo dependem muito da supervisão de terceiros, tanto para sinalizar conteúdo quanto para sugerir e impulsionar mudanças estruturais quando o sistema não está funcionando como propagandeado. Naturalmente, uma compreensão precisa de como a moderação funciona é necessária para que possa haver feedback construtivo ou responsabilização, algo que só pode ser alcançado com algum grau de transparência.
A divulgação de dados relacionados à proliferação de desinformação, por exemplo, pode facilitar a identificação de padrões sobre a viralização e outras características do conteúdo. Isso permite que agentes independentes e governos avaliem as fraquezas dos sistemas de moderação. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:26Devemos garantir que os novos requisitos de transparência não violem segredos comerciais, não violem a privacidade do usuário ou as leis de proteção de dados, nem permitam que pessoas mal-intencionadas manipulem os sistemas das plataformas de internet.
Devemos assegurar que regras de transparência não permitam que pessoas mal-intencionadas manipulem os sistemas da indústria para enviar spam, bem como para cometer fraudes e outras formas de abuso.
A divulgação de código e dados pode gerar uma série de riscos, incluindo a possível divulgação de segredos comerciais, bem como afetar esforços para manter os usuários seguros e proteger a integridade de plataformas.
Ademais, a divulgação de informações sobre os algoritmos, métodos e parâmetros utilizados para a moderação de contas e conteúdos, de forma ampla e detalhada, pode permitir que, com a obtenção de tais informações, usuários maliciosos possam burlar o sistemas de provedores de aplicação inviabilizando o cuidado e a segurança pelas plataformas.
Cabe ressaltar ainda, que a obrigação de viabilizar o acesso a informações sobre algoritmos, métodos e parâmetros utilizados para a moderação de conteúdos pode culminar na divulgação de diretrizes e padrões de desenvolvimento e emprego de sistemas automatizados, o que representaria violação à proteção dos segredos comercial e industrial. Conforme decidido na ADPF 449 (Caso Uber), as restrições às liberdades constitucionais devem estar baseadas por parâmetro constitucionalmente legítimo. - José Antonio Galhardo 16/07/2023 às 10:58A obrigação de transparência deve ser garantida perante os órgãos de fiscalização e o judiciário, não se aplicando a pretensão de resguardo do segredo comercial que deve ser punida como obstáculo à proteção dos direitos da sociedade. Tal qual hoje já ocorre com o sistema financeiro, com a administração tributária, com a indústria farmacêutica e qualquer outra atividade regulamentada. Além disso, as empresas e a sociedade têm o direito de saber quem monetizou qual conteúdo que tenha viralizado. As empresas porque podem não querer ver suas marcas associadas a determinadas campanhas, conteúdos ou resultados da disseminação dessas informações. A sociedade para que possa exercer o direito de livre escolha de uma marca ciente do tipo de conteúdo que ela ajuda a impulsionar.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:46As plataformas têm exercido um papel fundamental no debate público e detém todo fluxo informacional das comunicações que circulam em seus espaços digitais. A partir disso, é fundamental que as plataformas disponibilizem seus critérios para remoção, priorização, direcionamento, recomendação e impulsionamento de conteúdos, especialmente os de cunho publicitário. Frisa-se que não se tratam de segredo de negócio, mas sim de interesse público dos usuários e de toda sociedade.
Transparência é um direito básico em muitas esferas - desde a proteção de dados até a defesa do consumidor. Uma regulação deve aprofundar essas obrigações. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:41Transparência e linguagem amigável para crianças, adolescentes e família - aumentando o controle, a confiança e a verdadeira escolha na interação com plataformas digitais:
- Não depender de que crianças, adolescentes e famílias tenham que ativamente procurar as informações de transparência sobre privacidade e proteção de dados pessoais;
- Não esconder informações de privacidade dos usuários ou torná-las difíceis de serem localizadas;
- Não utilizar textos longos e complexos ou jargão jurídico para explicar os tratamentos de dados e suas finalidades;
- Não apresentar as informações sobre uso de dados e finalidades de forma que tenha pouco apelo para idade da criança ou adolescente que acessa aquela plataforma digital;
- Não utilizar uma solução única, que ignore as realidades das múltiplas infâncias e adolescências, bem como suas diferentes necessidades de acordo com a percepção de desenvolvimento progressivo de suas capacidades;
Fonte: Self Risk-Assessment do Children’s Code da ICO - link: https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/childrens-information/childrens-code-guidance-and-resources/children-s-code-self-assessment-risk-tool/
- Impedir barreiras linguísticas para compreensão dos serviços prestados, garantindo fornecimento de informações em língua portuguesa;
- Utilizar de recursos e elementos visuais, como ícones, capazes de facilitar a apropriação da informação;
- Garantir que a transparência e as opções de escolha para usuários andem juntas;
- Assentar estándares para um bom design de interfaces e de interação de usuários, que considerem a experiência de navegação de crianças e adolescentes e restrinjam mecanismos como “padrões enganosos”
Referência: https://www.deceptive.design/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:10Altos padrões de transparência para proteção de crianças e adolescentes e exigências para o setor empresarial:
39. Além de desenvolver legislação e políticas, Estados Partes devem exigir que todas as empresas que afetam os direitos das crianças em relação ao ambiente digital implementem marcos regulatórios, códigos industriais e termos de serviços que obedeçam aos mais altos padrões de ética, privacidade e segurança em relação ao design, engenharia, desenvolvimento, operação, distribuição e comercialização de seus produtos e serviços. Isso inclui empresas que se dirigem a crianças, que têm crianças como usuários finais ou que de outra forma afetam crianças. Eles devem exigir que esses negócios mantenham altos padrões de transparência e responsabilidade e encorajá-los a tomar medidas inovadoras em favor do melhor interesse da criança. Devem também exigir o fornecimento de explicações apropriadas à idade das crianças, ou às mães, pais e cuidadores de crianças muito pequenas, sobre seus termos de serviço.
Fonte: Item 39 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 101 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Explicações apropriadas à idade das crianças:
A LGPD determina que empresas que realizem operações de tratamento com dados de crianças forneçam informações sobre tais operações “de maneira simples, clara e acessível, consideradas as características físico-motoras, perceptivas, sensoriais, intelectuais e mentais do usuário, com uso de recursos audiovisuais quando adequado, de forma a proporcionar a informação necessária aos pais ou ao responsável legal e adequada ao entendimento da criança”.
Referência legal: art. 14, §6º da LGPD.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 102 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:33A existência de relatórios periódicos que fornecem transparência sobre conteúdos excluídos e bloqueados por plataformas digitais, de visualização de conteúdo (transparência de algoritmos), de critérios utilizados em processo de moderação de conteúdo, de valores culturais utilizados para elaboração de Termos de Uso de plataformas e de fácil e livre acesso para quaisquer cidadãos são exemplos de medidas necessárias para o futuro da Internet.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 14/07/2023 às 11:51Plataformas digitais já estabelecem rígidas regras de transparência a respeito de remoção de conteúdos e divulgam relatórios de transparência que detalham a origem das solicitações e seu desfecho, os quais podem ser acompanhados pela sociedade civil. Diversas pesquisas acadêmicas inclusive têm como ponto de partida essas informações divulgadas pelas plataformas.
Eventual regulamentação a respeito de práticas de priorização, direcionamento, recomendação e impulsionamento de conteúdos deve ter em conta que esses critérios representam segredo de negócio e sua revelação fora de contextos muito específicos pode ter efeitos contrários ao desejado, possibilitando que maus atores sejam capazes de burlar as regras criadas por cada plataforma.
De forma mais detalhada, tem-se que a obrigação de prestação de informação clara, pública e objetiva sobre as principais características do serviço oferecido já está prevista no MCI (art.7, VI e XI) e no CDC (arts. 6, III e 46). Além disso, a prestação de serviços pelos provedores e sistemas de recomendação pressupõe em maior ou menor nível o tratamento de dados pessoais, o que já é extensivamente regulado pela LGPD - inclusive para determinar a obrigatoriedade de divulgação de informações claras e completas sobre o tratamento de dados pessoais (art.6, VI) e para prever que o controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial (art. 20, par. 1). - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:32[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. A transparência sobre conteúdos monetizados e pagos é estratégia básica fundamental para enfrentar todos os riscos relacionados à ameaças à democracia e aos direitos humanos. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:31(Contribuição da Coalizão Direitos na Rede)
É importante empoderar as pessoas internautas frente às redes sociais por meio da previsão legal de exigências de transparência sobre o funcionamento das plataformas, sobre a publicidade digital e quando uma plataforma tomar quaisquer medidas sobre um conteúdo de terceiro (como notificar o autor, junto com a justificativa e os procedimentos para pedir revisão da decisão). - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 17:01
Obrigações relacionadas à transparência sobre a monetização de conteúdos e a publicidade direcionada são essenciais para garantir que os usuários estejam cientes das implicações e do alcance de suas interações online. Segundo Hoofnagle (2016), a imposição de auditorias de privacidade regulares para grandes empresas de tecnologia é uma estratégia importante nesse sentido. No entanto, é importante considerar que auditorias precisam ser bem reguladas para evitar riscos de "audit washing" (Goodman & Trehu, 2022). Adicionalmente, o empoderamento de usuários em relação a estes mecanismos pode ser crucial não apenas para a accountbaility das empresas, mas também para assegurar que más práticas possam ter seu impacto reduzido.
Referências:
GOODMAN, Ellen P.; TREHU, Julia. AI audit washing and accountability. Available at SSRN 4227350, 2022.
HOOFNAGLE, Chris Jay. Assessing the Federal Trade Commission's Privacy Assessments. IEEE Security & Privacy, v. 14, n. 2, p. 58-64, 2016. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 17:00Obrigações relacionadas à transparência sobre a monetização de conteúdos e a publicidade direcionada são essenciais para garantir que os usuários estejam cientes das implicações e do alcance de suas interações online. Segundo Hoofnagle (2016), a imposição de auditorias de privacidade regulares para grandes empresas de tecnologia é uma estratégia importante nesse sentido. No entanto, é importante considerar que auditorias precisam ser bem reguladas para evitar riscos de "audit washing" (Goodman & Trehu, 2022). Adicionalmente, o empoderamento de usuários em relação a estes mecanismos pode ser crucial não apenas para a accountbaility das empresas, mas também para assegurar que más práticas possam ter seu impacto reduzido.
Referência: HOOFNAGLE, Chris Jay. Assessing the Federal Trade Commission's Privacy Assessments. IEEE Security & Privacy, v. 14, n. 2, p. 58-64, 2016.
GOODMAN, Ellen P.; TREHU, Julia. AI audit washing and accountability. Available at SSRN 4227350, 2022. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:47Obrigações relacionadas à transparência sobre a monetização de conteúdos e a publicidade direcionada são essenciais para garantir que os usuários estejam cientes das implicações e do alcance de suas interações online. Segundo Hoofnagle (2016), a imposição de auditorias de privacidade regulares para grandes empresas de tecnologia é uma estratégia importante nesse sentido.
Referência: HOOFNAGLE, Chris Jay. Assessing the Federal Trade Commission's Privacy Assessments. IEEE Security & Privacy, v. 14, n. 2, p. 58-64, 2016. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:42No que concerne ao conteúdo que é promovido e monetizado pelas entidades empresariais que operam plataformas digitais, a noção de responsabilidade solidária se revela notoriamente pertinente. O papel desempenhado por essas entidades ultrapassa a simples intermediação quando elas deixam de ser apenas um veículo passivo entre o produtor e o consumidor final, e se transformam em um amplificador ativo. Em outras palavras, plataformas assumem a posição de um agente que se esforça para conectar o consumidor de maneira proativa com o conteúdo em questão, semelhante a alguém que bate à porta e questiona se o consumidor tem interesse naquele conteúdo.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 15:21Faz sentido, em alguns casos, obrigar as plataformas a divulgarem determinadas informações sobre usuários que contratam determinadas funcionalidades, como impulsionamento de publicações e propaganda direcionada, para viabilizar a responsabilização mais célere daqueles que as utilizam para difundir conteúdo ilícito. É o caso, por exemplo de intervenções que obrigam as plataformas a divulgarem quem contratou o impulsionamento de publicações de cunho eleitoral.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:43Faz sentido, em alguns casos, obrigar as plataformas a divulgarem determinadas informações sobre usuários que contratam determinadas funcionalidades, como impulsionamento de publicações e propaganda direcionada, para viabilizar a responsabilização mais célere daqueles que as utilizam para difundir conteúdo ilícito. É o caso, por exemplo de intervenções que obrigam as plataformas a divulgarem quem contratou o impulsionamento de publicações de cunho eleitoral.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:26Devemos garantir que os novos requisitos de transparência não violem segredos comerciais, não violem a privacidade do usuário ou as leis de proteção de dados, nem permitam que pessoas mal-intencionadas manipulem os sistemas das plataformas de internet.
Devemos assegurar que regras de transparência não permitam que pessoas mal-intencionadas manipulem os sistemas da indústria para enviar spam, bem como para cometer fraudes e outras formas de abuso.
A divulgação de código e dados pode gerar uma série de riscos, incluindo a possível divulgação de segredos comerciais, bem como afetar esforços para manter os usuários seguros e proteger a integridade de plataformas.
Ademais, a divulgação de informações sobre os algoritmos, métodos e parâmetros utilizados para a moderação de contas e conteúdos, de forma ampla e detalhada, pode permitir que, com a obtenção de tais informações, usuários maliciosos possam burlar o sistemas de provedores de aplicação inviabilizando o cuidado e a segurança pelas plataformas.
Cabe ressaltar ainda, que a obrigação de viabilizar o acesso a informações sobre algoritmos, métodos e parâmetros utilizados para a moderação de conteúdos pode culminar na divulgação de diretrizes e padrões de desenvolvimento e emprego de sistemas automatizados, o que representaria violação à proteção dos segredos comercial e industrial. Conforme decidido na ADPF 449 (Caso Uber), as restrições às liberdades constitucionais devem estar baseadas por parâmetro constitucionalmente legítimo. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:46Conforme disposição do Código de Defesa do Consumidor, a publicidade deve ser veiculada de forma que o consumidor a identifique imediatamente (art. 36). No contexto das plataformas digitais, para que esse direito seja efetivado é necessário ir além. Considerando também o fundamento de respeito aos direitos humanos, o desenvolvimento da personalidade e o exercício da cidadania em meios digitais (art. 2º, II do MCI), é fundamental que as plataformas deem transparência em relação aos valores destinados à publicidade e a identificação do usuário responsável pelo impulsionamento ou/o anunciante.
Sendo o modelo de negócio das plataformas caracterizado pela coleta e tratamento excessivo de dados pessoais com objetivo de obter ganhos econômicos na forma de marketing e publicidade direcionada, a publicidade é fator predominante e essencial para a manutenção dos lucros astronômicos, devendo ser alvo de transparência aos usuários-consumidores.
Assim, essas informações devem ser de fácil compreensão, não apenas para autoridades e setor da academia e terceiros setor, como também para os próprios usuários das plataformas digitais. - João Coelho 15/07/2023 às 16:16O melhor interesse da Criança e do Adolescente deve ser um norte orientador para a transparência publicitária:
41. Estados Partes devem fazer do melhor interesse da criança uma consideração primordial ao regular a publicidade e o marketing dirigido e acessível às crianças. Patrocínio, product placement e todas as outras formas de conteúdo comercial devem ser claramente distinguidas de todos os outros conteúdos e não devem perpetuar estereótipos de gênero ou raciais.
Fonte: Item 41 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 106 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A publicidade deve ser claramente distinguida de todos os outros conteúdos:
O Código de Defesa do Consumidor brasileiro já consagra a diretriz prevista nesse trecho do comentário geral (princípio da identificação): “a publicidade deve ser veiculada de tal forma que o consumidor, fácil e imediatamente, a identifique como tal.” No contexto do mundo digital, esse comando torna-se especialmente relevante na medida em que as fronteiras entre conteúdos publicitários e de entretenimento tornam-se ainda mais tênues. Pense-se, a título de exemplo, nos vídeos de unboxing, nos quais influenciadores digitais (muitas vezes crianças) abrem embalagens de produtos, geralmente recebidos das próprias empresas, e mostram seu conteúdo como forma de entretenimento, impedindo que adolescentes que os assistem reconheçam o teor publicitário da ação (ainda que identificadas textualmente como publicidade). Assim, é preciso que esse princípio seja tratado com especial rigor no ambiente digital, especialmente para publicidades que falam diretamente com adolescentes, as quais devem ser claramente identificadas. Com relação às crianças, pessoas menores de 12 anos de idade, a presença de marcadores de identificação de publicidade não supera a abusividade e ilegalidade intrínseca da prática da publicidade infantil.
Referência legal: art. 36, caput, do Código de Defesa do Consumidor
Para ver mais: Criança e Consumo. Candide - LOL Surprise
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 107 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Medidas recomendadas:
- Transparência sobre medidas adotadas, pela plataforma, para evitar o encaminhamento de publicidade comportamental para crianças e adolescentes.
- Vedação estrita da utilização de nudges e dark patterns para fins de publicidade comercial direcionada à crianças e adolescentes. - Comunidade Praxis (Helena Mendonça, João Pires, Marcia Padilha e Michel Metzger) (comentário inserido por: Helena Andrade Mendonca) 15/07/2023 às 11:15Com relação aos termos de uso das grandes plataformas, é importante usar textos curtos, acessíveis com rotulagem (inspirada em alimentos), com imagens trabalhando os riscos. Importante haver um esforço das empresas para que os termos de uso sejam lidos e compreendidos pela população. Podem ser usados recursos visuais de comunicação para que o que é cedido, para uso de um determinado recurso, seja conhecido.
As empresas precisam oferecer tecnologias que monitoram a vigilância, deem transparência e possibilitem ajustes frequentes em seus algoritmos. Os algoritmos podem ser muito favoráveis, mas também podem funcionar como armas de destruição, segundo Cathy O´Neil, em seu livro "Armas de Destruição Matemática". - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:38
Informações sobre a monetização são importantes, porque permitem identificar quem está ganhando com a propagação de determinado conteúdo ou anúncio. Um estudo divulgado pelo MIT mostrou que as fake news se espalham mais rápido do que notícias verdadeiras. Dessa forma, ao atingirem mais pessoas, representam mais dinheiro para aqueles que as produzem. É preciso, no entanto, criar um contraincentivos para coibir esse tipo de prática, sendo os deveres de transparência uma forma de fazer isso. - Irineu Barreto 12/07/2023 às 10:40Táticas perpetradas sobre Fake News apresentam custos, é necessário seguir o dinheiro, "follow the money". Uma alternativa jurídica potente é a efetiva responsabilização dos agentes políticos que se beneficiam da desinformação no engajamento permanente de eleitores, ataque adversarial e coordenado à reputação de seus opositores, promovem campanha antecipada fora de época e abuso do poder econômico.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 18:16As plataformas digitais já asseguram aos anunciantes mecanismos de transparência que permitem compreender diversas métricas de alcance e frequência, como por exemplo quantas pessoas foram impactadas de forma individual, quais anúncios despertaram maior atenção, o resultado de campanhas específicas e diversas outras informações, a fim de que anunciantes tenham mais conhecimento e controle dos conteúdos que podem ser associados aos seus anúncios.
A exemplo do que foi dito anteriormente, parte dessas informações representam segredo de negócio e sua revelação fora de contextos muito específicos pode ter efeitos contrários ao desejado, possibilitando que maus atores sejam capazes de burlar as regras criadas por cada plataforma. - Edson Andrade 26/06/2023 às 21:07Neste caso é importante que essa transparência sobre a monetização de publicidade direcionada se for para o público infantil e adolescentes ela seja mais criteriosa. Que seja mais clara no sentido explicativo e com maior transparência ao uso dos dados coletados. E até mesmo com restrições de coleta de dados de crianças e adolescentes.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:32[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 16:43Uma perspectiva essencial que deve ser considerada é a necessidade de instituir um sistema de certificação de plataformas em relação aos seus compromissos com os direitos humanos e a democracia. Este conceito seria semelhante a um "selo verde" para questões ambientais. Dentro desse compromisso, seria crucial incentivar a disseminação de conteúdos que promovam valores públicos, ancorados nos direitos humanos e na democracia. Adicionalmente, a demonstração adequada de devida diligência para empresas comprometidas com direitos humanos, em relação a conteúdos recomendados por sistemas algorítmicos, poderia ter como critério incorporado, o pluralismo midiático.
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:12Informações compreensíveis e acessíveis para crianças, adolescentes e famílias:
49. Estados Partes devem fornecer às crianças informações adaptadas e sensíveis às suas necessidades e em linguagem amigável à sua faixa etária, sobre seus direitos e sobre os mecanismos de denúncia e reclamação, serviços e medidas de reparação disponíveis nos casos em que seus direitos em relação ao ambiente digital forem violados ou abusados. Essas informações também devem ser fornecidas às mães, pais, cuidadores e profissionais que trabalham com e para as crianças.
Fonte: Item 49 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 122 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Irineu Barreto 12/07/2023 às 10:39É premente que as plataformas de conteúdo digital estabeleçam regras claras de moderação e remoção de conteúdo e modelagem do algoritmo dos motores de busca e redes sociais. Sinalização e redução do alcance como alternativas à remoção são boas alternativas à censura e à judicialização da remoção do conteúdo, lenta e ineficaz na proteção das vítimas do discurso de ódio ou fraudulento.
Além disso, os algoritmos e sistemas de análise textual devem ser aperfeiçoados para detectar desinformação e discurso de ódio no idioma português, para o qual os dicionários ainda são incipientes, e realizar uma curadoria informática de conteúdos ofensivos ou fraudulentos. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:36(Contribuição da Coalizão Direitos na Rede)
No campo das decisões automatizadas, é urgente contar com uma atuação mais diligente das plataformas digitais. Além de respeitarem normas legais e criarem políticas de monitoramento mais transparentes, elas deveriam ser obrigadas a estabelecer canais de denúncias específicos sobre esses temas e adotar medidas de transparência, como relatórios periódicos contendo os parâmetros e políticas aplicáveis à moderação de conteúdos, as medidas tomadas sobre postagens (incluindo alcance destas) e suas motivações, denúncias recebidas e respostas adotadas, e informações sobre transparência algorítmica. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:33[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. Ao contrário do pleito recorrente das plataformas contra a transparência algorítmica, sob a alegação de que isso violaria segredos comerciais, trata-se de medida fundamental para a compreensão da arquitetura de funcionamento das plataformas baseadas na publicação de conteúdos por terceiros que gera riscos aos direitos humanos. Mas os mecanismos não precisam se limitar à transparência algorítmica. Considerando que os impactos à democracia e aos direitos humanos estão relacionados a qualquer uso de sistemas automatizados e de tecnologias críticas, como inteligência artificial, por plataformas digitais, as obrigações de transparência devem alcançar também esses sistemas. - Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:39A transparência algoritmica deve conter obrigações de análise de impactos e medidas para mitigação de riscos. As análises devem ser feitas antes da itnrodução de mudanças algorítimicas e devem contar análises de possíveis impactos, medidas de mitigação de riscos e resultados esperados. Tal análise deve ser submetida a ente regulador para autorização. Nesse mesmo sentido, a implementação algoritmica deve passar por análise posterior, para garantir se houve distanciamento ou aproximação da análise prévia.
Os algoritmos não precisam ser 100% abertos ao públicos, mas deve ser acessados em sua integridade por servidores técnicos do ente regulador. - ITS Rio (comentário inserido por: Carlos Affonso Souza) 16/07/2023 às 19:12Em geral, transparência algorítmica é necessária e bem-vinda. Há uma profunda assimetria entre usuários e plataformas no que diz respeito a implementação de ferramentas de Inteligência Artificial, por exemplo. Isso envolve aspectos como moderação de conteúdo automatizada e categorização de informações para posterior recomendação aos usuários. Assim, de forma a amenizar tal assimetria, é essencial promover mais transparência sobre como tais algoritmos funcionam, quais critérios são levados em consideração e por qual motivo certas decisões são adotadas de forma automatizada. Nada obstante, a transparência algorítmica não deve ser tratada como uma panaceia regulatória e precisa ser encarada como uma faca de dois gumes. Nesse sentido, obrigações de transparência desproporcionais podem levar a duas consequências negativas. Em primeiro lugar, pode representar uma violação de segredo industrial. Em segundo lugar, pode levar à publicação de elementos estratégicos que possibilitam a evasão de sistemas automatizados de moderação por usuários que querem violar os termos de uso da empresa com impunidade. Em outras palavras, ao ter acesso a determinadas informações sobre o funcionamento do algoritmo, um usuário com maior conhecimento técnico poderia ajustar seu comportamento para "evitar" uma detecção algorítmica. Assim, é preciso que o regulador leve essas consequências em consideração ao estipular parâmetros de transparência algorítmica.
- José Antonio Galhardo 16/07/2023 às 17:09As plataformas que utilizem métodos de IA devem assegurar a auditabilidade e contestabilidade por meio da manutenção do registro de modelos de sistema, algoritmos, dados e saídas. Além disso, devem comprovar que contam com auditoria apropriada.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 17:02A transparência algorítmica é uma área de grande importância, dada a influência crescente que os algoritmos têm na moderação e distribuição de conteúdos online (Gorwa, Binns, Katzenbach, 2020). Estabelecer mecanismos e critérios para garantir a transparência algorítmica é crucial para mitigar riscos associados ao viés, à discriminação e à desinformação.
Referência: GORWA, Robert; BINNS, Reuben; KATZENBACH, Christian. Algorithmic content moderation: Technical and political challenges in the automation of platform governance. Big Data & Society, v. 7, n. 1, p. 2053951719897945, 2020. - CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:43Quanto à necessidade de transparência algorítmica, duas dificuldades podem ser apontadas:
(i) Quanto mais complexo se torna o software utilizado, mais difícil se torna explicar seu funcionamento de maneira inteligível, o que dificulta a prestação de contas pelas plataformas.
Existem situações em que a escala ou velocidade da construção dos sistemas faz com que nem seus desenvolvedores consigam explicar detalhes sobre seu funcionamento. Nesses casos, ainda que ver o código fonte possa ser necessário para que haja controle sobre o uso do sistema, obrigar a plataforma a revelar o código, por si só, é insuficiente.
Mais importante do que a divulgação de detalhes técnicos dos algoritmos é que haja um esforço de produzir material explicativo que permita a compreensão e o monitoramento das informações sobre o funcionamento dos algoritmos tanto por usuários quanto pelas autoridades reguladoras.
(ii) Em muitos casos, os detalhes técnicos sobre o funcionamento de algoritmos podem ser considerados segredos de negócio, já que esses algoritmos são parte essencial dos serviços oferecidos pelas plataformas em um mercado de intensa concorrência. Mesmo assim, é necessário que haja alguma explicação sobre o seu funcionamento para o público, e que exista alguma forma de verificação de que as informações oferecidas pelas plataformas são válidas e verídicas.
Uma possível solução para esse problema seria a condução de auditorias para verificação das informações, por autoridades tecnicamente preparadas e legitimas, de forma sigilosa. Assim, aspectos técnicos cuja divulgação pode prejudicar a plataforma economicamente permanecem sob segredo e as explicações divulgadas podem ser validadas. Naturalmente, há uma dificuldade em se determinar quais seriam as autoridades adequadas para a realização dessas auditorias. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:27Quaisquer requisitos de transparência algorítmica devem passar por consulta a empresas e especialistas, para garantir que tais medidas sejam eficazes, legais, respeitosas à privacidade e não comprometam segredos comerciais ou possam permitir a abertura de tais algoritmos para abuso.
Ademais, a divulgação de informações sobre os algoritmos, métodos e parâmetros utilizados para a moderação de contas e conteúdos, de forma ampla e detalhada, pode permitir que, com a obtenção de tais informações, usuários maliciosos possam burlar o sistemas de provedores de aplicação inviabilizando o cuidado e a segurança pelas plataformas.
Cabe ressaltar ainda, que a obrigação de viabilizar o acesso a informações sobre algoritmos, métodos e parâmetros utilizados para a moderação de conteúdos pode culminar na divulgação de diretrizes e padrões de desenvolvimento e emprego de sistemas automatizados, o que representaria violação à proteção dos segredos comercial e industrial. Conforme decidido na ADPF 449 (Caso Uber), as restrições às liberdades constitucionais devem estar baseadas por parâmetro constitucionalmente legítimo. - João Coelho 15/07/2023 às 16:22Aplicação de rotulagem de conteúdo concisa e inteligível sobre adequação à idade ou confiabilidade de conteúdo:
55. Estados Partes devem incentivar os provedores de serviços digitais utilizados por crianças a aplicar uma rotulagem de conteúdo concisa e inteligível, por exemplo, sobre a adequação à idade ou a confiabilidade do conteúdo. Devem também encorajar o fornecimento de orientação acessível, treinamento, materiais educacionais e mecanismos de informação para crianças, mães, pais e cuidadores, educadores e grupos profissionais relevantes. Os sistemas baseados na idade ou no conteúdo, concebidos para proteger as crianças de conteúdo inapropriado à idade, devem ser consistentes com o princípio da minimização de dados.
Fonte: Item 55 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital, p. 133 do CG25 Comentado. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Critério: o respeito à liberdade de expressão, de crença e de manifestação de crianças e adolescentes nos ambientes digitais
59. Quaisquer restrições ao direito das crianças à liberdade de expressão no ambiente digital, como filtros, incluindo medidas de segurança, devem ser lícitas, necessárias e proporcionais. A fundamentação para essas restrições deve ser transparente e comunicada às crianças em linguagem apropriada à sua idade. Estados Partes devem fornecer às crianças informações e oportunidades de treinamento sobre como exercer efetivamente esse direito, em particular como criar e compartilhar conteúdo digital com segurança, respeitando os direitos e a dignidade dos outros e não violando a legislação, como a relativa ao incitamento ao ódio e à violência.
60. Quando as crianças expressam suas identidades e opiniões políticas ou de outra natureza, elas podem atrair críticas, hostilidades, ameaças ou punições. Estados Partes devem proteger as crianças da ciberagressão e das ameaças, da censura, das violações de dados e da vigilância digital. As crianças não devem ser processadas por expressar suas opiniões no ambiente digital, a menos que violem as restrições previstas pela legislação penal que sejam compatíveis com o artigo 13 da Convenção.
63. Estados Partes devem assegurar que as crianças não sejam penalizadas por sua religião ou crenças ou que suas oportunidades futuras sejam restringidas de qualquer outra forma. O exercício do direito das crianças de manifestar sua religião ou crenças no ambiente digital pode estar sujeito apenas a limitações que sejam lícitas, necessárias e proporcionais.
Fonte: Item 59, 60 e 63 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Prover informações para o/a usuário/a sobre os critérios de ranqueamento de uma publicação ou perfil no caso de utilização de feeds não cronológicos, permitindo, ainda, maior ciência para que ele entenda como pode incidir sobre as próprias dinâmicas de visibilidade das plataformas utilizadas. Esse tipo de mecanismo deve levar em conta o desenvolvimento progressivo das capacidades de crianças e adolescentes. - Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:10A transparência algorítmica deve ser considerada um valor prioritário em todo o ciclo de desenvolvimento dos produtos e serviços. Sua promoção envolve diferentes eixos, que incluem as interações diretas entre indivíduos e plataformas, a divulgação regular de dados agregados quanto à operação dos algoritmos na moderação e monetização de conteúdos e a realização de auditorias externas independentes.
Quanto ao primeiro aspecto, é necessário que as pessoas recipientes da ação algorítmica sejam capazes de identificar que o foram e compreender, em linguagem direta e simplificada, os critérios e mecanismos que orientaram a ação do sistema. Isso envolve tanto a qualificação das notificações quanto a promoção de esforços de conscientização e letramento digital. Quanto ao segundo, destaca-se que os dados divulgados permitem análises por especialistas independentes quanto à evolução dos processos algorítmicos que afetam usuários.
Com relação às auditorias, por fim, é necessário que sejam realizadas de forma regular por terceiros independentes a fim de assegurar a precisão e a conformidade do algoritmo aos ditames legais. Além de oferecerem uma análise objetiva e imparcial da operação, as auditorias contribuem para ampliar a confiança e detectar vieses e áreas de melhoria nos processos. Desse modo, se configuram como parte essencial da transparência algorítmica. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 17:39A catalogação de conteúdos e prevalência de alguns sobre outros deve ser clara e informada para o usuário, através de avisos na própria plataforma caso algum critério seja modificado, por exemplo. Os Termos de Uso da plataforma também devem ser claros em relação à prioridade de assuntos e conteúdos aos quais o usuário possui acesso.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 14/07/2023 às 11:52Quanto à definição de mecanismos e critérios que envolvam a transparência algorítmica, deve-se sempre respeitar os segredos comerciais e industriais das plataformas. Além disso, a completa transparência de algoritmos levaria ao imediato abuso por parte de maus atores que, munidos dessas informações, conseguiriam burlar quaisquer regras das plataformas.
Ademais, a divulgação de informações sobre os algoritmos, métodos e parâmetros utilizados para a moderação de contas e conteúdos, de forma ampla e detalhada, pode permitir que, com a obtenção de tais informações, usuários maliciosos possam burlar os sistemas de provedores de aplicação inviabilizando o cuidado e a segurança pelas plataformas.
Cabe ressaltar ainda, que a obrigação de viabilizar o acesso a informações sobre algoritmos, métodos e parâmetros utilizados para a moderação de conteúdos pode culminar na divulgação de diretrizes e padrões de desenvolvimento e emprego de sistemas automatizados, o que representaria violação à proteção dos segredos comercial e industrial. Conforme decidido na ADPF 449 (Caso Uber), as restrições às liberdades constitucionais devem estar baseadas por parâmetro constitucionalmente legítimo. - Gabrielle Bezerra Sales Sarlet 09/05/2023 às 11:24Os mecanismos para a transparencia algorítmica devem ser entabuladas a partir da premissa de que as plataformas produzem riscos difusos e, dessa maneira, devem ser em cadeias que, tragam barreiras de proteção e de informacao/educacao desde a coleta dos dados dos usuários, bem como a forma de abordagem do que se pode e deve fazer em relação aos usuários tanto no intuito de coletar os dados quanto nas formas de gerar o engajamento. O
- Gabrielle Bezerra Sales Sarlet 09/05/2023 às 11:17SIm, os riscos em relação aos direitos humanos e à democracia necessariamente carecem de mapeamento, vez que muitos ainda são desconhecidos, sobretudo para a grande parte da população. No que toca à regulação, importa regular a partir da ideia de design thinking, ou seja, as plataformas devem ser desenhadas/ emolduradas pelas fronteiras dos direitos humanos e, assim, voltadas para a inclusão, para a pluralidade, para o contraditório e, dessa forma, devem servir menos para estimular o efeito bolha e para campanhas de desinformação e discurso de ódio. O desenho das plataformas deve e pode ser uma alavanca para uma harmonia com os Direitos humanos, passando pela relação direta com os usuários que, nessa oportunidade, devem ser reconhecidos como cidadãos universais que tem os mesmos direitos, tanto no ambiente real quanto digital.
Um dos riscos que se pode mencionar é o de compartilhamento inadequado e ilegal dos dados pessoais, sendo igualmente relevante a ressignificação da privacidade e da capacidade de argumentação dos indivíduos.
As plataformas para seres adequadas aos Direitos humanos devem atentar, preponderantemente, aos indivíduos e grupos mais vulneráveis, tomando por exemplo as crianças e adolescentes.
Um dos riscos que se pode apontar, finalmente, é a fragilização da saude mental dos cidadãos em relação ao sistema basedo em economia de atenção.
O processo de responsabilização das plataformas, paralelamente à releitura do art 19 do marco civil no Brasil, em face dos problemas de riscos difusos e, nesse sentido, da hierarquização dos riscos, deve ser com base na estruturação de uma serie de instrumentos que organizem, fortalecem uma cadeia que promovam a governança algorítmica, máxime no uso de avaliação de impactos, por exemplo.
O ponto central aqui é encetar uma atuação baseada nos princípios da prevenção e da precaução.
. - Mozart Hasse 28/04/2023 às 11:39não, algoritmo não. DADO. O dado é o principal fator que pode induzir o computador fazer besteira. Obrigar a publicação do algoritmo vai dar em dois caminhos de péssimo resultado: ou impede a inovação ou forçará as empresas a abrir as coisas de um jeito que será perda de tempo fiscalizar.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:38(Contribuição da Coalizão Direitos na Rede)
As regras legais devem limitar o poder das plataformas digitais e empoderar a sociedade. As obrigações de transparência, de atenção aos termos de uso e a outras políticas das plataformas, bem como as regras do chamado “devido processo” (como exigências de notificação do usuário quando da moderação de conteúdo e de mecanismos de recurso). É fundamental que possamos conhecer mais como funcionam espaços que se tornaram extremamente relevantes para o debate público e para envolver a sociedade na busca para que eles sejam sadios, por isso há proposições de mecanismos para denúncias de conteúdos criminosos e acesso a informações. Também deve haver regras relevantes para agentes públicos, para serviços de mensageria e para a publicidade digital, por exemplo, a fim de garantir que o interesse público seja respeitado no ambiente digital. - Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:40Isso envolve períodos eleitorais, mas não apenas. Hoje, já se reconhece na prática que os períodos eleitorais demandam maior atenção devido à influência das redes na implementação de projetos políticos. Pela mesma lógica, quaisquer debates de interesse público, como iniciativas regulatórias que tenham mobilizado a opinião pública, exigem mecanismos mais rigorosos de transparência.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 17:03A identificação de categorias de conteúdos de claro interesse público submetidas a mecanismos mais rigorosos de transparência é uma medida essencial. A implementação de padrões mais rigorosos para esses conteúdos pode garantir um maior nível de controle social sobre informações que possuem impacto significativo na sociedade.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:46SAÚDE: As tecnologias relacionadas à saúde são uma categoria de alto interesse público. Dados em saúde, especialmente, são essenciais para formulação de políticas públicas efetivação do direito à saúde e seu tratamento representa riscos de discriminação aos usuários da saúde [1]. Assim, para além de vedação à exploração desses dados, também é essencial que sejam estabelecidos critérios mais rigorosos de transparência.
[1] Direito à Saúde e Proteção de Dados Pessoais: desafios e potencialidades contemporâneas. Idec. Disponível em: https://idec.org.br/sites/default/files/direito-a-saude-protecao-dados-pessoais-pt.pdf Acesso em: 13 jun. 2023. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:28Dentro da ideia de Prioridade Absoluta da defesa de direitos de crianças e adolescentes (art. 227 da Constituição Federal), conteúdos que violem direitos de crianças e adolescentes devem ser submetidos a mecanismos mais rigorosos de transparência, garantindo uma participação social na proteção desse grupo hipervulnerável. Se a responsabilidade pela proteção de crianças e adolescentes é compartilhada por toda sociedade, a transparência é necessária para garantir sua efetivação.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 18:17Uma questão relevante a ser considerada é a definição de quem determinará o que é considerado ou não conteúdo de interesse público. A produção de medidas regulatórias deve evitar ao máximo expressões vagas com ampla margem interpretativa, como é o caso de expressões como “interesse público” ou “dignidade da pessoa humana”. Definir critérios objetivos tornaria a legislação mais eficaz.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:39(Contribuição da Coalizão Direitos na Rede)
A obrigação legal de as plataformas viabilizarem acesso gratuito a dados desagregados sobre seu funcionamento para fins de pesquisa acadêmica seria uma medida fundamental para promover a realização de estudos sobre suas métricas, a circulação do discurso, e os impactos sobre a liberdade de expressão. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:33[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:46Na linha do que foi sugerido por Érico Andrade, os dados utilizados pelas plataformas também podem ser aproveitados pelo setor acadêmico, em benefício de toda a sociedade. A regulamentação pela autoridade competente deve estimular a colaboração entre plataformas e a comunidade técnica e científica, estimulando mecanismos de acesso aos pesquisadores como os anteriormente citados, desde que também sejam observadas as normas de proteção de dados aplicáveis.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:27Entendemos que o termo política deva ser trocado por incentivo, para que não seja interpretado como uma obrigatoriedade.
- Weizenbaum Institut - Núcleo de Tecnologia do MTST (comentário inserido por: Alexandre Costa Barbosa) 16/07/2023 às 05:31Além disso, nós do Núcleo de Tecnologia do MTST defendemos a criação de repositórios nacionais de dados e de trabalhos científicos
No mundo como um todo, a ciência está se desenvolvendo na direção da chamada Ciência Aberta, que consiste na disponibilização aberta e gratuita a todos e todas tanto das publicações científicas quanto dos dados utilizados e produzidos, das metodologias aplicadas e das análises realizadas. Parte desse esforço passa pela disponibilização de todo esse material em repositórios online.
Assim como uma das abordagens dos defensores da privacidade é a chamada "privacidade por design" -- que, por exemplo, utiliza a criptografia para garantir que a privacidade seja incorporada de forma concreta num sistema de informação --, advogamos pela "soberania por design", ou seja: a garantia, realizada de forma concreta na construção de sistemas de informação, de que o controle sobre os dados e outros conteúdos será respeitado independentemente das regras e termos de uso definidos, que podem ser alterados a qualquer momento. Isso passa pela instalação de repositórios online de dados em servidores no território nacional. - Weizenbaum Institut - Núcleo de Tecnologia do MTST (comentário inserido por: Alexandre Costa Barbosa) 16/07/2023 às 05:30Núcleo de Tecnologia do MTST:
Hoje em dia, a quantidade de dados sobre cidadãos brasileiros e de outros países coletados e controlados por grandes empresas privadas, especialmente estrangeiras, é enorme. Esses dados são muito valiosos para o entendimento da sociedade e para o desenvolvimento de políticas públicas. Possuem, portanto, grande impacto social.
Nesse sentido, é benéfico e de interesse da sociedade brasileira que esses dados estejam disponíveis gratuitamente para fins de pesquisa científica e desenvolvimento de políticas públicas. Após garantir a privacidade e anonimização, alguns exemplos de dados relevantes e que deveriam estar disponíveis são: os referentes à circulação de conteúdo em aplicativos de mensageria privada; os conteúdos públicos de redes sociais; os referentes à situação do trânsito de automóveis; os de anúncios em marketplaces; os referentes à atividade e remuneração de motoristas de aplicativos, entregadores e prestadores de serviço; as transações financeiras. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:26Confidencialidade e Salvaguardas no Compartilhamento de Dados de Crianças e Adolescentes:
A proteção integral de crianças e adolescentes abrange o segredo de justiça e a confidencialidade das informações prestadas por elas. Assim, o sigilo, presente em todos os processos e procedimentos que envolvam criança ou adolescente apenas é afastado em casos excepcionais, sendo compartilhadas apenas aquelas informações estritamente necessárias para a proteção de seus direitos.
Referência Legal: art. 5º, LV, da CF; art. 189 do CPC; e art. 100, V, art. 143, art. 144 e art. 206, todos do ECA e artigo 5º da Lei 13 .43 1/2017.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 115 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Criação de “camadas de acesso” para compartilhamento de dados com pesquisadores, que leve em conta uma noção de risco sobre as informações disponibilizadas, aplicando critérios de maior rigor para verificação (“vetting”) de acesso da Instituição ou pesquisadores de acordo com a lógica de riscos e proteção contra identificação de dados pessoais ou exploração comercial dos dados.
Importância do compartilhamento de dados com pesquisadores externos com a finalidade de identificar amplificação algorítmica de conteúdo danoso para crianças e adolescentes.
Ressaltamos que as dificuldades recentes ao acesso de APIs de Big Techs por pesquisadores têm prejudicado a própria transparência e utilizações legítimas de plataformas para pesquisas com finalidades públicas e sociais.
Referência: https://nucleo.jor.br/institucional/2023-07-14-nucleo-vai-descontinuar-apps-pulse/ - Edson Andrade 09/07/2023 às 15:06As plataformas digitais devem criar mecanismos de acesso que permitam aos pesquisadores acessar os dados de forma segura e eficaz. Isso pode envolver a criação de interfaces de programação de aplicativos (APIs), validação com uso de tokens para extração dos dados, bancos de dados seguros ou plataformas de compartilhamento. Estabelecer parcerias e colaborações com instituições e grupos universitários de pesquisa, também agrega para discutir melhores práticas relacionadas ao tema.
É importante fortalecer o vínculo acadêmico com plataformas digitais, principalmente de redes sociais. As universidades que têm em seu corpo docente pesquisadores e grupos de pesquisa que dependem do acesso aos dados que as plataformas detém para uso contínuo em pesquisas, não podem ficar na dependência das grandes empresas de tecnologia na entrega dos dados. Com a popularização cada vez maior do acesso a internet, nos dias atuais o estudo do comportamento humano nas redes sociais tem contribuído para entender diversos fenômenos que surgiram com o avanço da digitalização das coisas e do discurso em rede. O acesso aos dados contribui para estudos netnográficos no entendimento de uma nova sociedade digital que está em construção. Onde pode ser identificado discurso de ódio, haters, bolhas sociais, entregas algorítmicas direcionadas com ou sem viés mercadológico mas com algum propósito, entre outras descobertas que somam para o entendimento dessa relação digital que vivemos atualmente. - ROSA VICARI 23/06/2023 às 18:19Uma vez que a Lei de privacidade de dados do país seja respeitada, os dados obtidos no pais, poderiam ser compartilhados para fins de pesquisas acadêmicas.Edson Andrade 09/07/2023 às 15:10Concordo 100% contigo, Rosa Vicari. Não podemos ficar reféns das big techs para estudos que façam uso de dados de redes sociais. Os anos passam e as poucas portas que temos/tínhamos estão se fechando porque um pequeno grupo resolveu vetar o acesso.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:40(Contribuição da Coalizão Direitos na Rede)
Quanto à moderação, não se deve atribuir às plataformas, a título de um suposto “dever de cuidado”, a tarefa de atuar frente a conteúdos que julguem criminosos: não cabe a tais agentes fazer esse tipo de avaliação, típica das instâncias judiciais, nem decidir o que deve ou não circular na sociedade. Tampouco se deve propor modificar o regime de responsabilização do Marco Civil da Internet.
É importante dar maior poder a internautas, garantindo-lhes informação e meios para recorrer em caso de remoção de conteúdo online. A legislação deveria criar procedimentos que limitem o poder das plataformas na criação e aplicação de suas regras, os chamados termos de uso.
Chegando a uma mediação possível frente às diferentes opiniões sobre o tema, o que se denomina “dever de cuidado” deveria ser limitado e vinculado a um protocolo, a fim de que não seja gerada uma postura de monitoramento e derrubada de conteúdos por parte das plataformas, e ao mesmo tempo se garanta um mecanismo para atuação em situações que demandem atenção à segurança.
No nível geral, as plataformas devem passar a ter obrigações de avaliação de risco e de agir apenas em casos específicos, quando houver risco grave e iminente à integridade física das pessoas, à saúde pública, à democracia, por exemplo, em caso de pandemia, ataques terroristas ou outras ameaças graves. Esse mecanismo democrático e com salvaguardas poderia proteger a sociedade em casos de risco imediato, como de incitação a ataques a escolas, invasão dos poderes, entre outros. E esses procedimentos devem ter limitação de tempo, só podendo ser acionados por no máximo 30 dias.
E deve haver a garantia legal de salvaguardas para que as previsões não sejam interpretadas de maneira abusiva, por exemplo, com o estabelecimento exagerado de obrigações gerais de monitoramento e filtragem de conteúdo ou com a redução da proteção a direitos (a exemplo da criptografia de ponta a ponta em aplicações de mensagens instantâneas ou de e-mail), inscrita tecnologicamente no desenho de aplicações voltadas a assegurar a inviolabilidade das comunicações, a privacidade, a segurança e o direito à proteção de dados pessoais. - Filipe Saraiva 16/07/2023 às 22:31Uma medida mitigadora que sugiro é que todas as plataformas deem uma opção, logo no menu de configurações, que informe a quantidade de tempo gasta pelo usuário naquela plataforma, com as frequências diárias, semanais, mensais, anuais, e desde a entrada do usuário naquela rede. Importante para que os usuários tenham ideia do tempo que passam nessas redes.
- CEPI FGV Direito SP (comentário inserido por: Centro de Ensino e Pesquisa em Inovação (CEPI) FGV Direito SP) 16/07/2023 às 14:44Uma crítica comum aos relatórios de transparência divulgados voluntariamente pelas plataformas é que as informações reveladas muitas vezes não permitem inferir conclusões relevantes sobre a atividade. Isso ocorre, em alguns casos, porque cada plataforma tende a adotar sua própria metodologia e terminologia de organização dos dados, dificultando a comparação e impedindo uma visão completa do fenômeno da proliferação e da moderação de conteúdo problemático.
A forma de apresentação e classificação da informação divulgada nos relatórios costuma divergir bastante entre as plataformas, o que torna difícil comparar a atividade das empresas. Pode ser difícil comparar, por exemplo, o número de notificações de remoção acatadas com o número de publicações efetivamente removidas, já que uma notificação pode se referir a mais de uma publicação.
Pode ser difícil, também, comparar categorias de publicações removidas. Enquanto uma empresa divulga o número de medidas tomadas contra conteúdos que incitam o terrorismo e o número de medidas tomadas contra conteúdos que incitam crimes comuns separadamente, outra empresa pode divulgar um único número que corresponda a essas duas como, por exemplo, o número de medidas tomadas contra conteúdos que incitam violência em geral. Isso tornará os dados divulgados não comparáveis e de difícil operacionalização, dificultado a análise das informações e uma visão ampla sobre a proliferação de conteúdo que incita o terrorismo.
Assim, um bom passo para tornar as práticas de moderação mais eficientes seria a padronização dos mecanismos de transparência. A padronização quanto ao grau mínimo de detalhamento das informações divulgadas permite a comparação entre as plataformas e a identificação de tendências para além de uma única plataforma. A uniformização das categorias de conteúdo utilizadas pelas plataformas para divulgar os dados seria particularmente útil nesse sentido. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:48A ampliação e qualidade das medidas de segurança dos serviços prestados também deve estar entre as prioridades da regulação de plataformas. A segurança é um direito básico dos consumidores (art. 6º CDC) e um princípio na proteção de dados pessoais (art. 6º VII LGPD). Devendo, portanto, ser endereçado também na regulação de plataformas.
É fundamental considerar que as plataformas intermedeiam as relações em seus espaços, o que inclui o fluxo de informações, os algoritmos e a arquitetura das redes. Considerando também a vulnerabilidade dos usuários-consumidores, os aspectos de qualidade e segurança devem ser regidos pela responsabilidade objetiva e solidária. De forma alinhada aos art. 12 e 18 CDC - que também integrar o ecossistema de proteção digital, como já foi mencionado.
Assim, as plataformas devem ser responsabilizadas por falhas na segurança que resultem em fraudes e contas hackeadas, além de serem obrigadas a criar mecanismos transparentes e de fácil compreensão para auxiliar os usuários-consumidores. - João Coelho 15/07/2023 às 16:32Mecanismos apropriados e eficazes para remediar violações de direitos de crianças e adolescentes no meio digital:
44. Estados Partes devem assegurar que mecanismos judiciais e não-judiciais apropriados e eficazes para remediar as violações dos direitos das crianças relacionadas ao ambiente digital sejam amplamente conhecidos e facilmente disponíveis a todas as crianças e seus representantes. Os mecanismos de queixa e denúncia devem ser gratuitos, seguros, confidenciais, responsivos, amigáveis às crianças e disponíveis em formatos acessíveis. Estados Partes também devem providenciar denúncias coletivas, incluindo ações coletivas e litígios de interesse público, e assistência legal ou outra assistência apropriada, inclusive por meio de serviços especializados, a crianças cujos direitos tenham sido violados no ambiente digital ou por meio dele.
Fonte: Item 44 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Monitorando o acesso à justiça no caso de denúncias de violências cometidas contra crianças e adolescentes em plataformas digitais:
45. Estados Partes devem estabelecer, coordenar, monitorar e regularmente avaliar as estruturas para o encaminhamento (...) e a prestação de apoio efetivo às crianças vítimas. As estruturas devem incluir medidas para a identificação, terapia e acompanhamento e a reintegração social das crianças vítimas. Os mecanismos de encaminhamento devem incluir treinamento sobre a identificação de crianças vítimas, inclusive para os provedores de serviços digitais. As medidas dentro de tal estrutura devem ser intersetoriais e amigáveis à criança, para evitar a revitimização e vitimização secundária de uma criança no contexto de processos investigativos e judiciais. Isso pode exigir proteções especializadas para a confidencialidade e para reparar os danos associados ao ambiente digital.
Fonte: Item 45 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Quaisquer medidas de denúncia e de moderação de conteúdo devem ser desenhadas para evitar a revitimização de crianças e adolescentes:
A revitimização ou vitimização secundária acontece quando crianças e adolescentes que já são vítimas sofrem nova violência. A revitimização é definida como o discurso ou prática institucional que submeta crianças e adolescentes a procedimentos desnecessários, repetitivos, invasivos, que levem as vítimas ou testemunhas a reviverem a situação de violência ou outras situações que gerem sofrimento, estigmatização ou exposição de sua imagem, seja na rede protetiva ou no sistema de justiça.
Referência legal: Lei 13.431/17 e Decreto 9.603/2018
Para ver mais: Instituto Alana e Ministério Público do Estado de São Paulo. Guia Operacional de Enfrentamento à Violência sexual contra crianças e adolescentes; Ministério da Cidadania. Parâmetros de atuação do Sistema Único de Assistência Social (SUAS) no sistema de garantia de direitos da criança e do adolescente vítima ou testemunha de violência; Conselho Nacional de Justiça. Relatório Analítico Justiça Pesquisa sobre a Oitiva de Crianças no Poder Judiciário Brasileiro.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 115 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A facilidade do acesso à justiça e da geração de provas para responsabilização e reparação por violações sofridas por crianças e adolescentes, para além da mera moderação e notificação:
A instrução criminal e cível precisa de provas. Exigências têm se tornado mais complexas para garantir a validade das provas de crimes cometidos no meio digital, como, por exemplo, metadados de email ou até mesmo exigências de lavratura de ata notarial. Isso se torna ainda mais complexo no contexto de jogos online, onde a interação é simultânea e ao vivo. Apesar disso, a obtenção dessas informações pode ser difícil para o acesso à justiça da pessoa que sofreu a violência. Nesse sentido, seria interessante garantir mecanismos que validassem documentos gerados a partir de denúncias realizadas em plataformas digitais, retirando o ônus da vítima, auxiliando na busca da justiça para devida reparação, bem como mecanismos que instruam a vítima denunciante sobre como efetivar seus direitos na Justiça, reforçando-se que esses mecanismos devem ser amigáveis a crianças e adolescentes. - Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 14:45As plataformas devem seguir padrões de governança em respeito aos direitos humanos, coordenando sua conduta empresarial com dispositivos pré-estabelecidos, a exemplo dos “Princípios Orientadores sobre Empresas e Direitos Humanos”. Aprovado em 2011 na ONU, o documento define (dos Princípios 11 a 24) a responsabilidade de todas as empresas em respeitar todos os direitos humanos internacionalmente reconhecidos enquanto uma norma de conduta, a despeito do lugar de operação. Destacada entre os Princípios 17 a 21 da ONU, a devida diligência em direitos humanos está relacionada ao comprometimento com uma avaliação do risco e impacto para os direitos humanos. E todos os processos que a empreguem como premissa não devem somente considerar a identificação de riscos para a própria empresa, mas também às pessoas que possam ser afetadas pela atividade empresarial (ação ou omissão). A devida diligência é, ainda, uma ferramenta disponível para assegurar a integridade da informação e a liberdade de expressão, podendo colaborar para que sejam amenizadas as legítimas preocupações sobre as consequências de uma regulação da atividade em ambiente digital.
- Irineu Barreto 12/07/2023 às 10:39As agências de checagem realizam ações imprescindível na quebra das cadeias de desinformação ao demonstrarem de forma cabal que determinado conteúdo é falso, deturpado ou exagerado. Em razão disso, passaram a ser alvo do ecossistema de desinformação e Fake News no qual estão acompanhadas pelo TSE, imprensa livre e opositores da extrema direita. Premente que seu trabalho seja incorporado nas campanhas de educação digital.
- Nina Da Hora 16/07/2023 às 22:08Realizar auditorias regulares dos processos eleitorais nas plataformas digitais, desde as campanhas feitas nestes espaços até a forma que a moderação está sendo conduzida ao longo do processo para garantir sua integridade e transparência.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:51Considerando esses riscos, a autoridade reguladora deve atuar de forma cooperativa com os esforços do Tribunal Superior Eleitoral e as regras eleitorais.
Dentre as medidas de mitigação, necessário considerar: (i) plataformas devem apresentar, em tempo hábil, as regras e políticas que serão aplicadas em períodos eleitorais; (ii) plataformas devem implementar sistema que possibilite a prestação de contas eleitorais, como gastos com publicidade, autoria, etc; (iii) biblioteca de anúncios específica para esses períodos; (iv) proibição de microdirecionamento ou utilização de critérios de direcionamento que inibam o acesso à informação por todos. - Blogueiras Negras (comentário inserido por: Blogueiras Negras) 16/07/2023 às 19:55Concordamos completamente com as medidas descritas abaixo. E se possível, gostaríamos de pensar mecanismos que tornassem o investimento das candidaturas mais transparentes em tempos de campanha eleitoral. Por exemplo, limitando seus gastos junto a essas redes e plataformas, para que não fosse caracterizado abuso de poder econômico de algumas candidaturas em relação às outras.
- Rodolfo Salema 16/07/2023 às 10:33Contribuições:
Associação Brasileira de Emissoras de Rádio e Televisão (ABERT)
Associação Nacional de Jornais (ANJ)
Associação Nacional de Editores de Revistas (ANER)
Associação Brasileira de Rádio e Televisão (ABRATEL)
Federação Nacional das Empresas de Rádio e Televisão (FENAERT)
Federação Nacional das Empresas de Jornais e Revistas (FENAJORE)
Confederação Nacional da Comunicação Social (CNCOM)
***
O Grupo de Estudo implantado no passado pelo TSE para sistematização das normas eleitorais, coordenada pelo Min. Fachin, já destacou naquela oportunidade que o uso de impulsionamento de conteúdo por candidatos a cargos eletivos favorece apenas um segmento econômico, as redes sociais, que arrecadam milhões com esse tipo de propaganda eleitoral na internet.
Essa assimetria entre as redes sociais e os demais veículos de comunicação, rádio, televisão e jornal, coloca em xeque os princípios da isonomia (art. 5º, CRFB), da livre concorrência (arts. 1º, IV e 170, IV, CRFB), da liberdade de expressão, imprensa e informação (arts. 5°, incs. IX, XIV, e 220, caput e §§1º, 2º e 3º, CRFB) e os princípios democrático, republicano e do pluralismo político (art. 1º, caput e inc. V; CRFB).
É o momento de avaliar eventuais alterações na lei, a fim de seja permitida a veiculação dessas propagandas em sites de toda e qualquer organização econômica que produza, veicule e/ou divulgue notícias voltadas ao público brasileiro, por qualquer meio de comunicação, impresso ou digital, inclusive na televisão e rádio (com a curadoria habitual).
Na mídia impressa, a limitação de anúncios imposta na lei não é mais capaz de atingir a finalidade a que se destinava.
A evolução tecnológica a tornou completamente inadequada, porquanto as vedações à propaganda na mídia impressa tradicional não impedem a divulgação de mensagens e propaganda, pelos candidatos, por meio da internet, até o dia das eleições.
Portanto, o que se vê, é que a legislação traz uma alta carga regulatória para o rádio, televisão e jornais, que não reflete mais as necessidades do processo eleitoral e, na prática, são normas anacrônicas e defasadas. É necessário sanear essas assimetrias entre os diversos veículos de comunicação envolvidos no processo eleitoral, notadamente quando se tem, atualmente, uma equivalência entre a internet e a radiodifusão sendo utilizados durante as eleições pelos partidos e candidatos como meios de comunicação. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:46As questões relacionadas aos processos eleitorais, participação política e engajamento cívico são de extrema importância para a democracia e devem ser abordadas com cuidado. Ao considerar medidas de mitigação para ameaças e riscos associados a essas questões, é desejável adotar abordagens que minimizem a intervenção excessiva nas plataformas digitais, para garantir a liberdade de expressão e a diversidade de opiniões.
i) Estabelecer obrigações de transparência mais abrangentes em períodos eleitorais: A transparência é fundamental para a confiança nos processos eleitorais.
ii) Definir planos específicos para moderação de conteúdos em períodos eleitorais: A moderação de conteúdos é uma área sensível, pois envolve decisões sobre a remoção ou restrição de informações e exigem uma análise contextual. É importante garantir que haja políticas claras, transparentes e consistentes para combater a desinformação e os discursos de ódio, sem prejudicar a liberdade de expressão. No entanto, é fundamental evitar que essas medidas restrinjam indevidamente o debate político legítimo.
iii) Monitorar o impulsionamento de conteúdos durante o período de campanha eleitoral: O impulsionamento de conteúdos pode amplificar o alcance de mensagens políticas, tanto de forma legítima quanto manipulativa. É importante garantir que as regras relativas ao impulsionamento sejam claras e consistentes, evitando que a prática seja utilizada para disseminar desinformação ou influenciar indevidamente a opinião dos eleitores.
Em resumo, é possível adotar medidas de mitigação para os riscos associados aos processos eleitorais e ao engajamento político nas plataformas digitais, desde que sejam equilibradas, claras, transparentes e respeitem a liberdade de expressão e a diversidade de opiniões. O objetivo deve ser promover um ambiente eleitoral saudável, garantindo a integridade dos processos democráticos. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:43As questões relacionadas aos processos eleitorais, participação política e engajamento cívico são de extrema importância para a democracia e devem ser abordadas com cuidado. Ao considerar medidas de mitigação para ameaças e riscos associados a essas questões, é desejável adotar abordagens que minimizem a intervenção excessiva nas plataformas digitais, para garantir a liberdade de expressão e a diversidade de opiniões.
É possível adotar medidas de mitigação para os riscos associados aos processos eleitorais e ao engajamento político nas plataformas digitais, desde que sejam equilibradas, claras, transparentes e respeitem a liberdade de expressão e a diversidade de opiniões. O objetivo deve ser promover um ambiente eleitoral saudável, garantindo a integridade dos processos democráticos. - Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:10Com relação à moderação de conteúdo online, em casos de ações em ambientes de plataformas digitais de afronta à democracia em períodos eleitorais, o IRIS se posiciona pela necessidade de medidas adequadas a serem tomadas que levem em conta o contexto social, assim como os líderes políticos envolvidos, para melhor tomada de decisões. As ações de moderação de conteúdo online, nesses casos, devem ter regras específicas, delineadas, levando em consideração as medidas de devido processo aliadas à construção de mecanismos para resposta rápida e concreta da empresa.
Coloca-se a sugestão de que o usuário seja informado: a) sobre a fundamentação da decisão tomada, com distinção entre avaliações políticas legítimas, atos perigosos e atos ilegais, especificando-se as violações ocorridas; b) prazo para contestar e o meio pelo qual fazê-lo, assim como o prazo para reavaliação pela plataforma; c) se a decisão foi automatizada ou não; d) a penalidade específica aplicada ao conteúdo, assim como quanto a seu caráter definitivo ou temporário, com o período de suspensão.
Em se tratando de decisões automatizadas, o posicionamento é pela garantia de revisão humana e encaminhamento para uma equipe com noção do cenário político em questão, que seja imparcial e fale o idioma local, como forma de manter uma maior transparência dos motivos das decisões tomadas. - ROSA VICARI 23/06/2023 às 18:23Concordo que os períodos eleitorais são mais difíceis de serem abordados pelas plataformas digitais. Mas política se faz o tempo todo. Então considero que as medidas propostas neste item precisam ser observadas o tempo todo.
- Rodrigo Pereira 25/04/2023 às 20:21Excelente medidas!
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:33[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Tarcizio Silva 16/07/2023 às 15:50Sim. Plataformas privadas fundadas em outros países devem provar que oferecem equipes dedicadas à transparência e mitificação de danos eleitorais proporcionais às equipes de seus países de origem. Denúncias como as de Frances Haugen e Sophie Zhang reforçaram as evidências sobre o desleixo oferecido à países como o Brasil. Ver matérias: “Meta negligencia Brasil no combate à desinformação, diz ex-funcionária” publicada no portal Tecnologia IG em 05 Jul. 2022; e "Ex-funcionária diz que Facebook prejudica eleições e cita o Brasil: "Tenho sangue nas mãos"", publicada na Revista Fórum em 17 Set. 2020.
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 23:55Sim. Semelhante a algumas regras para propaganda eleitoral de redes sociais, a obrigação de transparência durante este período é razoável, assim como a identificação clara e expressa de conteúdos com teor político, o banimento de conteúdos impulsionados e a vedação do disparo em massa de mensagens deste cunho.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 18:18Uma questão relevante a ser considerada é a definição do que se entende por “obrigações de transparência mais abrangentes”.
Embora a transparência seja fundamental, é necessário ter cautela com relação ao excesso de regulamentação e à complexidade das obrigações associadas a esse tema, uma vez que isto pode demandar: (i) deslocamento de recursos financeiros consideráveis; (ii) aumento na burocracia, tanto para os candidatos quanto para os partidos políticos.
Entendemos que boa parte deste tipo de regulamentação já foi satisfatoriamente implementada pela reforma da Lei Eleitoral e é, a cada eleição, calibrada pelas normas do TSE, como já apontado anteriormente.
Por fim, esta medida poderá impor restrições que afetem a igualdade de oportunidades no processo eleitoral, diminuindo a possibilidade de ascensão de pequenos partidos e, em casos mais extremos, poderá levar a uma possível interferência no debate democrático. - Mozart Hasse 28/04/2023 às 11:33Quanto mais abertura, mais difícil fraudar, pois tem mais gente fiscalizando. O que não colocar em risco a vida do candidato e sua família, tem de abrir publicamente.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:41(Contribuição da Coalizão Direitos na Rede)
A centralidade das plataformas digitais no debate público cresce a cada ano. O impacto do que circula nesses ambientes pode ser decisivo na formação da opinião em processos eleitorais. É no interior dessas plataformas que se espalha de forma descontrolada a desinformação. Assim, deve haver obrigações de que essas empresas atuem de forma mais incisiva para conter a viralização desses conteúdos e trabalhem em cooperação com a Justiça Eleitoral.
Infelizmente as respostas dessas empresas têm sido muito aquém do mínimo necessário. Há, inclusive, algumas que sequer dialogam com a Justiça Eleitoral e nem respeitam as decisões judiciais, como o caso do Telegram. A CDR reitera que esses agentes precisam assumir seu papel para evitar que a desinformação dê a tônica das eleições. É preciso que as plataformas atuem ativamente para derrubar conteúdos sabidamente falsos que afetem a integridade eleitoral e sejam ágeis no cumprimento das decisões da Justiça Eleitoral. O lucro dessas empresas não pode estar acima da manutenção de um regime democrático e do processo de escolha livre e esclarecida dos governantes. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:34[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Filipe Saraiva 16/07/2023 às 22:26Necessário. Talvez as plataformas poderiam implementar APIs interoperáveis, determinadas pelo TSE, para que conteúdos e ações de moderação sejam partilhadas entre diferentes atores como as próprias plataformas, entidades do terceiro setor, agências de fact-checking, partidos políticos e outros. Isso aceleraria o processo de moderação destes conteúdos.
- Tarcizio Silva 16/07/2023 às 15:52Considerando o histórico de problemas, recomenda-se que as principais plataformas devem montar salas públicas com acesso a membros do TSE, incluindo dashboard em tempo real das atividades de moderação e mitigação de conteúdos considerados prejudiciais ao processo eleitoral, a exemplo de falsas denúncias sobre fraudes nas urnas e discurso de ódio.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:49É necessário limitar o perfilamento baseado em (i) dados pessoais sensíveis — previstos no rol exemplificativo do art. 11 da LGPD — para combater discriminações ilícitas e (ii) dados de crianças e adolescentes.
No setor de saúde, por exemplo, para centralizar os usuários na gestão de saúde e efetivar o direito à saúde, é necessário vedar a exploração econômica de dados pessoais. Isso envolve a proibição de perfilamento com objetivo de publicidade direcionada e impulsionamento de conteúdos.
Também deve ser vedada a perfilamento baseada em dados de crianças e adolescentes. Crianças e adolescentes são sujeitos hipervulneráveis e, portanto, estão mais expostos aos aspectos negativos do ecossistema digital, tendo em vista a etapa específica de desenvolvimento biopsicológico que atravessam. A exploração comercial infantil já é rechaçada por diversos marcos normativos, inclusive pela CF/88 (art. 227), além de um grande arcabouço contra a publicidade de crianças e adolescentes.
O Marco Legal da Primeira Infância (Lei 13.257/16), em seu art. 5º, garante o direito da criança, até os 6 anos, em ser protegida contra todo tipo de pressão consumista. Somado a isso, o CDC também traz limitações à publicidade. O art. 36 veda a publicidade clandestina, constantemente direcionada a crianças por sua hipervulnerabilidade e inocência. Já o art. 37 proíbe a publicidade enganosa — que leva o consumidor a erro — ou abusiva — aquela que leva o consumidor a um comportamento prejudicial a sua saúde e/ou se aproveita da falta ou deficiência de julgamento da criança. Ainda, a Resolução 163/2014 do Conselho Nacional dos Direitos da Criança e do Adolescente (CONANDA) define o que deve ser considerado abusivo na publicidade infantil.
Assim, para priorizar o melhor interesse das crianças (art. 277 CF/88 e Art. 15 LGPD) é necessário que a regulação de plataformas vede a utilização de dados de crianças para perfilamento, publicidade direcionada e impulsionamento de conteúdo. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 14/07/2023 às 23:59Esse é um ponto delicado. Uma vez que ao mesmo tempo que é fundamental coibir a desinformação durante esse período, é preciso impedir que os mecanismos adotados sejam utilizados para silenciar vozes dissidentes no momento da disputa eleitoral. Conforme Eduardo Bertini e Sophia Satinsky explicam em "Internet y derechos humanos II: aportes para la discusión de políticas públicas en América Latina", os dispositivos do DMCA têm sido frequentemente utilizados como uma ferramenta de censura política em diversos países. Nesse sentido, flexibilizar demais o modelo do Marco Civil da Internet e cobrar uma atuação mais incisiva das plataformas pode ter o efeito justamente contrário. É preciso ponderar esses aspectos antes de ampliar as responsabilidades das plataformas.
- Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:11Definição de um protocolo sobre responsabilidades no que tange à moderação de conteúdo em período eleitoral, assim como os modos como a plataforma lidará em casos de contextos políticos mais críticos, com normas que devem ser seguidas por todos candidatos numa eleição.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 18:20Uma questão relevante a ser considerada, primeiramente, é a definição do que se entende por “responsabilidades mais amplas”. Essa é uma expressão extremamente vaga que permite qualquer tipo de interpretação.
Ao impor obrigações mais amplas para a moderação de conteúdos durante períodos eleitorais, corre-se o risco de restringir a liberdade de expressão. Plataformas podem adotar uma abordagem excessivamente cautelosa e acabar removendo ou restringindo conteúdos considerados legítimos de forma arbitrária. Isso poderá limitar a diversidade de opiniões e levar a uma possível interferência no debate democrático. - Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:42(Contribuição da Coalizão Direitos na Rede)
Anúncios eleitorais nas plataformas geridas pelo Google e pela Meta não têm passado pelo devido processo de autorização requerido pelo TSE, seja porque são postados de fora do Brasil, seja porque dependem do próprio anunciante declarar que se trata de um anúncio eleitoral, o que nem sempre acontece. Outros, ainda que declarados, têm sido publicados irregularmente, sem o rótulo de “propaganda eleitoral” ou sem identificação de CNPJ do responsável pela peça. Ao mesmo tempo, conteúdos eleitorais (envolvendo nomes de candidatos, partidos e temas das eleições), chamados pelas plataformas de “anúncios políticos”, vêm sendo impulsionados como se não fossem eleitorais, permitindo uma burla da legislação nacional, em práticas como impulsionamento pago por empresas. Levantamento do Netlab da Universidade Federal do Rio de Janeiro (UFRJ) aponta que 7 em 10 anúncios no Google estão irregulares, pelos motivos supracitados.
Anúncios com conteúdo que questionam a integridade do sistema eleitoral brasileiro, mesmo que vedados pela política das plataformas, também seguem circulando. O mesmo documento do Netlab/UFRJ ainda identificou peças publicitárias nas plataformas da Meta que atacavam as urnas eletrônicas, defendiam o voto impresso e deslegitimam o STF e TSE. Segundo apuração do The Intercept Brasil, entre outras, apenas Google e Meta receberam R$ 184 milhões em anúncios somente no 1º turno das eleições.
Ainda, é notório que grandes canais que disseminam desinformação eleitoral continuam gozando de ferramentas para monetizar seu conteúdo, impulsioná-lo ou, ainda, tê-lo entregue por priorização e recomendação algorítmica em redes sociais como o Youtube. Desta maneira, a plataforma dá oxigênio e amplificação a atores e narrativas que representam enorme influência indevida (e econômica) no pleito.
Recomendações emergenciais:
1. Anúncios publicados em português brasileiro deveriam ter que passar por filtros de verificação prévia de conteúdo com termos referentes ao processo eleitoral, para que somente aqueles em adequação à legislação eleitoral brasileira sejam veiculados. A execução da medida é factível: já existem filtros de verificação nas plataformas que visam impedir anúncios que contrariam suas diferentes políticas.
2. Deveria haver maior incentivo a parcerias entre TSE e centros de pesquisa focadas em monitorar anúncios. Para tal, cabe maior colaboração por parte das plataformas a fim de permitir auditoria de terceiros em seu sistema de anúncios.
3. Deveria ser ampliado o tempo de restrição para veiculação de propaganda eleitoral e impulsionamento de conteúdo político. A resolução do TSE, de 20 de outubro de 2022, é bem vinda ao vedar a veiculação de anúncios eleitorais no intervalo entre 48 horas antes e 24 horas depois da votação. Porém, observando que nas eleições presidenciais dos EUA plataformas como o Facebook restringiram, por iniciativa própria, anúncios políticos uma semana antes da votação, recomendamos, diante das características de disseminação de conteúdos na Internet, que o tempo de limitação de anúncios por esse meio seja maior.
4. Perda de privilégios de monetização, priorização e recomendação de canais que são contumazes na disseminação de narrativas desinformativas de cunho eleitoral, que desrespeitam ou zombam de decisões judiciais a fim de torná-las inócuas. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:34[Contribuição do DiraCom - Direito à Comunicação e Democracia]
O impulsionamento de conteúdos em eleições deve ser proibido. - Henrique Bazan 16/07/2023 às 21:10Considerando que a Lei 9.504/97 já prevê limites de gastos em campanhas eleitorais, a medida não deve ser priorizada, cabendo ao próprio candidato escolher os meios de investimento para propaganda eleitoral. Outras formas de atuação podem ser mais eficazes para tornar o ambiente digital mais hígido e democrático durante campanhas eleitorais, como ampliação da fiscalização de abusos, impossibilidade que um usuário impulsione conteúdos caso suas postagens prévias tenham afrontado reiteradamente políticas da plataforma e a impossibilidade (ou limitação) do perfilamento de usuário para uso em propaganda eleitoral, o que já tornaria menos atrativa a publicidade em plataformas digitais.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 20:00Considerando as plataformas como a própria esfera pública mediada por tecnologias e tendo em vista os diferentes impactos disso sobre a liberdade de expressão e sobre as democracias, uma possibilidade a ser defendida é que o serviço ofertado pelas plataformas seja considerado como um serviço de interesse público, devendo, portanto, responder a determinados princípios e obrigações. Como serviços de interesse público, estas plataformas devem ser proibidas de ofertar impulsionamento de conteúdos tanto para exposição de candidatos quanto para hierarquização de resultados de buscas no contexto eleitoral. Assim como na TV e no rádio, a lógica deveria ser inversa, com a regulação de espaços obrigatórios e proporcionais para exposição de conteúdos políticos, partidários e eleitorais.
- Tarcizio Silva 16/07/2023 às 16:02Sim. Para mitigar os danos possíveis recomenda-se limitação de investimento para dirimir as desigualdades de poder econômico e também limitação baseada em gestão de danos possíveis, a exemplo de: a) Limitação das opções de segmentação durante períodos eleitorais, permitindo apenas características demográficas gerais - como idade e região - que não permitam segmentação de nicho ou baseadas em características comportamentais; b) proibição de anúncios em série de temáticas que sejam prejudiciais ao debate público e civilizado sobre eleições, a exemplo de menção a violência, defesa de ideias antidemocráticas ou demonização de grupos políticos; b) e proibição de anúncios derrogatórios ou críticos a candidatos ou partidos concorrentes, limitando os anúncios a promoção dos candidatos anunciantes e seus programas de governo.
- Tarcizio Silva 16/07/2023 às 16:00Para mitigar os danos possíveis recomenda-se limitação de investimento para dirimir as desigualdades de poder econômico e também limitação baseada em gestão de danos possíveis, a exemplo de: a) Limitação das opções de segmentação durante períodos eleitorais, permitindo apenas características demográficas gerais - como idade e região - que não permitam segmentação de nicho ou baseadas em características comportamentais; b) proibição de anúncios em série de temáticas que sejam prejudiciais ao debate público e civilizado sobre eleições, a exemplo de menção a violência, defesa de ideias antidemocráticas ou demonização de grupos políticos; b) e proibição de anúncios derrogatórios ou críticos a candidatos ou partidos concorrentes, limitando os anúncios a promoção dos candidatos anunciantes e seus programas de governo.
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 15/07/2023 às 00:01Sim. Uma vez que é preciso garantir, de certa forma, condições equânimes de competição para os candidatos durante o período eleitoral.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 18:20Restringir os gastos em publicidade nas plataformas digitais pode ter consequências negativas, em particular para candidatos que não sejam famosos ou conhecidos do público em geral, limitando a capacidade dos atores políticos de promover seus conteúdos e sua candidatura. No contexto eleitoral, este tipo de restrição pode afetar a igualdade de oportunidades no processo eleitoral e interferir de forma indireta no debate democrático.
- Mozart Hasse 28/04/2023 às 11:35Basta definir limites únicos para esferas mmunicipal, estadual e federal. O que for gasto em impulsionamento e não for descrito na prestação de contas é caixa 2, com as respectivas punições.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:35[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Henrique Bazan 16/07/2023 às 21:06Impedir completamente o impulsionamento de conteúdos durante o período de campanha eleitoral, pode ser medida excessivamente restritiva. Ainda essa ferramenta seja passível de críticas, campanhas eleitorais podem fazer uso do impulsionamento para realmente informar usuários e os tornar mais críticos. Pode ser medida mais interessante que, durante o período eleitoral, apenas candidatos e partidos políticos possam impulsionar publicações correlatas às disputas eleitorais, haja vista que a fiscalização desses conteúdos seria mais viável. Entre outros fatores, há grande dificuldade para garantir que plataformas sejam ambientes que fomentem debates democráticos e construtivos pois o volume de publicações desinformativas é muito elevado. Caso seja estabelecida a impossibilidade de que não candidatos impulsionem conteúdos, o debate nas redes tende a ser menos impactado por desinformação. Ainda, é evidente que conteúdos que afrontem normas do Estado brasileiro não devem ser passíveis de impulsionamento, como postagens que incitem o fim da ordem democrática nacional e em contrariedade às regras eleitorais.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 20:02Ao definir as plataformas como serviços de interesse público, ficariam elas proibidas de ofertar impulsionamento de conteúdos tanto para exposição de candidatos quanto para hierarquização de resultados de buscas durante o período de campanha eleitoral.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 20:01Ao definir as plataformas como serviços de interesse público, ficariam elas proibidas de ofertar impulsionamento de conteúdos tanto para exposição de candidatos quanto para hierarquização de resultados de buscas durante o período de campanha eleitoral.
- Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:11Entende o IRIS que, durante o período de campanha eleitoral, mas também em caráter permanente, deve ser proibido a publicação e propagação de conteúdos propostos que sejam golpistas, autoritários e/ou incitando violências contra a democracia, diante da alta capacidade de influência das plataformas digitais. Ainda, deve ser constante as políticas para barrar violências políticas como uma diretriz das plataformas digitais.
A busca pelo impedimento de impulsionamento de conteúdos antidemocráticos, assim como a responsabilização dos usuários, não deve, ao nosso ver, ensejar medidas que afrontem e fragilizam a criptografia nos serviços de mensageria oferecidos dentro das plataformas, uma vez que se trata de direito à privacidade. - IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 18:21Isso pode resultar em uma maior poluição de informações nas plataformas, com conteúdos menos relevantes ganhando mais destaque. Diversas candidaturas podem ser viabilizadas justamente porque o impulsionamento auxilia a disseminar propostas de forma direcionada.
- Edson Andrade 26/06/2023 às 21:13Impedir o impulsionamento pode deixar a corrida eleitoral no período de campanha mais justo e igualitário. É notório que o impulsionamento direcionado contribui muito para o crescimento de candidaturas que recebem um maior valor monetário.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 17:03Há uma gama de estratégias para mitigar riscos associados a ameaças aos processos eleitorais e inibição de mecanismos de participação política e engajamento cívico. Uma delas é a educação cívica, cujo propósito é incutir uma compreensão profunda dos processos eleitorais e do significado do voto na população (DALTON, 2008).
Outras possíveis medidas podem incluir a regulação mais rigorosa das campanhas de desinformação e a garantia de transparência no financiamento de campanhas políticas (HARTMANN, 2021).0
Referências:
DALTON, Russell J. The quantity and the quality of party systems: Party system polarization, its measurement, and its consequences. Comparative political studies, v. 41, n. 7, p. 899-920, 2008).
HARTMANN, Ivar Alberto. Combinando Bibliotecas de Anúncios com Checagem de Fatos para Aumentar a Transparência sobre a Desinformação. Direito Público, v. 18, n. 99, 2021 - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:34Participação de Crianças e Adolescente sob 2 eixos - o digital propiciando seu engajamento cívico e o seu direito de ser ouvida e de coconstruir os próprios ambientes que “habita”
Conscientização e acesso a meios digitais promovidas ativamente - uma visão das plataformas como oportunidade de engajamento cívico e político para crianças e adolescentes:
“Item 16. Estados Partes devem promover a conscientização e o acesso a meios digitais para que as crianças expressem suas opiniões e oferecer treinamento e apoio para que as crianças participem em condições de igualdade com adultos, anonimamente quando necessário, para que elas possam ser defensoras efetivas de seus direitos, individualmente e em grupo.”
Fonte: Item 16 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Acessibilidade e Salvaguardas de Privacidade como princípios norteadores para efetivação do engajamento cívico e político para crianças e adolescentes:
“Item 18. Estados Partes são encorajados a utilizar o ambiente digital para consultar as crianças sobre medidas legislativas, administrativas e outras medidas relevantes e para assegurar que suas opiniões sejam consideradas seriamente e que a participação das crianças não resulte em monitoramento indevido ou coleta de dados que violem seu direito à privacidade, liberdade de pensamento e opinião. Eles devem assegurar que os processos de consulta sejam inclusivos para as crianças que não têm acesso à tecnologia ou habilidades para usá-la.”
Fonte: Item 18 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Apoio do Estado ao ativismo liderado por crianças e adolescentes:
66. Visibilidade pública e oportunidades de estabelecer redes e conexões no ambiente digital também podem apoiar o ativismo liderado pelas crianças e empoderá-las enquanto defensoras de direitos humanos. O Comitê reconhece que o ambiente digital permite que crianças, incluindo crianças defensoras de direitos humanos, bem como crianças em situações de vulnerabilidade, se comuniquem umas com as outras, defendam seus direitos e formem associações. Estados Partes devem apoiá-las, inclusive facilitando a criação de espaços digitais específicos, e assegurar sua segurança.
Fonte: Item 66 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Mecanismos de Participação Efetiva de Crianças e Adolescentes na Construção e Regulação das Plataformas e do Ambiente Digital:
É fundamental que pesquisas e políticas públicas sejam centradas no protagonismo e respeito à opinião da criança ou adolescente.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 62 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
“Item 17. Ao desenvolver legislação, políticas, programas, serviços e treinamentos sobre os direitos das crianças em relação ao ambiente digital, Estados Partes devem envolver todas as crianças, ouvir suas necessidades e dar a devida importância aos seus pontos de vista. Eles devem assegurar que os provedores de serviços digitais se envolvam ativamente com as crianças, aplicando salvaguardas apropriadas, e dar a devida consideração a seus pontos de vista ao desenvolver produtos e serviços.”
Fonte: Item 17 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A garantia da participação efetiva de crianças e adolescentes com deficiências para efetivar princípios de acessibilidade universal e para efetivar seu direito geral de participação e de opinião:
91. Estados Partes devem promover inovações tecnológicas que atendam às exigências de crianças com diferentes tipos de deficiência e assegurar que os produtos e serviços digitais sejam projetados para acessibilidade universal para que possam ser usados por todas as crianças sem exceção e sem necessidade de adaptação. As crianças com deficiências devem ser envolvidas na concepção e entrega de políticas, produtos e serviços que afetem a efetivação de seus direitos no ambiente digital.
Fonte: Item 91 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Crianças com deficiências envolvidas na concepção e entrega de políticas
Segundo a Convenção sobre os Direitos das Pessoas com Deficiência, os Estados-Parte devem “Adotar todas as medidas legislativas, administrativas e de qualquer outra natureza, necessárias para a realização dos direitos reconhecidos na presente Convenção”,“Levar em conta, em todos os programas e políticas, a proteção e a promoção dos direitos humanos das pessoas com deficiência’’ e “Promover ativamente um ambiente em que as pessoas com deficiência possam participar efetiva e plenamente na condução das questões públicas, sem discriminação e em igualdade de oportunidades com as demais pessoas, e encorajar sua participação nas questões públicas”.
Fonte: The Office of Global Insight & Policy (UNICEF). Convenção sobre os Direitos das Pessoas com Deficiência e Protocolo Facultativo à Convenção sobre os Direitos das Pessoas com Deficiência; Lei n° 13.146/2015 (Estatuto da Pessoa com Deficiência) e art. 23 da CRC.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 199 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 15:20As plataformas devem desenvolver políticas adequadas para impedir chamados à sublevação contra a ordem democrática ou contra a transferência pacífica de poder que não apelem explicitamente à violência.
- Victor Lippi Zaccariotto 13/05/2023 às 21:27Avaliar a possibilidade de aumento de equipes das plataformas em períodos eleitorais, para que a análise de conteúdo possa ser de maior qualidade.
- Alex Camacho Castilho 12/07/2023 às 16:26Concordo plenamente, além de gerar empredo.
Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:14O risco de precarização nos trabalhos em plataforma são maiores, dado que, neste caso, os próprios empregadores são aqueles que usualmente desenvolvem as plataformas e, portanto, podem facilmente e rapidamente alterar e manipular os algoritmos para reduzir ou suprimir direitos, frente a poucas ou nulas possibilidades de reações por partes dos trabalhadores e de seus agrupamentos. Ademais, o trabalho por meio de plataformas é pulverizado, prejudicando a agrupação de trabalhadores por meio de sindicatos para que coletivamente possam melhor resistir e demandar melhorias nas condições de trabalho.Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:15Há um maior risco de precarização em trabalhos que não são socialmente reconhecidos ou regulados já que, durante o lapso de tempo entre a compreensão deste novo trabalho, a discussão por parte da sociedade e a regulamentação do labor por parte do Estado, este trabalho fica à margem do sistema, sem ou com pouca proteção trabalhista. Há ainda que considerar que todo esse trâmite tende a ser lento e, por vezes, não acompanha a velocidade do avanço tecnológico, gerando regulamentações ultrapassadas.Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:16Como medidas de mitigação do risco, se faz necessário garantir transparência e acessibilidade quanto a (i) termos e condições de trabalho; (ii) processos de decisão que possam afetar o trabalhador; (iii) utilização e armazenamento dos dados dos trabalhadores; (iv) impactos na introdução de novas tecnologias. Faz-se, ainda, necessário garantir que a informação e a transparência ocorram desde o início da relação do trabalhador com a plataforma.Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:17Como medida para mitigação do risco, o trabalho deve ser regularizado para que sejam exigidas condições dignas de trabalho, principalmente relacionadas com saúde e segurança do trabalho (jornada máxima, intervalos mínimos, adequação de espaços de trabalho, medidas de apoio social, ergonomia, direito à desconexão, dentre outros) e ao pagamento de uma remuneração mínima equivalente e proporcional ao salário mínimo legal ou profissional (se aplicável) no Brasil. São também importantes políticas de ações de formação e sensibilização dos trabalhadores sobre o uso razoável das ferramentas tecnológicas e dos riscos associados à fadiga informática e a garantia de que os trabalhadores não estejam sujeitos (ou até mesmo que sejam discriminados) por decisões baseadas em algoritmos que não contem com intervenções humanasConectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:19Como medida para mitigação do risco, deveriam haver incentivos para o cooperativismo de plataforma - plataformas de propriedade de trabalhadores ou de comunidades locais como forma de organização em cooperativas ou coletivos - seja meio de investimentos diretos e indiretos do poder público para a criação e manutenção da sua estrutura tecnológica, seja através de campanhas de promoção e sensibilização dos seus benefícios voltadas para usuários (consumidores) e trabalhadores da categoria (possíveis e futuros cooperativados).
Também deveriam ser incentivadas - via investimento e educação para fomento e articulação de diferentes setores - , a construção de ferramentas e tecnologias que auxiliem o trabalhador a gerir os dados que produz, a fim que este possa rastrear seu tempo de trabalho, calcular o pagamento oferecido e quantificar sua jornada.Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:20Devem ser criados incentivos por meio de certificações ou programas de prêmios para plataformas que demonstrem respeitar garantias mínimas de trabalho decentes, desde que os mesmos sofram um processo de transparência, avaliação periódica e intercâmbio de informações com as organizações de representação dos trabalhadores a fim de garantir a veracidade da certificação/prêmio concedido.Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:20Como importante medida de mitigação de risco, devem ser exigidas, quanto à coleta de dados, que haja transparência quanto à tecnologia e fonte de dados usada, que o sindicato de trabalhadores possa acessá-los e que o trabalhador tenha direito a refutar ou bloquear essa coleta. No que se refere à análise de dados, é importante que o trabalhador possa acessar os dados e inferências gerados a partir destes, bem como que possam contestá-las. Quanto ao armazenamento de dados é importante que haja transparência sobre o servidor de armazenamento (se próprio ou não), quem tem acesso ao mesmo e o que pode ser feito com estes (venda, deletado, estatísticas, etc). Para que todas essas informações sejam compreendidas pelos trabalhadores devem ser incentivados e promovidos letramento digital, tendo em conta as particularidades de cada categoria. A transparência e a compreensão permitem que os próprios trabalhadores e suas entidades sindicais consigam melhor impor limites para a proteção do seu direito à privacidade.Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:21Uma medida importante para a mitigação de riscos é a garantia e o respeito da liberdade de associação dos trabalhadores, por meio de um processo de diálogo significativo com os sindicatos e da proteção adequada contra quaisquer atos atentatórios à liberdade sindical e ao direito de greve, inclusive por meio da manipulação de algoritmos.
Também é importante assegurar e promover um mecanismo de denúncia acessível, com linguagem atécnica e em português, opções para o denunciante ser ou não contactado (opção de denúncia anônima e sigilosa) e previsão de prazo para retorno, por parte da plataforma (empregador), quanto às medidas adotadas.Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:23Para mitigar os riscos associados ao surgimento de formas de trabalho não socialmente reconhecidas e reguladas, faz-se importante a criação de um comitê/conselho multissetorial de monitoramento da transformação digital que acompanhem e discutam periodicamente a introdução e evolução de tecnologias e das organizações de trabalho a estas atreladas, a fim de que possam aconselhar o Estado para reações mais céleres acerca da regulamentação mínima dessas condições de trabalho.Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 15:26As plataformas devem se comprometer em qualificar suas equipes para o contexto brasileiro e idioma português, compreendendo os principais grupos que são alvo de violência política.Conectas Direitos Humanos (comentário inserido por: Carla Vreche) 14/07/2023 às 17:25Proibição de uso de dados pessoais sensíveis para direcionamento de conteúdo.Alex Camacho Castilho 12/07/2023 às 16:321. Fomentar a colaboração entre plataformas e veículos de mídia: Promover parcerias entre plataformas digitais e organizações de mídia tradicionais pode ajudar a fortalecer o jornalismo de qualidade. Isso pode incluir acordos de compartilhamento de receita, programas de subsídios para o jornalismo, apoio financeiro a iniciativas de fact-checking e a criação de fundos destinados a promover a diversidade e a sustentabilidade do setor de notícias.
2. Estabelecer mecanismos de transparência e prestação de contas: As plataformas digitais devem ser transparentes em relação aos algoritmos e às políticas que afetam a disseminação de notícias. Isso inclui divulgar informações sobre como o conteúdo é classificado, priorizado e distribuído nas plataformas, bem como permitir que os veículos de mídia entendam e influenciem esses processos. Além disso, as plataformas devem ser responsáveis por prestar contas sobre suas ações de moderação de conteúdo e esforços de combate à desinformação.
3. Apoiar a sustentabilidade financeira do jornalismo: Estimular a diversificação das fontes de receita dos veículos de mídia, além da publicidade, é fundamental para garantir a independência e a sustentabilidade do jornalismo. Isso pode envolver a criação de programas de apoio financeiro, incentivos fiscais, promoção de modelos de assinatura, desenvolvimento de soluções de micropagamentos e apoio à publicidade contextualizada em conteúdos noticiosos.
4. Investir em alfabetização midiática e combate à desinformação: Promover a educação midiática entre os usuários das plataformas digitais é essencial para fortalecer a capacidade das pessoas em identificar informações confiáveis e combater a desinformação. Isso pode ser feito por meio de programas de conscientização, parcerias com organizações de verificação de fatos, promoção de conteúdos educativos e aprimoramento das habilidades de pensamento crítico.
5. Estabelecer políticas de responsabilidade editorial: As plataformas digitais devem assumir uma responsabilidade maior pelas consequências de seu papel como intermediárias da informação. Isso envolve a adoção de políticas claras de responsabilidade editorial, que estabeleçam diretrizes para a moderação de conteúdo, remoção de informações falsas e combate ao discurso de ódio. Ao mesmo tempo, é importante garantir que essas políticas sejam implementadas de forma transparente, equilibrada e respeitando os direitos fundamentais, como a liberdade de expressão.Alex Camacho Castilho 12/07/2023 às 16:36Estabelecer limitações ao tratamento de determinados dados em situações com maior potencial de dano é uma medida importante para proteger a privacidade dos indivíduos. Isso pode incluir a definição de categorias sensíveis de dados, como informações de saúde, origem racial ou étnica, opiniões políticas, orientação sexual, entre outros, que requerem um nível mais rigoroso de proteção. Ao proibir ou limitar o tratamento desses dados em certas circunstâncias, podemos reduzir os riscos de discriminação e violação de privacidade.Alex Camacho Castilho 12/07/2023 às 16:36Restringir o perfilamento de usuários para fins de publicidade direcionada e impulsionamento de conteúdos pode ajudar a proteger a privacidade e evitar práticas manipulativas. Limitar o uso indiscriminado de dados pessoais para segmentação de anúncios reduz os riscos de violação de privacidade e manipulação comportamental. Isso pode ser feito por meio de regulamentações que estabelecem critérios claros para a coleta e uso de dados pessoais com finalidades publicitárias, garantindo o consentimento informado dos usuários e fornecendo opções claras de controle e exclusão de dados.Alex Camacho Castilho 12/07/2023 às 16:37A mineração de dados em sistemas de IA pode apresentar riscos significativos à privacidade e proteção de dados pessoais. Estabelecer limites claros e específicos para a mineração de dados pessoais em sistemas de IA é essencial para garantir que o processamento dessas informações seja realizado de forma ética e em conformidade com as leis de proteção de dados. Isso inclui a definição de critérios de minimização de dados, anonimização adequada, finalidades legítimas de processamento e garantias de segurança e proteção.Alex Camacho Castilho 12/07/2023 às 16:391. Reforçar os direitos dos indivíduos sobre seus dados pessoais, garantindo o acesso, retificação, exclusão e portabilidade de seus dados. Além disso, é importante promover a conscientização e educação dos usuários sobre seus direitos e como exercê-los.
2. Definir padrões e diretrizes claras para a segurança e proteção de dados pessoais, incluindo a implementação de medidas técnicas e organizacionais adequadas para evitar violações de dados, como criptografia, controle de acesso, pseudonimização e anonimização.
3. Incentivar as plataformas digitais a adotar a privacidade como princípio fundamental desde a concepção de seus produtos e serviços, incorporando práticas de privacidade por design. Além disso, é importante que as configurações de privacidade sejam estabelecidas como padrão, de modo que a privacidade seja a opção pré-definida para os usuários.
4. Implementar a realização de auditorias regulares e avaliações de impacto de privacidade para avaliar e mitigar os riscos associados ao tratamento de dados pessoais. Essas avaliações ajudam a identificar possíveis riscos e a adotar medidas adequadas para garantir a proteção da privacidade dos indivíduos.Alex Camacho Castilho 12/07/2023 às 16:451. As plataformas devem estabelecer limites de idade adequados para o acesso a determinados serviços e conteúdos, garantindo que crianças e adolescentes não tenham acesso a conteúdos inapropriados para sua faixa etária.
2. Oferecer ferramentas e configurações de controle parental que permitam aos pais ou responsáveis supervisionar e restringir o acesso de crianças e adolescentes a determinados conteúdos ou funcionalidades das plataformas.
3. Exigir o consentimento informado dos pais ou responsáveis legais para coleta, uso e compartilhamento de dados pessoais de crianças e adolescentes, conforme determinado pela legislação de proteção de dados.
4. Implementar medidas adequadas para proteger a privacidade e a segurança das informações pessoais de crianças e adolescentes, garantindo que suas informações não sejam divulgadas ou compartilhadas de forma inadequada.
5. Promover programas de educação digital que capacitem crianças e adolescentes a compreenderem os riscos e adotarem comportamentos seguros nas plataformas digitais, ensinando sobre privacidade, segurança online e a importância do respeito mútuo.
6. Monitorar e filtrar ativamente o conteúdo disponível nas plataformas para garantir que seja apropriado para crianças e adolescentes, evitando a exposição a conteúdos violentos, sexualmente explícitos ou prejudiciais.
7. Disponibilizar canais de denúncia e mecanismos de reporte de abusos, assédio, conteúdo inapropriado ou outras formas de violação dos direitos das crianças e adolescentes, com resposta rápida e efetiva.
8. Estabelecer a responsabilidade dos provedores de plataformas digitais por ações que violem os direitos das crianças e adolescentes, incluindo medidas disciplinares, remoção de conteúdos impróprios e colaboração com autoridades competentes.
9. Garantir que as plataformas sejam acessíveis e inclusivas, considerando as necessidades de crianças e adolescentes com deficiências ou dificuldades especiais, proporcionando recursos e suporte adequados.Alex Camacho Castilho 12/07/2023 às 16:541. Ministério da Justiça e Segurança Pública (MJSP): Responsável por coordenar ações relacionadas à proteção de dados pessoais, privacidade e defesa do consumidor, podendo elaborar regulamentações e diretrizes nesses âmbitos.
2. Autoridade Nacional de Proteção de Dados (ANPD): Criada pela Lei Geral de Proteção de Dados (LGPD), é responsável por zelar pela proteção de dados pessoais, fiscalizar o cumprimento da legislação e aplicar sanções em caso de violações.
3. Ministério da Economia (ME): Atua na promoção da concorrência e defesa do consumidor, podendo propor medidas de regulação que visem garantir um ambiente competitivo e proteger os direitos dos usuários das plataformas digitais.
4. Agência Nacional de Telecomunicações (ANATEL): Regula o setor de telecomunicações e pode ter atribuições relacionadas à garantia de acessibilidade, qualidade e neutralidade de rede.
5. Conselho Administrativo de Defesa Econômica (CADE): Órgão responsável por promover a defesa da concorrência, investigando práticas anticompetitivas e avaliando fusões e aquisições de empresas no contexto das plataformas digitais.
6. Ministério da Ciência, Tecnologia e Inovações (MCTI): Atua no fomento à pesquisa e inovação tecnológica, podendo contribuir com políticas e diretrizes que estimulem o desenvolvimento tecnológico e a segurança digital.
7. Câmara dos Deputados e Senado Federal: Como poderes legislativos, podem ser responsáveis pela elaboração e aprovação de leis que regulamentem as atividades das plataformas digitais, além de realizar debates e audiências públicas para discutir o tema.
8. Poder Judiciário: Os tribunais têm a função de interpretar e aplicar a legislação existente, podendo ser acionados para resolver litígios relacionados às plataformas digitais e garantir o cumprimento das normas.
9. Procuradoria-Geral da República (PGR) e Ministérios Públicos Estaduais: Atuam na defesa dos interesses da sociedade, podendo investigar e ajuizar ações para garantir o cumprimento das leis e a proteção dos direitos dos usuários das plataformas digitais.
10. Departamento de Proteção e Defesa do Consumidor (DPDC): Vinculado ao Ministério da Justiça e Segurança Pública, o DPDC atua na proteção dos direitos dos consumidores, incluindo a defesa dos direitos dos usuários das plataformas digitais.
Comitê Gestor da Internet no Brasil (CGI.br): É uma entidade multissetorial responsável pela coordenação e articulação do uso da Internet no país. O CGI.br pode contribuir com diretrizes e recomendações relacionadas à governança da Internet e à proteção dos direitos e interesses dos usuários.
E por fim, mas não menos importante:
Organizações da sociedade civil: Diversas organizações da sociedade civil, como institutos de pesquisa, grupos de defesa dos direitos digitais e entidades de proteção ao consumidor, têm um papel ativo na formulação de políticas e na promoção da regulação das plataformas digitais.Alex Camacho Castilho 12/07/2023 às 16:561. Setores específicos podem contar com entidades de autorregulação, compostas por empresas do ramo, que estabelecem normas e diretrizes para orientar a conduta das plataformas digitais e promover melhores práticas no setor.
2. Associações que representam empresas e setores da indústria podem participar da discussão e contribuir com suas perspectivas, compartilhando experiências e conhecimentos específicos relacionados às plataformas digitais.
3. Instituições acadêmicas e de pesquisa desempenham um papel importante na análise dos impactos das plataformas digitais e na identificação de soluções regulatórias, fornecendo embasamento técnico e científico para o desenvolvimento de políticas eficazes.
4. Organizações internacionais, como a União Europeia, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) e a Organização das Nações Unidas (ONU), podem fornecer diretrizes e padrões internacionais que orientem a regulação das plataformas digitais.
5. Organizações e instituições dedicadas à defesa dos direitos do consumidor têm um papel fundamental em garantir a proteção dos usuários das plataformas digitais, advogando por políticas que assegurem a transparência, a privacidade e a segurança.
6. Além da ANPD em nível nacional, alguns estados brasileiros possuem seus próprios órgãos de proteção de dados e privacidade, que podem complementar a atuação da autoridade nacional e atender às demandas regionais.Alex Camacho Castilho 12/07/2023 às 16:59Não há necessariamente a obrigação de criar novas instituições para a implementação da regulação de plataformas digitais, pois muitas das atribuições relacionadas à regulação já podem e devem ser desempenhadas por órgãos e entidades existentes, otimizando recursos públicos e aplicando o conhecimento integrado entre os entes.Alex Camacho Castilho 12/07/2023 às 17:021. A criação de estruturas de governança multissetorial, como conselhos ou comitês, pode facilitar a coordenação entre os diferentes atores envolvidos. Essas estruturas podem contar com a participação de representantes do governo, sociedade civil, academia, setor privado e outros atores relevantes, garantindo uma abordagem inclusiva e participativa.
2. É fundamental promover a cooperação e a troca de informações entre os órgãos e entidades existentes, aproveitando suas expertise e capacidades. Acordos de cooperação, parcerias estratégicas e canais de comunicação eficientes podem ser estabelecidos para facilitar a coordenação e a articulação.
3. É necessário estabelecer uma clara definição de competências e responsabilidades de cada órgão e entidade envolvida na regulação das plataformas digitais. Isso evita sobreposições e lacunas, garantindo que cada instituição exerça seu papel de forma eficaz e eficiente.
4. É importante estabelecer mecanismos de compartilhamento de informações entre as entidades envolvidas, garantindo o fluxo adequado de dados e conhecimentos relevantes para a tomada de decisões e ações regulatórias.
5. Dada a natureza transnacional das plataformas digitais, a cooperação internacional é essencial. A interação com organizações internacionais, a troca de melhores práticas e a participação em fóruns e iniciativas globais podem fortalecer a coordenação e promover uma abordagem harmonizada da regulação.
6. É importante estabelecer mecanismos de resolução de conflitos entre as entidades envolvidas, permitindo a rápida solução de divergências e a superação de obstáculos na implementação da regulação.Alex Camacho Castilho 12/07/2023 às 17:04As medidas de reparação e sancionamento no caso de violação das obrigações definidas na regulação de plataformas digitais devem ser implementadas de acordo com os órgãos e leis competentes responsáveis pela aplicação das normas. A regulação estabelecerá os critérios e as sanções apropriadas para casos de descumprimento, levando em consideração a gravidade das violações e os impactos causados. Os órgãos reguladores e de fiscalização serão encarregados de aplicar as sanções previstas na legislação, assegurando que as plataformas digitais cumpram suas obrigações e garantindo a proteção dos direitos e interesses dos usuários. A clareza e a previsibilidade dos procedimentos e critérios de sanção são essenciais para garantir a efetividade da regulação e a confiança no sistema de aplicação. - Mozart Hasse 28/04/2023 às 11:32... e quem vai medir isso? Não se pode anunciar produtos à venda durante a campanha?! Se pode, então não tem como adivinhar o que é de cunho politiqueiro e o que é propaganda eleitoram impulsionada. Não é esse o caminho, pois está fadado ao fracasso. Fiscaliza pelo local em que o dinheiro foi gasto, limita o total que pode ser usado por questão de igualdade e deixa o eleitor dos outros candidatos fiscalizar. Fez propaganda impusionada e não listopu na prestação de contas, caça o diploma na hora da posse e pronto.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:35[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Deve ser estabelecido um modelo de partilha dos recursos auferidos pelas plataformas como resultado da monetização e veiculação de publicidade de conteúdos jornalísticos a partir da taxação desses agentes e da constituição de um fundo de gestão participativa envolvendo atores econômicos e trabalhadores e que possa financiar veículos e projetos jornalísticos de modo a promover a pluralidade e diversidade e fortalecer o respeito e promoção do direito à comunicação - Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:54Assim como outros riscos, aqueles relativos ao jornalismo - como à independência e sustentabilidade e diversidade da imprensa - exigem a transparência algorítmica e o combate à desinformação. A transparência algorítmica, nesse caso, faz-se necessária para expor os critérios que orientam a distribuição e a visibilidade do conteúdo jornalístico, enquanto o combate à desinformação exerce o papel de promover conteúdo confiável. Algumas medidas para a promoção de conteúdo confiável envolvem a parceria com agências de checagem de fatos e moderação de conteúdo. O estímulo à pluralidade e o apoio a veículos de imprensa locais e independentes também deve ser levado em conta na regulação.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 20:02·A criação de um fundo para projetos jornalísticos em plataformas digitais pode ser uma medida eficaz para apoiar e promover a produção de conteúdo jornalístico de qualidade. Esse fundo poderia ser utilizado para financiar iniciativas jornalísticas independentes, incentivar a inovação na área e garantir a sustentabilidade desses projetos.
Fortalecimento do jornalismo local e independente: Incentivar e apoiar o jornalismo local e independente, que desempenha um papel fundamental na cobertura de questões regionais e na promoção da diversidade de vozes.
Transparência nos algoritmos e critérios de distribuição: Demandar que as plataformas forneçam transparência em relação aos algoritmos e critérios utilizados para a distribuição de conteúdo, evitando assim a formação de bolhas de informação e garantindo a diversidade e a pluralidade de vozes. - Associação de Jornalismo Digital - Ajor (comentário inserido por: Carla Egydio) 16/07/2023 às 15:46A Ajor defende a criação de um instrumento transparente e com governança adequada de apoio ao desenvolvimento do jornalismo a partir da contribuição das plataformas digitais, um fundo de sustentabilidade do jornalismo digital.
Um fundo capaz de fomentar o jornalismo deve ter como princípios a democratização do acesso à informação, a pluralidade, o incentivo às pequenas e médias iniciativas jornalísticas e o combate aos desertos de notícias.
De acordo com o Atlas da Notícia publicado em 2022, atualmente, são mais de 13% dos cidadãos brasileiros vivendo em regiões caracterizadas como desertos de notícias. A mesma pesquisa atenta para a crescente presença de veículos digitais no ecossistema jornalístico do país, bem como a importância do jornalismo digital no combate aos desertos de notícias.
O desafio da sustentabilidade financeira do jornalismo é global. Alguns países têm estabelecido critérios de remuneração pelas plataformas digitais. Há nesse sentido dois grandes exemplos: a legislação da União Europeia e a da Austrália. Ainda, há a lei canadense recém aprovada. Complementarmente, diversos países, como Áustria, Itália, Holanda, Noruega, Reino Unido e Canadá, entre outros, têm criado políticas públicas de fomento ao setor, principalmente por meio de fundos públicos de apoio ao jornalismo como maneira de garantir a sustentabilidade desse setor e incentivar a expansão do jornalismo digital, o pluralismo, a regionalização da cobertura jornalística e o incentivo à inovação no jornalismo. Ainda, algumas plataformas têm lançado mecanismos de fomento ao jornalismo, como o fundo privado do Google em Taiwan.
É fundamental que quaisquer que sejam os mecanismos de fomento ao campo adotados sejam transparentes e equitativos. Também é necessário que sejam estabelecidos critérios objetivos no mínimo para determinar quem será elegível à remuneração, como e quem deverá contribuir para a remuneração, ainda que indireta, quais os critérios de alocação dos recursos recebidos, e a mensuração do impacto do modelo adotado na atividade jornalística.
No caso defendido pela Ajor, a criação de um fundo, é necessário estabelecer mecanismos capazes de garantir transparência desde a forma de contribuição das plataformas até a alocação dos recursos, assim como governança intersetorial, com a participação de empresas jornalísticas e sociedade civil organizada, e também diretrizes explícitas que priorizem o jornalismo, a pluralidade e o fomento à inovação e demais mecanismos que incentivem a expansão do jornalismo digital, o combate à desinformação e a sustentabilidade financeiras dos empreendimentos jornalísticos existentes, com ou sem fins lucrativos.
O modelo de financiamento via fundo permite o estabelecimento de critérios objetivos e transparentes para a definição dos montantes e das iniciativas aptas a recebê-los, o oposto de um modelo privado de negociação direta entre empresas jornalísticas e plataformas digitais. Por fim, é importante ressaltar que a criação de um fundo não impede que empresas e plataformas realizem acordos complementares. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:23Assim como muitas autoridades e parlamentares, acreditamos que uma indústria jornalística pujante é essencial. Todos os atores desse ecossistema devem ter o compromisso de apoiar um ambiente de imprensa sustentável, independente e diverso.
Acreditamos haver três princípios fundamentais que podem ajudar a informar abordagens de políticas públicas para apoiar o futuro do jornalismo de qualidade:
1 Convocar especialistas intersetoriais para identificar áreas de foco e colaborar em soluções compartilhadas;
2 Investir na inovação e experimentação da redação para identificar e apoiar modelos de negócios sustentáveis; e
3 Fornecer suporte para instituições legadas à medida que passam pela transformação digital.
Quanto aos modelos de negócio das plataformas e do jornalismo, destaca-se que os veículos tomam uma decisão comercial e optam por compartilhar links com seus conteúdos porque se beneficiam do tráfego das plataformas de rede social. Desta maneira, as publicações voluntárias das próprias empresas jornalísticas não podem ensejar remuneração sob pena de criar uma indústria de novas empresas jornalísticas de baixa qualidade remuneradas oficialmente pelas plataformas. As empresas optam por publicar em plataformas quanto isso os beneficia, inclusive permitindo-lhes chegar a públicos já existentes e a novos públicos.
Cabe ainda destacar a necessidade de levar em conta as plataformas de mensageria privadas e a questão da criptografia. Enfraquecer a criptografia pode trazer altos riscos para os direitos humanos. A criptografia é uma ferramenta muito importante para manter todos seguros: protege a privacidade das pessoas, dá mais liberdade a jornalistas, ativistas e informantes. Introduzir, por exemplo, rastreabilidade pode quebrar o princípio de criptografia, colocando em perigo pessoas expostas. - José Antonio Galhardo 16/07/2023 às 11:00O ideal inalcançável seria uma regulação que conseguisse introduzir uma política de apoio ao jornalismo independente que conte com curadoria mínima das notícias que divulga. As plataformas poderiam distribuir o conteúdo produzido por esse jornalismo, independente de direcionamentos para bolhas, de tal forma a oferecer para a população diversidade de opiniões e coberturas jornalísticas. E esse jornalismo seria monetizado pelas plataformas sem se preocupar em aprovação ou compartilhamento.
- Kenzo Soares Seto 14/07/2023 às 16:46Deve se fortalecer e atualizar o sistema público de comunicação (EBC, tv's estaduais, etc) de modo a constituir plataformas públicas de comunicação ao exemplo bem sucedido da BBC com fontes de financiamento distintas da publicidade, modelo de negócios em crise em todo o mundo. Obrigar as plataformas digitais a ceder parte da sua receita aos órgãos jornalísticos privados nacionais não tem funcionado, a exemplo da Austrália e do Canadá onde as plataformas simplesmente suspendem a distribuição de conteúdos produzidos por esses orgãos de modo a não ter que compartilhar receitas derivadas do acesso a eles.
- Internet Society Capítulo Brasil (comentário inserido por: GT-RI ISOC Brasil) 14/07/2023 às 15:22O recente caso da legislação canadense para a remuneração de conteúdo jornalístico no país é um exemplo de um arranjo regulatórios que pode restringir a experiência que o usuário possui da rede aberta, globalmente conectada, segura e confiável. Aprovada em junho de 2023, a proposta do Online News Act (Bill C-18) foi previamente analisada pela Internet Society (Disponível em: https://www.internetsociety.org/resources/doc/2023/internet-impact-brief-how-canadas-online-news-act-will-harm-the-internet-restricting-innovation-security-and-growth-of-the-digital-economy/) identificando que o projeto, cujo objetivo era fortalecer os produtores nacionais de conteúdo jornalístico por meio da criação de novas obrigações de remuneração para as plataformas digitais, iria, dentre outras consequências negativas, restringir o livre acesso de cidadãos canadenses a conteúdos globais, diferenciando a experiência da sociedade canadense na Internet, se comparada aos demais países.
Nesses termos, a avaliação feita do projeto a partir dos parâmetros fundamentais que constituem a Internet interconectada e interoperável (Ver https://www.internetsociety.org/resources/doc/2020/internet-impact-assessment-toolkit/critical-properties-of-the-internet/) mostrou que a solução proposta para um problema legítimo poderia, em realidade, levar a novas e complexas questões. A aprovação do Online News Act é recente, mas já tem suscitado uma primeira onda de reações mercadológicas associadas à interrupção de exibição e acesso a notícias em plataformas da Meta e da Google, dentre outros debates relevantes nessa área (Mais informações em: https://oglobo.globo.com/economia/noticia/2023/06/canada-aprova-lei-que-obriga-a-meta-e-a-alphabet-a-pagar-os-editores-de-noticias.ghtml).
A busca por soluções legislativas para fenômenos e problemas relacionados à Internet tem afetado todos os países e demais atores da comunidade de governança da Internet. Em particular, o próprio tema da remuneração de conteúdo jornalístico não está distante do contexto brasileiro, tendo sido recentemente esmiuçado pela Câmara de Conteúdos e Bens Culturais do Comitê Gestor da Internet em estudo publicado em maio de 2023 (https://www.cgi.br/publicacao/remuneracao-do-jornalismo-pelas-plataformas-digitais/). Nesses termos, questões tais como aquelas colocadas no âmbito da legislação canadense e, anteriormente, no caso australiano, e mesmo presentes em propostas existentes no Brasil, não podem ser avaliadas como riscos distantes ou menores perante à legítima preocupação e urgência de pautas em que dimensões presentes nos usos contemporâneos da Internet estão sob questionamento. Nesse sentido, a ISOC Brasil acredita que a consideração dos impactos de um marco regulatório nacional a nível da fragmentação da experiência digital de usuários brasileiros é imperativa e intrínseca ao objetivo de constituir regramentos que não inviabilizem as propriedades críticas da Internet como nós a conhecemos. - Antônio José Abrantes Chaves 20/06/2023 às 17:42• repasse de valores sobre textos utilizados, parcial ou totalmente, pelas plataformas, com ou sem fins lucrativos (tal como já acontece com trechos de músicas e de vídeos);
• apoio prioritário das plataformas aos meios de comunicação públicos, à mídia privada e independente, e à mídia nacional e local (incluindo agências nacionais de notícias), deixando em segundo plano produtoras de conteúdo jornalístico multinacionais;
• estabelecimento de um fundo alimentado pelas grandes plataformas (como já existe em outros países), utilizado principalmente para apoiar empresas de mídia independente, cooperativas e sem fins lucrativos. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:27Entendemos ser inadequada a inserção das medidas de mitigação aqui previstas, por se tratar de temas que podem ser endereçados via LGPD e, potencialmente, pela legislação decorrente do PL 2.338/2023.
- Mozart Hasse 28/04/2023 às 11:29Notícias falsas ou anúncios fantasiados de notícia de cunho jornalístico precisam ser caçados e removidos do ar à primeira vista, bloqueando sua monetização e multando os reincidentes de forma exponencial.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:36[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 17:04A identificação e classificação de situações com alto potencial de dano onde o tratamento de dados específicos não deveria ocorrer é essencial para a proteção de dados pessoais. Esta é uma proposta altamente relevante, já que ajuda a mitigar os riscos de violações de privacidade.0
- José Antonio Galhardo 16/07/2023 às 11:01O que a regulação deve definir são situações em que o tratamento pelas plataformas deve obedecer às regras específicas estabelecidas por órgãos competentes. É o caso, por exemplo, de dados bancários/financeiros e de saúde relacionados à pessoa. E sempre exigir a autorização do titular para o compartilhamento do dado pessoal pela plataforma. Por exemplo, imagem, localização....
- João Coelho 15/07/2023 às 16:34A vedação absoluta do tratamento de dados de saúde de crianças e adolescentes para fins de exploração comercial, bem como a necessidade de monitoramento e fiscalização das práticas:
A tutela da saúde já se encontra entre as bases legais que autorizam o tratamento de dados pessoais, desde que em procedimento realizado por profissionais de saúde, serviços de saúde ou autoridade sanitária. Necessário, contudo, que se tenha extrema cautela no manejo desses dados, uma vez que sua natureza sensível pode acabar por ensejar discriminações ou privações de oportunidades futuras aos titulares (por exemplo, se compartilhados com operadoras de planos de saúde, dados relativos à saúde do titular podem interferir no cálculo da mensalidade a ser paga por ele).
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 205 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
O potencial de dano na utilização de tecnologias que reforçam desigualdades estruturais
Mecanismos de vigilância que utilizam tecnologias digitais têm apresentado muitos desafios no que se refere à potencialidade discriminatória de práticas baseadas em decisões automatizadas, especialmente no âmbito da segurança pública.
Para ver mais: SILVA, Tarcízio. Linha do Tempo do Racismo Algorítmico: casos, dados e reações; MATTIUZZO, Marcela; MENDES, Laura Schertel. Discriminação Algorítmica: Conceito, Fundamento Legal e Tipologia
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 247 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Discriminação com base em origem étnica: racismo algorítmico Ao tratar de discriminação com base em origem étnica no ambiente digital, o Comentário nos remete ao racismo algorítmico, conceito que vem sendo empregado para designar as diferentes formas como as tecnologias de inteligência artificial reproduzem e amplificam o racismo. Caso que ganhou notoriedade e que exemplifica com contundência o racismo algorítmico é o denunciado pela pesquisadora do MIT Joy Buolamwini, que demonstrou que as tecnologias de reconhecimento facial de diversas empresas não foram capazes de identificá-la corretamente, eis que alimentadas por bases de dados compostas quase exclusivamente por rostos brancos. Fonte: PAES, Bárbara. Joy Bulla Mwini e o preconceito algorítmico
Para ver mais: SILVA, Tarcízio. Linha do tempo do racismo algorítmico: casos, dados e reações; United Nations, Educational, Scientific and Cultural Organization (UNESCO). Unesco - Artificial intelligence and gender equality: key findings of UNESCO’s Global Dialogue - IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 18:22A LGPD já estabelece critérios específicos que devem ser observados em todas as atividades de tratamento. Criar listas de restrições ao tratamento traz muito mais riscos do que benefícios, já que certas práticas danosas muitas vezes somente podem ser coibidas por meio do tratamento de dados – o exemplo mais conhecido é a prática de fraudes, que somente pode ser combatida por meio do tratamento de dados pessoais de forma detalhada.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:44(Contribuição da Coalizão Direitos na Rede)
Um dos perigos do uso descontrolado do profiling, principalmente em países que lutam contra a desigualdade econômica e social como o Brasil, é que esses perfis tendem a perpetuar e reforçar a desigualdade social e a discriminação contra minorias raciais, étnicas, religiosas e outras. Por conta disso, tanto os resultados do profiling quanto seus algoritmos subjacentes deveriam ser diligentemente monitorados. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:36[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. No caso da utilização de dados pessoais sensíveis, já protegidos pela Lei Geral de Proteção de Dados Pessoais, sua utilização para perfilamentos deve ser vedada. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:42A LGPD cobre adequadamente questões relacionadas a obrigações de transparência e requisitos processuais relacionados ao tratamento de dados pessoais, incluindo dados pessoais sensíveis. Além disso, a ANPD também publicou diretrizes e regras sobre o tratamento de dados pessoais sensíveis. O ITI acredita que a ANPD é o foro adequado para essa discussão.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 17:04A limitação ou proibição do perfilamento de publicidade direcionada e impulsionamento de conteúdos pode ser uma medida de mitigação eficaz para proteger os dados pessoais dos indivíduos, minimizando o risco de manipulação e uso indevido de informações pessoais (ZUBOFF, 2019.).
Referências: ZUBOFF, Shoshana. The age of surveillance capitalism: The fight for a human future at the new frontier of power: Barack Obama's books of 2019. Profile books, 2019.). - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:28A LGPD já contempla limites, obrigações de transparência e requisitos processuais para o tratamento de dados pessoais em geral, incluindo dados pessoais sensíveis. A ANPD já publicou diretrizes e regulamentação secundária sobre tratamento de dados pessoais de alto risco/grande escala e adotará regulamentação secundária adicional para diferentes dimensões de dados pessoais sensíveis de acordo com sua agenda regulatória 2023/2024. A ANPD e as respectivas vias/consultas regulatórias são os foros próprios para essa discussão.
- João Coelho 15/07/2023 às 16:38Plataformas digitais devem ser livres de publicidade comportamental, neuromarketing, publicidade imersiva e publicidade em ambientes de realidade virtual e aumentada, quando acessadas por crianças e adolescentes.
Vedação da publicidade direcionada e do perfilamento de crianças e adolescentes: uma obrigação estabelecida pelo Comentário Geral 25:
42. Estados Partes devem proibir por lei o perfilamento ou publicidade direcionada para crianças de qualquer idade para fins comerciais com base em um registro digital de suas características reais ou inferidas, incluindo dados grupais ou coletivos, publicidade direcionada por associação ou perfis de afinidade. As práticas que dependem de neuromarketing, análise emocional, publicidade imersiva e publicidade em ambientes de realidade virtual e aumentada para promover produtos, aplicações e serviços, também devem ser proibidas de se envolver direta ou indiretamente com crianças.
Fonte: Item 42 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Vedação de publicidade comportamental para crianças e adolescentes - uma obrigação respaldada pelo ordenamento jurídico brasileiro:
A publicidade direcionada a partir desses mecanismos é chamada de publicidade comportamental, justamente por se assentar nesses perfis psicológicos dos usuários. Por explorar de maneira particularmente acentuada as vulnerabilidades e privacidade dos seus destinatários, esse tipo de publicidade deve ser considerada ilícita quando dirigida a crianças e adolescentes. Ademais, a primeira infância deve ser livre da “pressão consumista” (Lei 13.257/16. art. 5º).
Referência legal: art. 36, 37, §2º e 39, IV do CDC, art. 227 da CF, art. 5º do ECA, art. 5º do Marco Legal da Primeira Infância, Resolução n° 163/2014 do Conanda e art. 14, caput da LGPD
Fonte: LIEVENS, Eva et al. O direito da criança à proteção contra a exploração econômica no mundo digital
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 103 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Publicidade infantil é ilegal no Brasil e precisa continuar assim - da necessidade de aplicação de regras de transparência e medidas de monitoramento das plataformas que demonstrem o cumprimento da lei:
A publicidade infantil, aquela direcionada para crianças menores de 12 anos de idade, já é como um todo, na realidade, ilegal no Brasil. Para além das normas que garantem a proteção da criança contra todo tipo de exploração, incluindo a exploração comercial, o Código de Defesa do Consumidor define como abusiva toda publicidade que “se aproveite da deficiência de julgamento e experiência da criança” - portanto, toda publicidade dirigida a esses indivíduos, cujo particular estágio de desenvolvimento não lhes permite responder com mínima igualdade aos estímulos comerciais que lhes são dirigidos. Em complementação, a Resolução n° 163 do Conanda detalha que “considera-se abusiva, em razão da política nacional de atendimento da criança e do adolescente, a prática do direcionamento de publicidade e de comunicação mercadológica à criança”.
Referência legal: arts. 36, 37, §2º e 39, IV do Código de Defesa do Consumidor, art. 227 da Constituição Federal, art. 5º do ECA, art. 5º do Marco Legal da Primeira Infância, Resolução n° 163 do Conanda.
Para ver mais: Criança e Consumo. Publicidade infantil já é ilegal e precisa continuar assim
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 109 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Fiscalização e monitoramento da aplicação de táticas de publicidade opaca ou enganosa para oferta de publicidade infantil:
110. O tempo de lazer passado no ambiente digital pode expor as crianças a riscos de danos, por exemplo, por meio de publicidade opaca ou enganosa ou de características de design altamente persuasivo ou semelhantes a jogos de azar. Ao introduzir ou utilizar abordagens de proteção de dados, privacidade por design e segurança por design e outras medidas regulatórias, Estados Partes devem assegurar que as empresas não mirem crianças usando essas ou outras técnicas projetadas para priorizar os interesses comerciais sobre os da criança.
Fonte: Item 110 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:47A LGPD já prevê limites, obrigações de transparência e requisitos processuais para o processamento de dados pessoais em geral, incluindo dados pessoais sensíveis. A ANPD, por sua vez, já publicou diretrizes e regulamentos secundários sobre processamento de dados pessoais de alto risco/larga escala e adotará regulamentação secundária adicional para as diferentes dimensões de dados pessoais sensíveis de acordo com sua agenda regulatória - 2023/2024. A ANPD e as tomadas/consultas públicas por ela realizadas são os fóruns apropriados para essa discussão.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 18:23A legalidade da publicidade personalizada e sua correta aplicação à luz da LGPD já foi objeto de parecer jurídico detalhado (disponível em https://iabbrasil.com.br/wp-content/uploads/2021/08/IAB-BRASIL_PARECER-JURIDICO_LGPD-E-PUBLICIDADE-PERSONALIZADA_MARCEL-LEONARDI.pdf).
Essa atividade é lícita em todo o mundo e seria um retrocesso para a publicidade e propaganda limitar ou proibir o perfilamento de publicidade direcionada, que já encontra suas restrições e obrigações no texto da LGPD. - Victor Lippi Zaccariotto 13/05/2023 às 21:55É muito importante que haja cautela em avaliar esse item. Devemos lembrar que bons produtos digitais existem para melhorar a vida das pessoas e uma das formas mais efetivas de se chegar até elas é através de publicidade direcionada. Dependendo da limitação ou vedação empregada, poderá ocasionar um prejuízo tanto para infoprodutores quanto para pessoas que não terão acesso à oportunidade dos benefícios do produto através desse meio de comunicação. Vale lembrar que um dos principais propósitos da internet é acesso ao conhecimento e dependendo do peso dessas limitações impostas, esse propósito será drasticamente prejudicado.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:36[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:42A LGPD já aborda a questão da tomada de decisão automatizada baseada no tratamento de dados pessoais. Além disso, de acordo com sua agenda regulatória 2023/2024, a ANPD espera regular o tratamento de dados pessoais no contexto da IA, e abriu uma linha de trabalho nas interfaces da regulamentação de proteção de dados e regulamentação da IA que é o espaço adequado para a discussão dessa matéria.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:28A LGPD já aborda a questão da tomada de decisão automatizada. Além disso, espera-se regular o tratamento de dados pessoais no contexto da IA de acordo com sua agenda regulatória 2023/2024 e abriu uma trilha de trabalho nas interfaces da regulamentação de proteção de dados e regulamentação da IA que é o espaço adequado para a discussão deste matéria.
- José Antonio Galhardo 16/07/2023 às 11:02A regulação deve prever que a pessoa opte por não ter seus dados sendo utilizado para treinar sistemas de Inteligência Artificial ou para profiling. A plataforma deve fornecer mecanismos para permitir que a pessoa opte por excluir seus dados pessoais, incluindo seus dados biométricos, e qualquer autorização anterior. Se a pessoa optar por não autorizar ou retirar a autorização que seus dados sejam utilizados depois que um modelo for treinado, a plataforma deve atualizar o modelo para remover os dados desse indivíduo.
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:35A vedação à análises emocionais ou inferências sobre o estado interior de uma criança e adolescente e o risco atrelado à liberdade de pensamento, consciência e religião desse tipo de tratamento
62. Estados Partes devem respeitar o direito da criança à liberdade de pensamento, consciência e religião no ambiente digital. O Comitê encoraja os Estados Partes a introduzir ou atualizar a regulação de proteção de dados e padrões de design que identifiquem, definam e proíbam práticas que manipulem ou interfiram no direito das crianças de liberdade de pensamento e crença no ambiente digital, por exemplo, por meio de análise emocional ou inferência. Sistemas automatizados podem ser usados para fazer inferências sobre o estado interior de uma criança. Estados Partes devem assegurar que sistemas automatizados ou sistemas de filtragem de informações não sejam usados para afetar ou influenciar o comportamento ou emoções das crianças ou para limitar suas oportunidades ou desenvolvimento.
Fonte: Item 62 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Preocupação com a utilização de imagens de crianças e adolescentes para treinamento de sistemas de Inteligência Artificial:
Bancos de dados públicos têm sido utilizados para o treinamento de ferramentas de inteligência artificial. A presença de imagens de crianças e adolescentes nos datasets de treinamento, bem como os riscos atrelados, a exemplo da geração de imagens de abuso e exploração sexual infantojuvenil, são considerações importantes para definição dos limites da mineração de dados. Ferramentas como o website Have I Been Trained (https://haveibeentrained.com/), que permitem acesso aberto e pesquisável ao dataset LAION-5B, estão povoados de fotografias de crianças e adolescentes espalhadas pela web, que podem ser facilmente encontradas por uma busca simples. - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:47A LGPD já trata da questão da tomada de decisão automatizada. Além disso, é esperado que a ANPD regule o processamento de dados pessoais no contexto de IA, de acordo com sua agenda regulatória - 2023/2024, além de ter aberto uma linha de trabalho sobre as interfaces de regulamentação de proteção de dados e regulamentação de IA, que é o espaço adequado para a discussão deste assunto.
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 15/07/2023 às 00:02A mineração de dados é uma etapa de grande importância na construção de um modelo de IA, visto que onde vários padrões do negócio podem ser descobertos e mapeados para alimentar o treino do algoritmo. Visto isso, é crítico que durante esse processo haja plena atenção e entendimento desses padrões encontrados, pois facilmente vieses nocivos podem ser reforçados ou até inseridos no sistema caso os resultados da mineração sejam meramente usados como input do modelo.
Para além da problemática dos vieses, no que tange a privacidade e proteção de dados pessoais, é fundamental perceber o quão danosa pode ser a detecção de padrões (de comportamento em redes sociais, de consumo, de localização, entre outros) de um indivíduo, sobretudo quando isso não provém de dados anonimizados ou quando o resultado da etapa de mineração permite identificar a pessoa, mesmo sem o uso de dados pessoais.
Nesse sentido, pensar em boas práticas e limites durante essa etapa é recomendado, a fim de uma maior proteção à privacidade e à individualidade das pessoas. - Rodrigo Pereira 11/07/2023 às 12:01Certamente. No mundo real antes da era digital os dados pessoais tinham este nome por serem privados. Por décadas a internet vem guardando mais que dados básicos, mas verdadeiras biografias, compilações que pensávamos ser apenas entre amigos que convidávamos numa "rede social" privatizada por nós. E a maioria da população ainda vive nesta era de ingenuidade digital. Basta ver que nem mesmo compartilham este tipo de mecanismo democrático que estamos participando aqui. Compartilha sua vida privada com a ilusão que é de conhecimento apenas dos amigos. A violação prévia de direitos que a era digital foi precursora não tem procedência histórica. Ainda mais com este nível de adesão ingênua global. Sistemas de IA estão chegando antes das regulações e do controle social sobre seus impactos, como tudo o mais desde a internet. Então é preciso uma gerência de desenvolvimento - passo a passo como já disse anteriormente. Primeiro temos que ter estrutura de criptografia e demais medidas de segurança, responsabilização dos fabricantes de produtos (hardwares e softwares) se infringirem questões legais como a segurança e privacidade, e somente com uma segurança jurídica em torno das garantias de direito é que poderiam ter sua implementação registrada.
- Mozart Hasse 28/04/2023 às 11:28Só te 2 tipos de conteúdo: válido e inválido. Se é válido, não vejo cabimento impor qualquer tipo de limite. Se um conteúdo é considerado abuso ou pode explorar pessoas em situação vulnerável, então qualquer exibição é proibida. Não faz o menor sentido bloquear um conteúdo porque foi impulsionado. Se gastar dinheiro para influenciar opinião fosse crime então não teríamos o conceito de publicidade ou marketing. E quanto a abusos nessa área, as regras devem ser as mesmas tanto para a Internet quanto para um outdoor.
- LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 13:00Uma importante medida de mitigação é a transparência das plataformas digitais em relação ao processamento e mineração dos dados fornecidos e tornados públicos pelos titulares. Isso porque o processamento massivo e a mineração desses dados pessoais possibilita (i) a classificação potencialmente discriminatória dos indivíduos; (ii) o descumprimento do princípio da finalidade, diante de eventual desadequação da finalidade original de tratamento de tais dados; e (iii) a transformação de dados pessoais em informações de caráter altamente sensível. Nesse sentido, é importante destacar que a criação de perfis e a predição de preferências do titular são algumas das consequências provocadas por tal tratamento, as quais são capazes de influenciar tomadas de decisões não somente empresariais, como políticas.
Em relação às plataformas digitais e aplicações que envolvam atividades com operações de tratamento de dados pessoais de titulares menores, outra relevante medida de mitigação é a disponibilização clara dessas informações tratadas, através dos Termos de Uso e/ou Política de Privacidade.
FRAZÃO, Ana; CUEVA, Ricardo. 17. Compliance de Dados Pessoais Disponíveis Publicamente: Boas Práticas para a Confirmação da Licitude do Tratamento dos Dados de Acesso Público e Tornados Manifestamente Públicos Pelo Titular. In: FRAZÃO, Ana; CUEVA, Ricardo. Compliance e Políticas de Proteção de Dados. São Paulo: Revista dos Tribunais. 2022.
RODOTÀ, Stefano. A vida na sociedade da vigilância. A privacidade hoje. Trad. Danilo Doneda e Laura Cabral Doneda. Rio de Janeiro: Renovar, 2008. pp. 111-139. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:45A determinação da publicidade das Avaliações de Impacto à Proteção de Dados Pessoais de Crianças e Adolescentes:
Avaliações de impacto Instrumento chave para a avaliação de impacto sobre os direitos das crianças é o relatório de impacto à proteção de dados pessoais (RIPD), previsto no art. 38 da LGPD. Trata-se de instrumento por meio do qual o controlador de dados pessoais acessa, elenca e propõe medidas de mitigação dos riscos que as operações de tratamento por ele conduzidas representam aos titulares dos dados pessoais. Em se tratando de dados pessoais de crianças e adolescentes, a obrigatoriedade da elaboração de um relatório de impacto antes de que sejam tratados os seus dados pessoais é decorrência do princípio do melhor interesse em sua dimensão procedimental, tal como posta pelo Comitê em seu Comentário Geral n° 14. Ainda, importante destacar que o Comentário Geral n° 25 determina que essas avaliações de impacto deverão ser divulgadas ao público, não deixando dúvidas acerca de sua necessária publicidade.
Referência legal: art. 38 da LGPD; Comentário Geral n. 14 (2013): the right of the child to have his or her best interests taken as a primary consideration.
Para ver mais: VAN DER HOF, Simone; LIEVENS, Eva. The Importance of Privacy by Design and Data Protection Impact Assessments in Strengthening Protection of Children’s Personal Data Under the GDPR
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 100 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A aplicação estrita da lógica da minimização de dados para disponibilização de serviços em plataformas digitais para crianças e adolescentes:
Minimização de dados é o princípio segundo o qual o tratamento de dados pessoais, bem como a abrangência dos dados tratados, deve se limitar ao mínimo necessário para o atingimento de determinada finalidade. (...) No que diz respeito especificamente aos dados de crianças, é interessante notar que a LGPD traz em si dispositivo segundo o qual os controladores não deverão condicionar a participação de crianças em jogos, aplicações de internet ou outras atividades ao fornecimento de informações pessoais além das estritamente necessárias à atividade em questão. Trata-se de reafirmação ao princípio da necessidade e limitação da possibilidade de que empresas restrinjam o acesso de crianças a seus serviços em razão do não consentimento do uso de seus dados.
Referência legal: arts. 6º, inciso III e 14, §4º da LGPD e art. 13, §2º do Decreto n° 8771/2016.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 134 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Garantia da efetivação de direitos de titulares em plataformas públicas ou privadas:
72. Estados Partes devem assegurar que as crianças e suas mães, pais ou cuidadores possam facilmente acessar os dados armazenados, retificar dados que estejam imprecisos ou desatualizados e apagar dados armazenados ilegalmente ou desnecessariamente por autoridades públicas, indivíduos privados ou outros órgãos, sujeito a limitações razoáveis e legais. Eles devem ainda assegurar o direito das crianças de retirar seu consentimento e se opor ao processamento de dados pessoais quando o controlador de dados não demonstrar motivos legítimos e superiores para o processamento. Devem também fornecer informações às crianças, mães, pais e cuidadores sobre esses assuntos, em linguagem amigável para crianças e em formatos acessíveis.
73. Os dados pessoais das crianças devem ser acessíveis somente a autoridades, organizações e indivíduos designados por lei para processá-los em conformidade com essas garantias de devido processo legal, como auditorias regulares e medidas de prestação de contas.53 Os dados das crianças coletados para fins definidos, em qualquer contexto, incluindo registros criminais digitalizados, devem ser protegidos e exclusivos para esses fins e não devem ser retidos ilegalmente ou desnecessariamente ou utilizados para outros fins. Quando informações são fornecidas em um ambiente e podem legitimamente beneficiar a criança por meio do seu uso em outro ambiente, por exemplo, no contexto da escolaridade e educação superior, o uso desses dados deve ser transparente, responsável e sujeito ao consentimento da criança, da mãe, pai ou responsável, conforme apropriado.
Fonte: Itens 72 e 73 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A garantia de uma noção de proteção de dados de crianças e adolescentes que compreenda o contexto de Internet das Coisas e coleta de dados em locais públicos:
74. A legislação e as medidas de privacidade e proteção de dados não devem limitar arbitrariamente outros direitos das crianças, como seu direito à liberdade de expressão ou proteção. Estados Partes devem assegurar que a legislação de proteção de dados respeite a privacidade e os dados pessoais das crianças em relação ao ambiente digital. Por meio da contínua inovação tecnológica, o âmbito do ambiente digital está se expandindo para incluir cada vez mais serviços e produtos, como roupas e brinquedos. Conforme os ambientes onde as crianças passam seu tempo se tornam “conectados”, através do uso de sensores embutidos conectados a sistemas automatizados, Estados Partes devem assegurar que os produtos e serviços que contribuem para esses ambientes estejam sujeitos à proteção robusta de dados e a outras regulações e normas de privacidade. Isso inclui ambientes públicos, como ruas, escolas, bibliotecas, locais esportivos e de entretenimento e instalações comerciais, incluindo lojas e cinemas, e o lar.
75. Qualquer vigilância digital de crianças, associada a qualquer processamento automatizado de dados pessoais, deve respeitar o direito da criança à privacidade e não deve ser realizada rotineiramente, indiscriminadamente ou sem o conhecimento da criança ou, no caso de crianças muito novas, o de sua mãe, pai ou cuidador; nem deve ocorrer sem o direito de objeção a essa vigilância, em ambientes comerciais e educativos e de cuidados, e deve sempre ser considerado o meio menos invasivo à privacidade disponível para cumprir o propósito desejado
Fonte: Itens 74 e 75 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Rodrigo Pereira 25/04/2023 às 20:25Inteligência artificial é outro grande problema. A definição de inteligência é perigosamente limitada; sua implementação é cheia de problemas éticos e de privacidade... Não é possível deixar passar tanta tecnologia sem processo civilizatório anterior que esteja preparado para ampliar o entendimento sobre as mais diversas facetas da inteligência humana, ou que não saiba utilizar o que está por vir... De novo, psicopedagogia! Adaptação ativa e participativa, etc.
- Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:44As leis de proteção de dados e plataformas em todo o mundo estão cada vez mais focadas nas necessidades de crianças e adolescentes, seja por meio de legislação ou códigos de conduta separados. As empresas membros do ITI estão na vanguarda das discussões políticas globais sobre a melhor forma de proteger as crianças on-line, tanto em termos de proteção de dados quanto de conteúdo nocivo ao qual as crianças estão expostas. Esta é uma área complexa e mutável onde o contexto é fundamental e uma série de medidas, incluindo abordagens para a garantia de idade, requerem consideração cuidadosa.
Por exemplo, garantia de idade mais rígida ou requisitos de verificação de idade podem efetivamente exigir que as empresas autentiquem todos os usuários em um determinado site ou serviço. Esses requisitos representam desafios de privacidade e concorrência.
Do ponto de vista da privacidade, tais requisitos podem inadvertidamente encorajar as organizações a rastrear usuários, coletar diversos tipos de dados e compartilhar dados entre plataformas, sites e serviços após a verificação de sua idade, indo de encontro com o princípio da minimização de dados. Do ponto de vista da concorrência, esses requisitos podem levar a uma tendência mais ampla de maior integração e centralização das plataformas existentes que favorecem a autenticação única, em vez de ter que passar pelo processo repetidamente. - Filipe Saraiva 16/07/2023 às 22:28Seria importante não permitir a criação de perfis e utilização das redes por menores de 18 anos em qualquer plataforma.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:55A Constituição é clara quando, em seu art. 227, afirma que é dever da família, da sociedade e do Estado assegurar à crianças e adolescentes, com absoluta prioridade, os direitos sociais e individuais, bem como não colocá-los sob nenhuma forma de negligência, discriminação, exploração, violêncial, crueldade e opressão. As plataformas, por sua vez, também devem ser incluídas nesse rol de responsáveis pelo resguardo dos direitos das crianças e adolescentes e, por isso, devem, desde o seu desenvolvimento, incluir noções de children by design, como as noções de igualdade, diversidade, melhor interesse das crianças, responsabilidade, participação, privacidade, bem estar, segurança, entre outros.
Tais proteções às crianças e adolescentes também valem para as plataformas destinadas a um público a partir de determinada idade, como 16 anos - idade mínima comum em muitas plataformas. Como é bem sabido, as crianças frequentam diversos ambientes digitais, inclusive os locais que, supostamente, “não deveriam estar”. Então, toda e qualquer plataforma deve levar em consideração, em seu design, em suas políticas e em suas interações, que contará com a presença de crianças e adolescentes.
Estas devem ter proteções específicas em relação aos seus dados pessoais, principalmente quando estes são usados para fins comerciais ou perfilamento, que são os modelos de negócios mais comuns entre as plataformas. Nenhum provedor, plataforma digital, aplicação, entre outros serviços, deve ficar fora da obrigação de proteger as crianças e adolescentes dentro das plataformas digitais. Isso inclui tanto os produtos e serviços digitais destinados às crianças e adolescentes, quanto os produtos e serviços que não tenham elas como usuárias diretas.
- CTS-FGV (comentário inserido por: Centro de Tecnologia e Sociedade da FGV Direito Rio) 16/07/2023 às 17:05Em relação aos riscos associados ao uso de plataformas digitais por crianças e adolescentes, possíveis medidas de mitigação incluem a implementação de configurações de privacidade rigorosas por padrão, educação digital e conscientização sobre segurança online, além de mecanismos de supervisão parental em plataformas que permitem o uso por crianças e adolescentes.
Além disso, é fundamental que haja uma legislação clara e consistente protegendo os direitos e interesses das crianças e adolescentes no ambiente digital, assim como legislação sobre regulação da profissão de influencers, evitando a exploração laboral de crianças e adolescentes por seus pais, tutores ou responsáveis.
Outro ponto relevante é o perfilamento e o direcionamento de anúncios para crianças e adolescentes é uma prática preocupante e potencialmente prejudicial. As crianças e adolescentes são particularmente vulneráveis a técnicas de marketing direcionado e podem não entender completamente a natureza comercial dos anúncios ou a coleta de seus dados pessoais. Além disso, a exposição a certos tipos de conteúdo de marketing pode ter efeitos prejudiciais, incluindo a promoção de hábitos de consumo insalubres ou a normalização de comportamentos inadequados.
- LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 13:40O ambiente digital deve ser um espaço para potencializar o desenvolvimento de crianças e adolescentes, que, estarem em formação, demandam um cuidado especial. Nesse sentido, é imprescindível que as plataformas sejam um espaço seguro que dê voz e respeite integral e prioritariamente a criança e o adolescente.
Dessa forma, algumas medidas elementares devem ser levadas em consideração para reduzir os riscos dos menores nas plataformas digitais, quais sejam:
1- Incorporação do Direito da Criança e do adolescente por design: ao elaborar produtos e serviços é fundamental que antecipem a participação segura da criança e do adolescente.
2- Transparência: por meio da publicização dos termos de uso e/ou políticas de privacidade, bem como a produção de relatórios que dê aos usuários informações sobre como funciona a plataforma em relação, por exemplo, ao sistema de recomendação, tratamento de dados e finalidade.
a. Essas informações devem ser em linguagem simples, acessível e inclusiva. Isso porque o contexto brasileiro de desigualdade social deve ser levado em consideração, uma vez que há um número significativo de pessoas que possuem dificuldade em ler textos complexos e com muitos termos técnicos. Por essa razão, sugere-se, que na elaboração desses documentos, sejam utilizados recursos visuais para melhorar a compreensão tanto dos usuários menores quanto dos pais/ mães e cuidadores. Além disso, devem ser evitados termos técnicos ou em língua estrangeira, a menos que sejam imprescindíveis ou não haja correspondente em língua portuguesa, e nesses casos devem ser fornecidos uma explicação do seu significado.
3- Responsabilidade: o art. 227 da Constituição Federal/88 estabelece que o dever de cuidar das crianças e adolescentes são do Estado, da família e da sociedade. Nesse sentido, cabe às partes interessadas:
i. Legisladores: desenvolver mecanismos de responsabilização claros, que possam ser revisitados para uma adequação com base no melhor interesse das crianças e adolescentes e orientado por dados;
ii. Estado: apontar um órgão governamental para coordenar políticas, diretrizes e programas relacionados aos direitos da criança e do adolescente nas plataformas digitais, a fim de garantir um espaço digital seguro.
iii. Empresas: orientar suas atividades para a prevenção de riscos e danos, mas no caso de ocorrerem promover a reparação.
iv. A família não pode ser isenta, mas também não podem ser os responsáveis por prevenir ou enfrentar riscos e danos, uma vez que não são os mais capacitados tecnicamente.
v. Setores da Sociedade Civil e comunidade científica devem se unir para acompanhar o desenvolvimento e aplicação das medidas tomadas, bem como sugerir melhorias quando possíveis.
4- Instituições públicas e privadas podem estruturar políticas para promover literacia digital, por meio de cursos, materiais didáticos/educativos. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:28A Indústria de Internet trabalha de forma contínua no desenvolvimento de ferramentas e recursos para que as pessoas possam controlar sua experiência, gerenciar o tempo que passam nos aplicativos e conectá-las com o apoio que precisam. Uma outra maneira é atuar próximo a especialistas em saúde mental no mundo todo, como por exemplo, o Centro de Valorização da Vida (CVV) e a SaferNet Brasil.
Dentre os nossos associados, tem-se exemplo de medidas que foram tomadas para garantir a segurança de crianças e adolescentes nas redes, incluindo novas configurações padrão para contas de adolescentes e lançamento de recursos para incentivar os adolescentes a fazerem pausar no uso de redes sociais. Também há exemplos de iniciativas de controles de supervisão parental, disponíveis em Central da Família.
A disponibilização de recursos que incentivam os adolescentes a mudar para um tópico diferente se estiverem consumindo o mesmo tipo de conteúdo há algum tempo, também pode ser uma forma de proteger esse público.
Outras medidas: verificação de idade; restrição de mensagens entre adultos e adolescentes; avisos de segurança nas mensagens diretas; definir, por padrão, conta de adolescentes e crianças como privadas; ferramentas que impeçam que adultos suspeitos encontrem contas e sigam adolescentes; além de ferramentas que limitam e restringem mensagens e comentários relacionados à bullying e assédio.
Mas nada disso será eficiente sem um trabalho das autoridades e plataformas próximo aos pais e responsáveis de crianças e adolescentes, para que entendam como apoiar e controlar os acessos de seus filhos nas redes. - Rodrigo Nejm 16/07/2023 às 11:55Na proteção aos direitos humanos de crianças e adolescentes, é válido considerar o Bem-estar digital como aglutinador para englobar as múltiplas dimensões (saúde, educação, políticas sociais, ética empresarial, desenvolvimento econômico, segurança), a transversalidade do tema e os desafios na tentativa de "mitigação". Neste caso, a promoção de condições para favorecer o bem-estar digital indicam um caminho mais positivo para além da reparação de danos ou apenas antecipação de riscos (muitas vezes inviáveis em se tratando da dignidade e saúde de milhões de pessoas). A positivação de direitos precisa ter mais relevância, assim como a antecipação dos cenários com os potenciais danos, para além da mitigação dos danos como meras externalidades negativas;
Inclusão de condicionantes técnicas alinhadas com as previsões de políticas públicas e de regulamentações para basilar o desenvolvimento de novas plataformas ou reformulações das existentes com foco na promoção de mais condições de bem-estar digital. Exemplo são os padrões da IEEE 7010-2020 - IEEE Recommended Practice for Assessing the Impact of Autonomous and Intelligent Systems on Human Well-Being e a implicação das plataformas digitais nos indicadores do índice de Bem-estar da OCDE , além dos parâmetros para desenho de produtos criado pelo Information Commissioner's Office (Children's code - ICO) e o Guia Child Rights by Design criado pelo Digital Futures Commission como caminho para inspirar novas práticas inspiradas pelo Comentário Geral 25 da Convenção dos Direitos da Criança das Nações Unidas.
Seja qual for o modelo de agência para a regulação das plataformas, os processos de participação direta de crianças e adolescentes precisa ser amadurecido para que não seja figurativo e nem onere demasiadamente os mais jovens na implementação e fiscalização das políticas;
Diretrizes para o investimento consistente, e não apenas ilustrativo, em estratégias de comunicação e conscientização para os vários públicos, especialmente com foco nas populações vulneráveis que não conseguem ler e não possuem informações técnicas especializadas. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:49A arquitetura das plataformas digitais não foi pensada para menores de 13 anos e o modelo de negócio das plataformas tende a prejudicá-las ainda mais. Como apontou a Associação Data Privacy e o Instituto Alana, as principais preocupações no tratamento de dados de crianças e adolescentes está relacionado à (i) exposição, armazenamento e uso presente e futuro de seus extensos e precisos rastros digitais, especialmente em relação ao direito das crianças à privacidade e ao desenvolvimento pleno (ii) manipulação comportamental por meio de design persuasivo e técnicas de nudge (iii) publicidade baseada em dados pessoais e microssegmentação, dentre outras [1].
Para mitigar esses riscos, inicialmente, as plataformas devem criar mecanismos para a proibição de menores de 13 anos em seus ambientes virtuais - a ferramenta de controle de idade não deve estar relacionada apenas ao consentimento dos pais e responsáveis. Ainda que o consentimento prévio seja fundamental no tratamento de dados de crianças e adolescentes, interpretações restritivas que limitam a proteção de dados de crianças ao consentimento dos pais e responsáveis liberam Estados, empresas e outras organizações da responsabilidade pelo uso prejudicial de dados pessoais e violações de privacidade [2].
Já para os usuários entre 14 e 18 anos, a regulação deve vedar a exploração econômica de dados pessoais. De forma mais específica, deve haver vedação na utilização de dados de crianças para perfilamento, publicidade direcionada e impulsionamento de conteúdo. Além disso, o tratamento de dados deve ser limitado ao mínimo necessário e orientado pelo melhor interesse das crianças e adolescentes (art. 277 CF/88).
[1] INSTITUTO ALANA; INTERNETLAB. O direito das crianças à privacidade: obstáculos e agendas de proteção à privacidade e ao desenvolvimento da autodeterminação informacional das crianças no Brasil. Contribuição conjunta para o relator especial sobre o direito à privacidade da ONU. São Paulo, 2020.
[2] UNITED NATIONS INTERNATIONAL CHILDREN‘S EMERGENCY FUND - UNICEF. The Case for Better Governance of Children’s Data: A Manifesto. 2021. Disponível em: - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:56Compromisso do CG25 - Revisão de leis e políticas para assegurar a proteção de crianças e adolescentes contra exploração econômica e sexual na Internet
113. Estados Partes devem revisar leis e políticas relevantes para assegurar que as crianças sejam protegidas contra exploração econômica, sexual e outras formas de exploração e que seus direitos em relação ao trabalho no ambiente digital e oportunidades de remuneração relacionadas sejam protegidos.
Fonte: Item 113 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - João Coelho 15/07/2023 às 16:55Fiscalização e proteção de crianças contra o acesso a bens prejudiciais e ilegais:
114. Estados Partes devem assegurar a existência de mecanismos de fiscalização adequados e apoiar crianças, mães, pais e cuidadores no acesso às proteções aplicáveis. Eles devem legislar para assegurar que as crianças sejam protegidas de bens prejudiciais, como armas ou drogas, ou serviços, como jogos de azar. Sistemas robustos de verificação de idade devem ser utilizados para impedir que as crianças adquiram acesso a produtos e serviços que são ilegais para elas possuírem ou usarem. Esses sistemas devem ser consistentes com as exigências de proteção de dados e salvaguardas.
Fonte: Item 114 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Para aprofundar o debate sobre mecanismos de verificação de idade, apropriados de acordo com a natureza do serviço prestado, sugerimos o Guia da 5Rights - But how do they know it’s a child? (https://5rightsfoundation.com/uploads/But_How_Do_They_Know_It_is_a_Child.pdf) e o material Age appropriate design: a code of practice for online services, da ICO, Autoridade de Proteção de Dados do Reino Unido (https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/childrens-information/childrens-code-guidance-and-resources/age-appropriate-design-a-code-of-practice-for-online-services/). - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:55Medidas de Mitigação - Um olhar sobre os direitos à cultura, ao lazer e ao brincar
Assegurando o direito das crianças à cultura, ao lazer e ao brincar
O Comentário Geral No. 17 (2013) da Convenção sobre os Direitos da Criança dispõe que é obrigação dos Estados a elaboração de meios, estratégias e programas para a realização do direito de crianças e adolescentes ao descanso, lazer, cultura e ao brincar, considerando que estes são elementos essenciais ao bem-estar e à concretização dos direitos fundamentais de crianças e adolescentes. Ainda indica que devem ser especificamente planejados em relação às diversas infâncias e seus contextos sociofamiliares próprios. Tratam-se, ainda, de direitos amplamente assegurados na Constituição Federal e no Estatuto da Criança e do Adolescente.
Fonte: Comitê dos Direitos da Criança da ONU. Comentário Geral n. 17 (2013): the right of the child to rest, leisure, play, recreational activities, cultural life and the arts.
Referência legal: art. 227 da CF/88; arts. 4º e 16, inciso IV do ECA, art. 31 da CRC e Comentário Geral n. 17 (2013): the right of the child to rest, leisure, play, recreational activities, cultural life and the arts.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 226 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
106. O ambiente digital promove o direito das crianças à cultura, ao lazer e ao brincar, essencial para seu bem-estar e desenvolvimento. Crianças de todas as idades relataram que sentiram prazer, interesse e relaxamento ao se envolverem com uma ampla gama de produtos e serviços digitais de sua escolha, mas que estavam preocupadas que os adultos pudessem não entender a importância do brincar digital e como ele poderia ser compartilhado com os amigos.
Fonte: Item 106 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Uma noção de brincar no digital voltada para bem-estar, expressão e participação da vida cultural online
107. As formas digitais de cultura, de recreação e do brincar devem apoiar e beneficiar as crianças e refletir e promover as diferentes identidades das crianças, em particular suas identidades culturais, línguas e herança. Podem facilitar às crianças as habilidades sociais, aprendizagem, expressão, atividades criativas, como música e arte, assim como o senso de pertencer e uma cultura compartilhada.72 A participação na vida cultural online contribui para a criatividade, identidade, coesão social e diversidade cultural. Estados Partes devem assegurar que as crianças tenham a oportunidade de usar seu tempo livre para experimentar as tecnologias de informação e comunicação, expressar-se e participar da vida cultural online
Fonte: Item 107 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A importância de um olhar cuidado para regulação de jogos digitais, priorizando o melhor interesse das crianças e dos adolescentes e a noção de direitos das crianças por design:
108. Estados Partes devem regular e orientar os profissionais, mães, pais e cuidadores e colaborar com os provedores de serviços digitais, conforme apropriado, para assegurar que as tecnologias e serviços digitais destinados a, acessados por ou que tenham impacto sobre as crianças em seu tempo livre sejam projetados, distribuídos e utilizados de forma a aumentar as oportunidades das crianças para a cultura, a recreação e o brincar. Isso pode incluir o incentivo à inovação em jogos digitais e atividades relacionadas que apoiem a autonomia, o desenvolvimento pessoal e o divertimento das crianças.
Fonte: Item 108 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
“Segundo estudos, os jogos digitais que apoiem a autonomia, o desenvolvimento pessoal e o divertimento das crianças podem ser uma excelente oportunidade de socialização, aprendizado e brincadeira e em articulação com o currículo escolar subsidiam práticas didático pedagógicas, culturais, motivacionais e de multiletramentos importantes para o desenvolvimento cognitivo e integral de crianças e adolescentes.
Fonte: DE SOUSA, Carla Alexandre Barboza. O jogo em jogo: a contribuição dos games no processo de aprendizagem dos estudantes do ensino fundamental.”
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 229 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - João Coelho 15/07/2023 às 16:54Medidas de Mitigação - Serviços de Aconselhamento e de Saúde para Crianças e Adolescentes
Um olhar sobre as plataformas digitais como tecnologias de potencial de melhorar o direito à saúde de crianças, adolescentes e famílias:
93. Tecnologias digitais podem facilitar o acesso a serviços e informações de saúde e melhorar os serviços de diagnóstico e tratamento para a saúde física e mental e nutrição materna, neonatal, infantil e adolescente. Elas também oferecem oportunidades significativas para alcançar crianças em situações desfavorecidas ou de vulnerabilidade ou em comunidades remotas. Em emergências públicas ou em crises de saúde ou humanitárias, o acesso a serviços de saúde e informação por meio de tecnologias digitais pode se tornar a única opção.
Fonte: Item 93 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A garantia de um ambiente informacional digital com aconselhamento apropriado e acessível para crianças e adolescentes, facilitando seu acesso ao direito de saúde, mas com salvaguardas para o tratamento de dados e as necessidades de treinamento dos profissionais atuantes:
94. As crianças relataram que valorizavam a busca online de informações e apoio relacionados à saúde e bem-estar, inclusive sobre saúde física, mental e sexual e reprodutiva, puberdade, sexualidade e concepção. Os adolescentes especialmente queriam acesso a serviços de saúde mental e saúde sexual e reprodutiva online gratuitos, confidenciais, apropriados à faixa etária e não discriminatórios. Estados Partes devem assegurar que as crianças tenham acesso seguro e confidencial a informações e serviços de saúde confiáveis, incluindo serviços de aconselhamento psicológico. Esses serviços devem limitar o processamento dos dados das crianças ao necessário para o desempenho do serviço e devem ser fornecidos por profissionais ou por aqueles com treinamento apropriado, com regulação vigente dos mecanismos de supervisão. Estados Partes devem assegurar que os produtos e serviços de saúde digital não criem ou aumentem as desigualdades no acesso das crianças aos serviços de saúde presenciais.
Fonte: Item 94 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A isenção da necessidade de consentimento parental para que crianças e adolescentes obtenham serviços de aconselhamento sobre violências no ambiente digital
“78. Provedores de serviços de prevenção ou aconselhamento a crianças no ambiente digital devem ser isentos de qualquer exigência para que uma criança usuária obtenha o consentimento parental a fim de ter acesso a esses serviços. Esses serviços devem ser mantidos com altos padrões de privacidade e proteção da criança.”
Fonte: Item 78 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Ressaltamos, ainda, a importância desses serviços de aconselhamento em contextos de violência intrafamiliar, bem como a necessidade de estabelecimento de salvaguardas e protocolos de encaminhamento no caso de recebimento de suspeita ou denúncia de criança em situação de risco ou de violência.
Necessidade de treinamento de educadores e agentes do SDG em relação aos riscos à saúde relacionados (ex: tempo excessivo de tela e idades apropriadas), bem como incentivo à produção de pesquisas na área e disseminação de resultados por de campanhas de conscientização
98. Tecnologias digitais oferecem múltiplas oportunidades para que as crianças melhorem sua saúde e bem-estar, quando equilibradas com sua necessidade de descanso, exercício e interação direta com seus pares, famílias e comunidades. Estados Partes devem desenvolver orientações para crianças, mães, pais, cuidadores e educadores a respeito da importância de um equilíbrio saudável das atividades digitais e não-digitais e de descanso suficiente.
Fonte: Item 98 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
“(...) a Sociedade Brasileira de Pediatria recomenda que crianças de até 2 anos não tenham contato nenhum com telas, e que o tempo de tela para crianças entre 2 e 5 anos se limite a 1 hora por dia - orientações ecoadas pela Associação Americana de Pediatria. Em similar sentido, a OMS recomenda que crianças com menos de 1 ano não sejam expostas a telas, e que tempo de tela se limite a 1 hora diária para crianças de até 4 anos.”
Fontes: LOURENÇO, Aline. Crianças de até 13 anos terão Instagram deletado; entenda o motivo; TIC Kids Online Brasil - 2018. A3 - CRIANÇAS E ADOLESCENTES, POR IDADE DO PRIMEIRO ACESSO À INTERNET; - Grupo de Trabalho Saúde na Era Digital. Sociedade Brasileira de Pediatria - Manual de Orientação; PAPPAS, Stephanie. What do we really know about kids and screens; World Health Organization. Guidelines on physical activity, sedentary behaviour and sleep for children under 5 years of age
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 185 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Incentivo à pesquisas em saúde e a concepção de serviços digitais como serviços suplementares ou de melhoria para prestação de serviços de saúde presenciais às crianças:
95. Estados Partes devem incentivar e investir em pesquisa e desenvolvimento que se concentre nas necessidades de saúde específicas das crianças e que promova resultados de saúde positivos para as crianças por meio de avanços tecnológicos. Serviços digitais devem ser usados para suplementar ou melhorar a prestação presencial de serviços de saúde às crianças.61 Estados Partes devem introduzir ou atualizar a regulação que exige que os provedores de tecnologias e serviços de saúde incorporem os direitos das crianças em sua funcionalidade, conteúdo e distribuição.
Fonte: Item 95 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:53Medidas de Mitigação - A Mediação Parental
Medidas de Mitigação - Cuidados para que a mediação parental não seja a única medida de proteção, terceirizando a responsabilidade de proteção apenas para as famílias
No Brasil, a pesquisa TIC Kids Online 2019 revelou que somente 53% das crianças e adolescentes de 9 a 17 anos de idade recebem orientação das mães, pais ou responsáveis sobre a navegação na internet. Dessa forma, deve-se sempre colocar em perspectiva crítica o consentimento familiar como única forma de garantia da proteção da criança no ambiente digital. Com ou sem consentimento familiar, a criança, seus direitos e melhor interesse devem ser sempre protegidos com absoluta prioridade pelas empresas e pelo Estado.
Fonte: TIC Kids Online 2019
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 67 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Medida de Mitigação - Necessidade de parâmetros e critérios para mecanismos de mediação parental que respeitem a privacidade e o desenvolvimento progressivo das capacidades da criança
76. O ambiente digital apresenta problemas específicos para mães, pais e cuidadores no que diz respeito ao direito das crianças à privacidade. Tecnologias que monitoram atividades online para fins de segurança, como dispositivos e serviços de rastreamento, se não forem implementadas cuidadosamente, podem impedir que uma criança acesse uma central de ajuda ou procure por informações sensíveis. Estados Partes devem aconselhar crianças, mães, pais e cuidadores e o público sobre a importância do direito da criança à privacidade e sobre como suas próprias práticas podem ameaçar esse direito. Eles também devem ser aconselhados sobre as práticas por meio das quais podem respeitar e proteger a privacidade das crianças em relação ao ambiente digital, enquanto as mantêm seguras. O monitoramento da atividade digital de uma criança pelas mães, pais e cuidadores deve ser proporcional e de acordo com o desenvolvimento progressivo das capacidades da criança.
Fonte: Item 76 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Nesse sentido, os mecanismos de controle parental devem preservar o desenvolvimento progressivo das capacidades de crianças e adolescentes e a própria defesa do direito de privacidade, evitando “ferramentas espiãs” sem o conhecimento, ciência ou participação da criança e do adolescente.
Recomendação de Material com Diretrizes Éticas para ferramentas de mediação parental: 5 Rights, approaches to children’s data protection (https://5rightsfoundation.com/Approaches-to-Childrens-Data-Protection---.pdf). - João Coelho 15/07/2023 às 16:53Medidas de mitigação: risco relacionados a conteúdo - violento e sexual
- Fortalecimento do sistema de Classificação Indicativa, inclusive de campanhas para garantir sua relevância e observação;
-Respeito e compromisso com critérios de classificação indicativa pela multiplicidade de plataformas existentes;
- Observação da horizontalidade de direitos fundamentais para criação de jogos e conteúdos, evitando casos como a criação de simuladores de violência e abuso de crianças e adolescentes;
- Proibição da produção de imagens (IA Generativa) de abuso e exploração sexual de crianças e adolescentes (exemplo recente - legislação de Louisiana: https://gizmodo.com/ai-louisiana-outlaws-sexual-deepfakes-of-children-1850612475)
Medida de Mitigação: a garantia de aconselhamento e segurança no caso de conteúdo autogerado sexualmente explícito
118. Conteúdo sexual autogerado por crianças que elas possuem e/ou compartilham com seu consentimento e exclusivamente para seu próprio uso privado não deve ser criminalizado. Devem ser criados canais amigáveis às crianças para permitir que elas busquem com segurança conselhos e assistência em relação a conteúdo autogerado sexualmente explícito.
Fonte: Item 118 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Medida de Mitigação - A garantia de acesso à informação no ambiente digital para garantia do acesso à vida de crianças em situação de extrema vulnerabilidade
121. O ambiente digital pode proporcionar acesso a informações decisivas para a sobrevivência e que são vitais para sua proteção às crianças que vivem em situações de vulnerabilidade, incluindo crianças em conflitos armados, crianças deslocadas internamente, migrantes, em busca de asilo e refugiadas, crianças desacompanhadas, crianças em situações de rua e crianças afetadas por desastres naturais. O ambiente digital também pode permitir-lhes manter contato com suas famílias, permitir seu acesso à educação, saúde e outros serviços básicos e permitirlhes obter alimentos e abrigo seguro. Estados Partes devem assegurar acesso seguro, privado e benéfico para essas crianças ao ambiente digital e protegê-las de todas as formas de violência, exploração e abuso.
Fonte: Item 121 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
No Brasil, crianças e adolescentes estão presentes em conflitos armados envolvendo forças policiais e também crime organizado. Há graves índices de letalidade e violência em operações policiais em áreas de alta concentração dessa população, que violam o direito à vida, à saúde, à educação, ao lazer e à convivência familiar e comunitária, além de causar impactos no desenvolvimento em razão do estresse tóxico e pós-traumático que podem advir de tais situações de violência. Nesse contexto, o ambiente digital pode proporcionar informações de sobrevivência, como propõe o aplicativo “Onde Tem Tiroteio”, que dispara alertas de segurança aos usuários do Rio de Janeiro e São Paulo.
Referência legal: art. 1º, inciso III, art. 5º, caput, art. 144, art. 227 da CF/88 e art. 4º do ECA Para saber mais: Prioridade Absoluta. Supremo Tribunal Federal Julga, a Partir de Hoje, a Política de Operações Policiais no RJ; Protocolo Facultativo relativo ao envolvimento de crianças em conflitos armados; Aplicativo ‘’Onde Tem Tiroteio’’.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 252 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:53Medidas de Mitigação - Parâmetros para Educação de Famílias e Agentes do SGD
Parâmetro para Políticas de Educação no Ambiente Digital - Cuidar de Quem Cuida:
“Para que os direitos de crianças sejam protegidos com absoluta prioridade, o papel dos cuidadores em contato direto com a criança é essencial. Por isso, a diretriz de cuidar de quem cuida deve ser incluída em todas as estratégias relativas ao cuidado de crianças, inclusive com relação ao ambiente digital.
Referência legal: art. 227 CF, ECA, Marco Legal da Primeira Infância e art. 18 da CRC.”
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 71 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
84. Muitas mães, pais e cuidadores precisam de apoio para desenvolver o entendimento tecnológico, a capacidade e as habilidades necessárias para ajudar as crianças em relação ao ambiente digital. Estados Partes devem assegurar que mães, pais e cuidadores tenham oportunidades para adquirir alfabetização digital, para aprender como a tecnologia pode apoiar os direitos das crianças e para reconhecer uma criança que é vítima de danos online e responder adequadamente. Deve ser dada atenção especial às mães, pais e cuidadores de crianças em situações desfavorecidas ou de vulnerabilidade.
Fonte: Item 84 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Medida de Mitigação - Cuidar de Quem Cuida - Educação parental com base no respeito à privacidade, ao melhor interesse e à percepção sensível ao desenvolvimento progressivo das capacidades da criança e do adoelscente
85. Ao apoiar e orientar mães, pais e cuidadores em relação ao ambiente digital, Estados Partes devem promover sua conscientização para respeitar a crescente autonomia e necessidade de privacidade das crianças, de acordo com o desenvolvimento progressivo de suas capacidades. Estados Partes devem levar em conta que as crianças frequentemente abraçam e experimentam oportunidades digitais e podem encontrar riscos, inclusive em uma idade mais jovem do que mães, pais e cuidadores podem prever. Algumas crianças relataram querer mais apoio e incentivo em suas atividades digitais, especialmente quando perceberam que a abordagem de mães, pais e cuidadores é punitiva, excessivamente restritiva ou não ajustada ao desenvolvimento progressivo de suas capacidades.
86. Estados Partes devem levar em conta que o apoio e a orientação fornecidos às mães, pais e cuidadores devem ser baseados na compreensão da especificidade e da singularidade das relações parento-filiais. Essa orientação deve apoiar as mães e pais na manutenção de um equilíbrio adequado entre a proteção da criança e a sua autonomia emergente, baseada na empatia e respeito mútuos, ao invés da proibição ou controle. Para ajudar mães, pais e cuidadores a manter um equilíbrio entre as responsabilidades parentais e os direitos das crianças, o melhor interesse da criança, aplicado juntamente com a consideração do desenvolvimento progressivo das capacidades da criança, devem ser os princípios orientadores. A orientação às mães, pais e cuidadores deve encorajar as atividades sociais, criativas e de aprendizagem das crianças no ambiente digital e enfatizar que o uso de tecnologias digitais não deve substituir interações diretas e responsivas entre as próprias crianças ou entre as crianças e as mães, pais ou cuidadores.
Fonte: Itens 85 e 86 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Medidas de Mitigação - Treinamento e aconselhamento às famílias e atores e produção de pesquisas sobre o impacto de tecnologias no desenvolvimento infantojuvenil:
“Nos primeiros anos, podem ser necessárias precauções, dependendo do design, propósito e usos das tecnologias. Treinamento e aconselhamento sobre o uso apropriado de dispositivos digitais devem ser disponibilizados às mães, pais, cuidadores, educadores e outros atores relevantes, levando em conta a pesquisa sobre os efeitos das tecnologias digitais no desenvolvimento das crianças, especialmente durante os impulsos críticos de crescimento neurológico da primeira infância e da adolescência.”
Fonte: Item 15 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Medidas de Mitigação - Assistência informacional às famílias e capacitação do SGDCA:
21. De acordo com o dever dos Estados de prestar assistência adequada às mães, pais e cuidadores no desempenho de suas responsabilidades para com seus filhos, Estados Partes devem promover a conscientização entre mães, pais e cuidadores da necessidade de respeitar o desenvolvimento progressivo da autonomia, das capacidades e da privacidade das crianças. Eles devem apoiar as mães, pais e cuidadores na busca por uma alfabetização digital e na conscientização dos riscos para as crianças, com o objetivo de ajudá-los a auxiliar as crianças na efetivação de seus direitos, inclusive de proteção, em relação ao ambiente digital.
Fonte: Item 21 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Uso de tecnologias digitais na educação que não prejudique a educação presencial
Segundo o relatório de política educacional “Tecnologias para uma educação com equidade’’, diversos estudos apontam que o ensino exclusivamente online causa prejuízos à aprendizagem se comparado ao ensino presencial. Assim, é importante que as tecnologias digitais sejam implementadas em conjunto com a capacitação dos docentes, profissionais e estudantes para um uso adequado e inserido em um modelo de educação presencial.
Fonte: BLIKSTEIN, P. et al. D3e, Todos Pela Educação, TLT Lab. Relatório de política educacional ‘’Tecnologias para uma educação com equidade’’.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 217 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 16:52Medidas de Mitigação - Acessibilidade nos Ambientes Digitais
Evitar a criação de novas barreiras e para remover as barreiras existentes - ambientes digitais inclusivos para todas as crianças e adolescentes
Pesquisas apontam que crianças e adolescentes com deficiência tendem a ter dificuldades específicas nos ambientes digitais como: problemas de acesso à informação ou de determinação de conteúdo confiável, maior suscetibilidade ao bullying e falta de canais de ajuda. O Comentário Geral No. 9 (2006) do Comitê de Direitos da Criança recomenda que os Estados-Parte tomem medidas para enfrentar todas as formas de discriminação contra crianças e adolescentes com deficiência, o que contempla a criação de ambientes digitais inclusivos.
Fonte: STOILOVA, Mariya; LIVINGSTONE, Sonia. Children online: research and evidence Referência legal: art. 23 da CRC e Comentário Geral n. 9 (2006): The rights of children with disabilities.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 194 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Garantia de acesso a tecnologias assistivas acessíveis e remoção de barreiras de acesso para crianças com deficiências
90. Crianças com diferentes tipos de deficiências, incluindo deficiências físicas, intelectuais, psicossociais, auditivas e visuais, enfrentam diferentes barreiras no acesso ao ambiente digital, como conteúdo em formatos não acessíveis, acesso limitado a tecnologias assistivas acessíveis em casa, na escola e na comunidade e a proibição do uso de dispositivos digitais nas escolas, instalações de saúde e outros ambientes. Estados Partes devem assegurar que crianças com deficiências tenham acesso a conteúdo em formatos acessíveis e remover políticas que tenham um impacto discriminatório sobre essas crianças. Eles devem assegurar o acesso a tecnologias assistivas acessíveis, onde necessário, em particular para crianças com deficiências que vivem em situação de pobreza, e fornecer campanhas de conscientização, treinamento e recursos para crianças com deficiências, suas famílias e funcionários em ambientes educacionais e outros ambientes relevantes, para que tenham conhecimentos e habilidades suficientes para usar as tecnologias digitais de forma eficaz.
Fonte: Item 90 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - João Coelho 15/07/2023 às 16:51Princípio Norteador - a observação do desenvolvimento progressivo das capacidades de crianças e adolescentes para aplicação de medidas de mitigação, sob a ótica que leve em conta as múltiplas infâncias:
19. Estados Partes devem respeitar o desenvolvimento progressivo das capacidades da criança como um princípio habilitador que trata do processo de aquisição gradual de competências, compreensão e agência. Este processo tem um significado específico no ambiente digital, onde as crianças podem se engajar de forma mais independente da supervisão das mães, pais e provedores de cuidados. Os riscos e oportunidades associados ao engajamento das crianças no ambiente digital mudam dependendo de sua idade e estágio de desenvolvimento. Estados Partes devem ser guiados por essas considerações sempre que estiverem formulando medidas para proteger as crianças nesse ambiente ou facilitar seu acesso a ele. A elaboração de medidas apropriadas à faixa etária deve ser informada pelas melhores e mais atualizadas pesquisas disponíveis, a partir de uma gama de disciplinas. (...) 20. Estados Partes devem assegurar que os provedores de serviços digitais ofereçam serviços adequados ao desenvolvimento progressivo das capacidades das crianças.
Fonte: Itens 19 e 20 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
O desenvolvimento progressivo das capacidades (evolving capacities, no original) se refere ao dever do Estado, famílias ou cuidadores levarem em conta a capacidade das crianças e adolescentes de exercerem o seu direito em nome próprio, de acordo com o desenvolvimento progressivo de suas capacidades e autonomia. À medida que crianças e adolescentes se desenvolvem e adquirem competências, é reduzida a ingerência de terceiros em sua vida. Relevante destacar que crianças em diferentes ambientes e culturas são confrontadas com diversas experiências de vida e irão adquirir competências em diferentes idades, ou seja, a aquisição de competências varia de acordo com as circunstâncias. Esse conceito reconhece crianças como sujeitos de direitos e agentes ativos de suas próprias vidas, respeitando sua autonomia, sem abrir mão da proteção, em especial no ambiente digital, necessária em razão do seu peculiar estágio de desenvolvimento. Trata-se de um princípio habilitador, pois permite que, a partir dele, outros princípios possam ser reivindicados e efetivados.
Fonte: The Office of Global Insight & Policy (UNICEF). The evolving capacities of the child. Referência legal: art. 5º da Convenção dos Direitos da Criança e do Adolescente
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 67 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Direitos das Crianças por Design:
Serviços adequados ao desenvolvimento progressivo das crianças by design:
A responsabilidade pelos riscos e violações no ambiente digital não deve recair somente nas crianças usuárias e seus responsáveis. As empresas desenvolvedoras e prestadoras de serviços e produtos digitais são igualmente responsáveis pela proteção e promoção dos direitos das crianças com absoluta prioridade, devendo prover uma arquitetura digital adequada ao desenvolvimento progressivo de suas capacidades, por meio da lógica dos direitos das crianças por design, o que inclui os processos de governança da empresa, o desenvolvimento de produtos e sua prestação aos usuários. Como explica Pedro Hartung, os direitos da criança por design devem constituir um padrão a ser seguido pelas empresas de tecnologia, no sentido de traduzir os direitos das crianças em provisões específicas em todo o processo de desenvolvimento e oferecimento de produtos e serviços digitais.
Referência legal: art. 227 CF, art. 3o CRC e Comentário Geral n. 16 (2013): State obligations regarding the impact of the business sector on children’s rights.
Para ver mais: The Office of Global Insight & Policy (UNICEF). Children’s rights-by-design: a new standard for data use by tech companies
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 69 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Políticas e estratégias abrangentes, que reforcem a noção de proteção de direitos de crianças e adolescentes por design:
24. Estados Partes devem assegurar que as políticas nacionais relacionadas aos direitos das crianças abordem especificamente o ambiente digital, e devem implementar regulações, códigos industriais, padrões de design e planos de ação em conformidade, todos os quais devem ser regularmente avaliados e atualizados. Essas políticas nacionais devem ter como objetivo proporcionar às crianças a oportunidade de se beneficiarem do envolvimento com o ambiente digital e assegurar seu acesso seguro a ele.
Fonte: Item 24 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
A aplicação prática de direitos de crianças e adolescentes por design:
De modo a fornecer diretrizes concretas ao setor empresarial quanto a que medidas implementar para garantir a observância a esse padrão, diversas autoridades de proteção de dados têm trabalhado na expedição de códigos de design (design codes) com orientações voltadas às empresas de tecnologia. Dentre esses, destaca-se o produzido pelo Information Commissioner’s Office (ICO), autoridade britânica, por seu pioneirismo e compreensibilidade. O código do ICO foi traduzido ao português pelo ITS Rio em parceria com o Instituto Alana.
Para ver mais: The Office of Global Insight & Policy (UNICEF). The children’s rights-by-design standard for data use by tech companies
Instituto de Tecnologia e Sociedade. Design Apropriado para a Idade: Código de Práticas para Serviços On-line
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 76 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Avaliações de Impacto aos Direitos de Crianças e Adolescentes:
23. (...) Estados Partes devem exigir o uso de avaliações de impacto dos direitos da criança para incorporar os direitos das crianças na legislação, alocações orçamentárias e outras decisões administrativas relacionadas ao ambiente digital e promover seu uso entre órgãos públicos e empresas relacionadas ao ambiente digital.
38. Estados Partes devem exigir que o setor empresarial realize a devida diligência dos direitos da criança, em particular para realizar avaliações de impacto dos direitos da criança e divulgá-las ao público, com especial atenção aos impactos diferenciados e, às vezes, severos do ambiente digital sobre as crianças. Eles devem tomar medidas apropriadas para prevenir, monitorar, investigar e punir os abusos dos direitos da criança por parte das empresas.
Fonte: Itens 23 e 38 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:48As empresas do setor trabalham de forma contínua e dedicada no desenvolvimento de ferramentas e recursos para que os usuários possam controlar sua experiência online, gerenciar o tempo que passam nos aplicativos e terem o suporte que precisam. Uma outra importante maneira de mitigar os riscos descritos é atuar junto a especialistas em saúde mental, como por exemplo, o Centro de Valorização da Vida (CVV) e a SaferNet Brasil.
Especialmente em relação a crianças e adolescentes, tem-se investido no desenvolvimento de soluções e mecanismos para incrementar a segurança desses usuários, incluindo novas configurações e recursos especiais para esses usuários, como mecanismos de controle parental; restrições de mensagens entre adultos e adolescentes; avisos de segurança nas mensagens diretas; definição, por padrão, de contas de adolescentes e crianças como privadas; além de ferramentas que limitam mensagens e comentários relacionados a bullying e assédio.
Todavia, essas medidas só serão eficientes se acompanhadas de um trabalho das autoridades e plataformas próximo aos pais e responsáveis de crianças e adolescentes, para que entendam como apoiar e controlar os acessos de seus filhos nas redes. - KELLI ANGELINI 11/07/2023 às 08:48- Ouvir a sociedade médica sobre danos à saúde mental de crianças e adolescente por uso de redes sociais e para indicação de idade adequada para ter perfil em rede social (13 anos idade que as redes sociais permitem criar perfil é o início da adolescência e fase de pleno desenvolvimento, não parecendo ser compatível com o acesso irrestrito de conteúdos que as redes sociais permitem hoje);
- ter mecanismos de restrição de conteúdo por idade;
- ter mecanismos de limite de tempo de uso diário e de horário de uso (não acessível nas madrugadas);
- obrigatoriedade dos usuários que realizam as postagens mencionar a classificação indicativa dos conteúdos;
- ter bloqueios efetivos para controle por idade para não permitir que crianças mintam a idade para ter perfis;
- vinculação do perfil de menores de 16 anos a um adulto responsável, com possibilidade de exercer a mediação parental de forma efetiva e fácil;
- capacitação de crianças, adolescentes, pais e educadores sobre riscos, perigos, danos das redes sociais; - CEIIAS, Centro de Estudos Integrados, Infancia, Adolescencia e Saude (comentário inserido por: Evelyn Eisenstein) 03/07/2023 às 16:48NAO existem "medidas de mitigação" uma vez que danos à saude ou à vida de qualquer criança ou adolescente são causados por qualquer plataforma digital/ ou conteúdo inapropriados/ as empresas de tecnologia precisam BY DESIGN e usando seus algoritmos e tecnologias, deletar e bloquear os conteúdos inapropriados, inclusive violencia e abuso e exploração sexual, riscos à vida, suicidio ou mutilação/ OU pagarem "reparação" às familias OU pagarem por tratamentos de diagnostico pediatrico e psicoterapia até completarem 18 anos/ Considero importante haver uma COALIZÂO TRIPARTIDE entre as empresas de BTechs, o Governo (CGI-ANATEL-ANPD-SECOM-MSAUDE e M DIREITOS e representantes da Soc Civivil como a Soc Bras de Pediatria, CONANDA e outros ONGS que lidam com crianças e adolescentes/
- ROSA VICARI 23/06/2023 às 18:30Acredito que limitações por idade não são eficazes. Tanto para crianças, adolescentes, como para idosos, o importante é educar para o uso ou não deste tipo de plataforma.
- Enzo Capalbo 30/05/2023 às 21:50Existem diversas medidas que podem ser tomadas para que haja essa proteção. A principal delas é a restrição de idade, na qual pessoas com idades inferiores à idade mínima de acesso ao aplicativo, ficaram impossibilitadas de acessa-lo.
Porém, em muitas ocasiões, acaba sendo fácil de ludibriar esse sistema, com isso outras medidas devem ser adotadas. Entre elas, pode-se citar a conscientização que deve ser passado pelos pais e professores desde a infância sobre a maneira segura de se utilizar a internet, a supervisão dos responsáveis com relação ao que as crianças acessam na internet e a implementação de políticas que filtrem o que é postado, removendo os conteúdos ilegais e inapropriados. - Victor Lippi Zaccariotto 13/05/2023 às 23:10A aplicação de controle por idade nem sempre é uma métrica precisa. Penso ser interessante que para casos de crianças, adolescentes e pessoas com mais idade (como citei anteriormente) seja avaliada a possibilidade da realização de testes que metrifiquem melhor o nível de consciência desses com relação a temas mais sensíveis. Assim, pode-se ter melhores parâmetros do que esses internautas tem condições de consumir. Claro que, conteúdos impróprios para menores de 18 anos não devam ser levados em consideração por esses testes.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:45(Contribuição da Coalizão Direitos na Rede)
Uma resposta adequada aos problemas hoje associados ao ambiente digital e que ameaçam democracias em todo o mundo deve garantir um modelo de regulação público, que contemple freios e contrapesos, conte com participação multissetorial e evite instrumentalização. Toda boa regulação precisa de um bom regulador.
Não há uma regulação pública democrática sem instituições públicas democráticas, multissetoriais e com autonomia em relação a grupos privados e governos. A existência de órgãos reguladores, tão comum em países que amadureceram a compreensão sobre políticas de comunicação, é fundamental à democracia, pois possibilita o debate de proposições, garante olhar técnico sobre as questões e abre espaço para a participação de diversos setores da sociedade.
Os enormes desafios que temos devem levar a sociedade a empreender esforços à altura, como a criação de novos modelos regulatórios e instâncias competentes. Nesse sentido, a Coalizão Direitos na Rede acrescenta sua preocupação contra a destinação desse papel à Agência Nacional de Telecomunicações (ANATEL): essa alternativa é problemática e indesejável.
A Anatel não deve ser o órgão de supervisão. A Anatel não tem a expertise necessária nos temas de regulação de plataformas, ela trata de operadoras de telecomunicação, lidando com infraestrutura, e não com a gestão de questões de conteúdo, que envolvem temas como liberdade de expressão e direitos humanos. Além disso, ela falhou recorrentemente no cumprimento de suas atribuições no setor de telecomunicações (por exemplo, a definição de metas insatisfatórias para a universalização da telefonia fixa; o desastroso leilão do 5G; o desprezo ao valor econômico dos bens reversíveis; e a negligência em apresentar o inventário do patrimônio público de infraestrutura de telecomunicações, cedidos às operadoras na privatização; além de falhas, ineficiência e falta de transparência em sua sua rotina de fiscalização dos compromissos de abrangência e investimentos). Logo, imputar à Anatel o dever adicional da regulação das plataformas poderá agravar esse cenário, prejudicando o avanço da conectividade significativa no Brasil e levando interesses econômicos de plataformas e empresas de telecomunicações a prevalecer ainda mais sobre os interesses dos usuários. Ainda pior: a Anatel é historicamente refratária à participação da sociedade civil (com destaque para o abandono histórico do Conselho Consultivo da Anatel, órgão máximo de participação na definição das políticas públicas de telecomunicações), o que se mostra incompatível com o modelo de governança multissetorial e colaborativa da internet no Brasil.
Por isso, seria igualmente equivocado conferir essa atribuição a um Ministério, o que para mais permitiria a apropriação pelo governo federal da ocasião e o cometimento de abusos.
Precisamos de um órgão independente com um conselho multissetorial deliberativo. Entendemos, por exemplo, ser importante a criação de uma entidade autônoma de supervisão, que pudesse ter o papel central de fiscalizar o cumprimento de regras previstas em Lei, em parceria com o Comitê Gestor da Internet, que ficaria responsável pela emissão de diretrizes. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:37[Contribuição do DiraCom - Direito à Comunicação e Democracia]
A arquitetura institucional deve ser estruturada fundamentalmente a partir de um conselho participativo multissetorial e de um órgão regulador. No primeiro caso, o CGI (ou uma estrutura específica para tratar do tema ligada ao Comitê Gestor da Internet) poderia ser o órgão a desempenhar este papel. No segundo caso, não há hoje na estrutura de órgãos da Administração Direta e Indireta ente que possa cumprir este papel, razão pela qual sugerimos na resposta à pergunta 41 a criação de um órgão regulador específico e detalhamos suas atribuições.
A arquitetura em questão tem intersecção e pontos de diálogo com outros órgãos reguladores, em especial a Autoridade Nacional de Proteção de Dados, o Conselho Administrativo de Defesa Econômica e os Ministérios com atribuição legal para a formulação e implementação de políticas públicas para aplicações de Internet. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:45É importante avaliar o impacto de tal regulação antes de sua adoção ou sugerir uma agência ou órgão público para implementar qualquer tipo de “regulação de plataformas digitais” genérico. Seria aconselhável primeiro identificar os problemas que se busca resolver com regulação e considerar uma regulação mais cuidadosa no futuro, antes de responder qual órgão público deveria se encarregar disso.
- Instituto Nupef (comentário inserido por: Oona Caldeira Brant Monteiro de Castro) 16/07/2023 às 22:27Deve-se considerar a criação de um sistema de regulação baseado em órgãos já existentes (como CADE, por exemplo, para aplicação da legislação sobre concentração econômica), mas é necessária também a conformação de uma estrutura de acompanhamento e supervisão da aplicação da lei com participação multissetorial, com capacidade de supervisionar os diversos e complexos aspectos contemplados numa legislação que se propõe a regular plataformas digitais. Ao mesmo tempo que existem estruturas regulatórias já estabelecidas que deveriam aplicar leis em vigor que poderiam alcançar as plataformas digitais, há um vácuo para aplicação de novas normas, em especial aquelas relacionadas à camada de conteúdo. A Agência Nacional de Telecomunicações deve manter seu foco na regulação de infraestrutura e serviços de telefonia. Seu escopo já é bastante amplo e complexo. A Agência em questão deve ser fortalecida com a participação transparente de múltiplos setores para dar conta de suas atribuições já estabelecidas. Porém, há um enorme rol de novas questões apresentadas pela regulação das plataformas digitais que não caberia à Agência de telecomunicações, em especial em relação à produção e disseminação de conteúdo na Internet. À Anatel NÃO deve ser atribuída a função de regular a circulação de conteúdo na Internet, tampouco aspectos econômicos específicos como a remuneração de produção de conteúdo por e para usuários. Não apenas entendemos que a Anatel hoje não tem condições de fazer isso, como ressaltamos o risco de uma única Agência controlar a regulação de aspectos tão diversos da Internet. Uma eventual captura de um único órgão regulador por interesses econômicos privados ou políticos aumenta significativamente o risco de desequilíbrio na regulação.
- Electronic Frontier Foundation e Access Now (comentário inserido por: Veridiana Alimonti) 16/07/2023 às 19:57(*** Esta contribuição é uma adaptação do documento da EFF e da Access Now publicado como contribuição ao debate brasileiro de regulação de plataformas e ao PL 2630. A íntegra do documento está disponível aqui: https://www.eff.org/files/2023/07/07/padroes_de_direitos_humanos_como_linhas_de_base_para_a_regulacao_e_prestacao_de_contas_das_plataformas_pt-br.pdf )
ESTRUTURA DE SUPERVISÃO INDEPENDENTE E PARTICIPATIVA
Novamente considerando a discussão em torno do PL 2630, o projeto de lei estipula obrigações para aplicações de internet e poderes para uma autoridade administrativa não especificada para supervisionar o cumprimento das regras do PL 2630. A aplicação do projeto de lei sem uma estrutura de supervisão genuinamente independente e democrática compromete seus objetivos. Até agora, o texto da proposta não logra garantir a base para tal estrutura, dando uma margem maior à aplicação arbitrária do PL 2630, em vez de estabelecer as bases para evitar tais abusos. Embora os projetos de lei de iniciativa do Poder Legislativo estejam limitados para a criação de novas entidades no âmbito da administração federal, essa é uma equação política que o Congresso e o governo federal devem resolver, em debate com a sociedade civil, antes de aprovar o PL 2630.
A Anatel, agência reguladora de telecomunicações, tem trabalhado para se encaixar como resposta. A agência já existe e conta com atributos essenciais assegurados por lei, como independência administrativa, ausência de subordinação hierárquica, estabilidade de seus diretores e autonomia financeira. No entanto, sua experiência e competências dizem respeito a serviços e infraestruturas de telecomunicações, não a aplicações de internet e atividades de moderação de conteúdo. Além disso, o histórico da Anatel deixa muito a desejar, tanto no cumprimento de suas competências como agência reguladora das telecomunicações quanto na garantia de participação significativa da sociedade civil em suas decisões.
A Coalizão Direitos na Rede enfatizou um conjunto de deficiências da Anatel em uma declaração pública [1] divulgada no início deste ano. Entre elas, a coalizão critica o favorecimento da Anatel às grandes operadoras de telecomunicações no leilão das faixas do espectro para a prestação do 5G. Também aponta falhas quanto à eficiência e transparência da fiscalização da Anatel, com base em relatórios do Tribunal de Contas da União (TCU). Por outro lado, a Coalizão Direitos na Rede defende uma nova agência de supervisão autônoma apoiada por um conselho participativo e multissetorial.
Isso se alinha à Declaração Conjunta de 2019 [2] dos Relatores Especiais para a Liberdade de Expressão, que apoia “mecanismos de supervisão independentes, multissetoriais e transparentes para lidar com regras de conteúdo privado que podem ser inconsistentes com o direito internacional de direitos humanos e ingerir no direito dos indivíduos de desfrutar da liberdade de expressão”.
A Comissão Especial de Direito Digital da Ordem dos Advogados do Brasil (OAB) também propôs uma estrutura de supervisão mais elaborada [3]. Ela envolveria três frentes: (i) uma entidade fiscalizadora e deliberativa formada por representantes dos três poderes do governo (Legislativo, Executivo, Judiciário), das autoridades brasileiras de concorrência e proteção de dados, Anatel e OAB; (ii) uma entidade autorreguladora responsável por tratar de casos específicos de moderação de conteúdo e (iii) o Comitê Gestor da Internet do Brasil (CGI.br), que já desempenha um papel fundamental na publicação de estudos, diretrizes e recomendações para o desenvolvimento da Internet no país. Um ponto essencial é que qualquer projeto deve preservar o papel e a natureza atuais do CGI.br.
As propostas da Coalizão Direitos na Rede e da Comissão Especial da OAB refletem a necessidade de freios e contrapesos robustos, incluindo uma participação significativa da sociedade civil, no projeto de supervisão do PL 2630. Isso ainda está faltando, e preencher essa lacuna fundamental exige um debate comprometido e participativo.
[1] https://direitosnarede.org.br/2023/04/28/orgao-independente-de-supervisao-das-plataformas-e-essencial-mas-nao-pode-ser-anatel/?ref=nucleo.jor.br
[2] https://www.oas.org/en/iachr/expression/showarticle.asp?artID=1146&lID=1
[3] https://nucleo.jor.br/curtas/2023-05-15-para-fiscalizar-redes-oab-propoe-sistema-como-alternativa-a-anatel/
- LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 13:02A vereação desse questionamento se assenta no fenômeno do policentrismo jurídico. A noção contemporânea de policentrismo atribuída à Administração Pública, incorre no reconhecimento de um pluralismo de fontes normativas, organizando-se microssistemas regidos por princípios de regulação comuns [1]. Essa coexistência de microuniversos jurídicos revela desafios hermenêuticos decorrentes da integração de uma normatividade com outra normatividade, inclusive no que diz respeito às competências institucionais de órgãos da administração pública com atribuições regulatórias [2].
Deve-se ter em mente o reconhecimento desses microssistemas como suporte à regulação de plataforma, instituindo diretrizes a diversos órgãos, como o próprio CGI.BR – Comitê Gestor da Internet do Brasil, a SENACON – Secretaria Nacional do Consumidor; o CADE – Conselho Administrativo de Defesa da Concorrência e a ANPD – Autoridade Nacional de Proteção de Dados. É importante ressaltar a necessidade de envolvimento das autoridades públicas que respondam por questões como a Proteção de Dados Pessoais, Inteligência Artificial, Concorrência e Mercado, Defesa do Consumidor, Telecomunicações, Cibersegurança e Educação Digital.
A organização de um microssistema de regulação de plataforma deve reconhecer a primazia de um órgão na centralização regulatória e interpretação das normas de regulação de plataformas. A adoção de uma nova entidade regulatória não é necessariamente requisito para a definição da consolidação interpretativa, que deve ficar a cargo de um único ente.
[1] BENNET, C. J. The Accountability Approach to Privacy and Data Protection: Assumptions and Caveats. In: GUAGNIN, D. et al. Managing Privacy through Accountability. Londres: Palgrave Macmillan UK, 2012.
[2] WIMMER, Miriam. Os desafios do enforcement na LGPD: Fiscalização, aplicação de sanções administrativas e coordenação intergovernamental. DONEDA, D.; SARLET, I. W.; MENDES, L. S.; RODRIGUES JÚNIOR, O. L. (orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021, p. 385-397. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:29É prudente avaliar o impacto de qualquer legislação/regulação antes de adotá-la ou de apontar uma dada agência ou órgão público como o ideal para adotar uma regulação genérica sobre “plataformas digitais”. É recomendável primeiro identificar as questões que se procura remediar por meio da legislação, e considerar eventual regulação futura de forma ponderada, antes de indicar em abstrato o agente econômico que deve ser responsável por ela.
O atual mercado digital é extremamente diverso e se transforma rapidamente tornando desafiador a criação de uma regulação ampla com efetividade quanto a aplicação e implementação a todos os atores. Nesse caminhar, a auto regulação regulada encontra-se como melhor solução. O estabelecimento de princípios direcionadores com compromissos estabelecidos pelas plataformas pode se caracterizar como mecanismo eficaz, que considerará as particularidades dos atores envolvidos possibilitando a continuidade da inovação.
Assim, considerando a diversidade de modelos de negócio exercidos pelas plataformas, a determinação do órgão supervisor deve compreender alguns pontos essenciais: competência técnica e independência funcional. O conhecimento e a competência para criar e aplicar diretrizes e sanções é de extrema importância em razão das particularidades do mundo digital e suas constantes transformações. Adicionalmente, há que se considerar a necessidade deste órgão ser independente para que possa atuar sem sofrer a interferência de interesses não necessários.
Se for necessário o órgão supervisor, sua capacidade de comunicação será de fundamental importância. O canal de comunicação deve ser eficiente e buscar construir junto aos stakeholders do ecossistema, incluindo as plataformas, as regras e diretrizes necessárias. Esse canal também deverá buscar cooperar com o conjunto de reguladores setoriais que hoje atuam no cenário brasileiro, evitando o conflito de normas e entendimentos para maior eficiência e segurança jurídica.
Para que a regulação das plataformas digitais guarde harmonia com as demais regulamentações brasileiras, entendemos que a participação da ANPD seja relevante em temas relacionados à privacidade e à proteção de dados pessoais. Em outras verticais regulatórias específicas, já há outras instituições com poderes bem estabelecidos, como Senacom, Procons, Anatel , Bacen, CVM. - Flávia Lefèvre Guimarães 16/07/2023 às 11:48Bruno Queiroz Cunha, em trabalho desenvolvido pelo Instituto de Pesquisa Econômica Aplicada (IPEA), afirma que “Como sucedâneo de reformas institucionais de caráter liberalizante e pró-mercado, um tipo específico e delimitável de órgão regulador, qual seja, a agência reguladora, passou a integrar o roteiro de propostas de reformas administrativas mundo afora, aportando no Brasil nos anos 1990. Esse movimento reformista ancorou-se, em particular, em concepções neoinstitucionalistas (no sentido econômico), de orientação neoclássica (Andrews, 2013)”.
As reformas às quais o autor se refere começaram a ocorrer com a edição da Lei 8.031/1990, que criou o Programa Nacional de Desestatização e deu origem a processos de privatização em diversos setores, como a energia elétrica, o gás, a radiodifusão e as telecomunicações.
Em virtude do processo de impeachment de Fernando Collor de Mello, a implementação das desestatizações foi estancada até a eleição de Fernando Henrique Cardoso, que assumiu o governo em 1995, acelerando, no Brasil, a dinâmica do neoliberalismo, doutrina iniciada a partir dos anos 1980 na Europa e nos EUA, com viés de liberalização econômica, desregulamentação, livre comércio, privatizações, austeridade fiscal e corte nas despesas governamentais.
Nesse contexto, como afirma Bruno Queiroz Cunha, foram criados novos “aparatos estatais, com a finalidade de (re)enquadrá-los à nova etapa do capitalismo, nascida do auge do neoliberalismo (Baimyrzaeva, 2012; Osborne e Gaebler, 1992). Em uma leitura complementar, entende-se que esse estágio determinou também a ascensão do “capitalismo regulatório”, dadas as novas prio- ridades dos governos na gestão econômica, mais indiretas e focalizadas que antes (Braithwaite, 2008; Levi-Faur, 2005). Indistintamente, nota-se nesse processo um entrelaçamento com os eixos de suporte à nova gestão pública – new public management (NPM) – (Christensen e Lægreid, 2006)”.
O histórico de atuação das agências reguladoras no Brasil, criadas com o objetivo de conferir segurança jurídica para os agentes econômicos interessados na privatização das telecomunicações, energia elétrica e gás, ocorridas a partir dos anos 1990, revela os graves conflitos instaurados, seja por ação ou por omissão desses organismos, entre interesses privados das empresas reguladas, com forte predomínio nos processos técnicos promovidos pelas agências correspondentes à construção de normas para orientar o funcionamento dos setores, e o interesse público.
Entre os problemas que emperram uma atuação afinada com o interesse público das agências está o fato de que, com muita frequência, os agentes públicos ou vêm de empresas privadas ou saem da agência e vão trabalhar nas empresas reguladas, comprometendo a produção de normas que deveriam estar voltadas para a universalização dos serviços públicos, a modicidade de tarifas e preços viabilizando o acesso, a preservação de patrimônios públicos repassados por meio de concessões à iniciativa privada, entre outros.
Os problemas com a atuação das agências no Brasil estão fartamente documentados em inúmeros Acórdãos do Tribunal de Contas da União (TCU) – órgão ao qual a Constituição Federal atribuiu o papel de fiscalizar as agências, demonstrando não só danos difusos quanto ao direito de acesso a esses serviços e garantia de investimentos necessários para atender as demandas de infraestrutura para o desenvolvimento econômico e social do país, garantia de concorrência, mas também irregularidades graves quanto à má versação de recursos públicos.
A situação de enorme desigualdade no acesso aos serviços de telecomunicações e acesso a Internet no Brasil, a insuficiência de infraestrutura de redes depois de mais de 24 anos de privatização, a perda bilionária de bens reversíveis relativos às concessões da telefonia fixa, o debacle da OI – principal concessionária, detentora das redes e dutos em 90% do país, estão entre os vultosos prejuízos decorrentes de processos claros de captura das agências, mais especificamente da ANATEL, que hoje tem feito um lobby absolutamente reprovável para se tornar o órgão regulador das plataformas digitais, a despeito dos incontornáveis limites legais para que isto ocorra.
A captura ocorre por influências políticas, econômicas, empresariais, dentre outras. Marçal Justen Filho, no livro “O direito das agências reguladoras independentes”. São Paulo: Dialética, 2002, pp 369-370, ensina que: "A doutrina cunhou a expressão 'captura' para indicar a situação em que a agência se transforma em via de proteção e benefício para setores empresariais regulados. A captura configura quando a agência perde a condição de autoridade comprometida com a realização do interesse coletivo e passa a produzir atos destinados a legitimar a realização dos interesses egoísticos de um, alguns ou todos os segmentos empresariais regulados. A captura da agência se configura, então, como mais uma faceta do fenômeno de distorção de finalidades dos setores burocráticos estatais".
A captura, então, termina por desvirtuar os princípios que devem orientar a administração pública, nos termos do art. 37, da CF, comprometendo a finalidade da regulação, produzindo efeitos indesejáveis de diminuição da qualidade do serviço, da eficiência, gerando insegurança e instabilidade para o setor regulado e para os cidadãos.
O fenômeno da captura no Brasil já foi reconhecido, inclusive, pelos Tribunais do país, como no caso da Apelação Cível nº 342.73910, julgada pelo Tribunal Regional Federal da 5ª. Região, quando em Ação Civil Pública promovida pelo Ministério Público Federal foi reconhecida a ilegalidade da nomeação de conselheiro da Anatel que já tinha ocupado cargo para o concessionário regulado. Vale a transcrição de parte da decisão:
"'diante de um conflito envolvendo interesses contrapostos da sociedade e das prestadoras de serviço de telecomunicações, a sua atuação estaria comprometida com os interesses deste último segmento. Necessário, pois, para que alguém represente a sociedade, não esteja comprometido com um segmento específico desta, a fim de que possa ter uma atuação imparcial em prol do bem comum'
[...]
A nomeação dos apelantes como membros do Conselho Consultivo da ANATEL representa o que a doutrina estrangeira e alguns doutrinadores brasileiros têm denominado de captura da agência pelos interesses regulados. Ocorre a captura do ente regulador quando grandes grupos de interesses ou empresas passam a influenciar as decisões e atuação do regulador, levando assim a agência a atender mais aos interesses das empresas (de onde vieram seus membros) do que os dos usuários do serviço, isto é, do que os interesses públicos".
Também na Ação Civil Pública promovida pela PROTESTE – Associação de Consumidores, transitou em julgado decisão condenando a ANATEL a incluir nos contratos de concessão da telefonia fixa os inventários com a descrição dos bens reversíveis entregues à iniciativa privada para a exploração do serviço e que, de acordo com a Lei Geral de Telecomunicações, deveriam voltar à União para se garantir o interesse e patrimônio públicos. Naquela ação ficou reconhecido que: “A própria ANATEL, embora tenha por responsabilidade a fiscalização desses bens, não tem cumprido esse importante papel, conforme apurado na Auditoria Interna nº 11/2010 (fls. 404-424), da qual se pode concluir que: a) No período de 1998/2001, “a Anatel não procedeu a nenhuma atividade de acompanhamento e controle dos bens reversíveis”; b) Não existem documentos ou registros que auxiliem na atividade de controle dos bens reversíveis; c) o Regulamento de Bens Reversíveis estabelece que as operadoras devem remeter à Anatel, anualmente, o Relatório de bens reversíveis, entretanto não cumprem, pois não têm pleno conhecimentos dos seus bens, por falta de inventário; d) Existe a necessidade da própria Anatel ter conhecimento dos bens reversíveis, vinculados à prestação de serviços das concessionárias de telecomunicações, por ser indispensável ao monitoramento da continuidade de prestação do serviço” (Proc nº 29346-30-2011.4.01.3400).
Ainda com relação à Anatel, o TCU já decidiu que: “Decorridos dez anos do processo de privatização, a ANATEL ainda não possuía os dados necessários para a realização da regulação econômica de uma concessão de serviço público e que não estava atuando efetivamente no cumprimento das obrigações legais de acompanhamento do equilíbrio econômico-financeiro das concessões (TC 019.677/2006, Acórdão 2.692/2008 – Plenário).
A situação no setor de Planos de Saúde, regulado pela Agência Nacional de Saúde Suplementar (ANS) não é diferente e tem lançado milhões de consumidores em situação de extrema vulnerabilidade, como se pode concluir pela quantidade enorme de ações que ocupam o Poder Judiciário. Quanto à atuação desta agência há estudos imparciais, do mais alto nível de confiabilidade científica, realizados pelo Instituto de IPEA e pelo TCU, no Acórdão 2.485/2012-TCU-Plenário (TC 030.285/2012-7), que corroboram o entendimento sobre a grave ineficiência da atuação da agência.
Fiz esta introdução para justificar meu entendimento no sentido de que o modelo de agência reguladora – sustentáculo do neoliberalismo, ainda que se propague sua autonomia e independência, historicamente têm atuado de forma capturada pelos interesses privados, sendo claramente inadequado para a regulação das plataformas digitais.
Nesse sentido, vejo mais sentido numa estrutura regulatória composta por um órgão representativo das empresas, por um Conselho Interministerial e pelo Comitê Gestor da Internet no Brasil (CGI.br).
A atuação das plataformas implica em múltiplos setores com potencial de impacto em larga escala em direitos fundamentais, econômicos, culturais, educacionais, políticos, sociais e trabalhistas entre outros e um modelo centralizado de regulação e com baixa representação democrática, como é o caso das agências em virtude de suas configurações legais, não dará conta de regular devidamente para garantir direitos em tão largo espectro.
Artigo publicado no dia 17 junho na Isto É, por Pedro Henrique Ramos, converge com esse entendimento quando afirma que numa entidade centralizada “surgem as condições ideais para captura por interesses corporativos e por governos com tendências autoritárias”.
Sendo assim, a proposta apresentada pela Comissão Especial de Direito Digital da do Conselho Federal da Ordem dos Advogados do Brasil, parece mais adequada às necessidades de regulação, ao propor o Sistema Brasileiro de Regulação de Plataformas Digitais tripartite, composto por um Conselho de Políticas Digitais, CGI.br e Entidade de Autorregulação.
Divirjo apenas quanto à composição do conselho, pois entendo que ele deva ser mais amplo, integrado por diversos ministérios que já contam com seus órgãos específicos com poder regulatório, nos termos do art. 87, incs. I e II, da CF, e poder de polícia para promover fiscalização e imposição de sanções, a exemplo do que ocorreu recentemente com a edição da Portaria 351/2023, pelo Ministério da Justiça, por meio da qual se imbuiu a Secretaria Nacional do Consumidor de adotar medidas junto às plataformas, no contesto da Operação Escola Segura. Ou seja, entendo que o Conselho deve ser integrado pelos Ministérios da Justiça, Direitos Humanos, Educação e Cultura, Saúde, Trabalho, Casa Civil – que hoje conta com a Secretaria de Políticas Digitais, Comunicações, CGI.br, tendo em vista as atribuições que recebeu pelo Marco Civil da Internet, e também pela Autoridade Nacional de Proteção de Dados Pessoais, tendo em vista o caráter técnico altamente especializado do acompanhamento da exploração de dados pessoais por empresas e setores públicos. Importante que o Conselho conte também com representação da sociedade civil.
Quanto ao papel a ser desenvolvido pelo CGI.br, entendo que a proposta apresentada pelo PL 2630/2020, atribuindo ao Comitê o papel de promover e organizar os debates em torno do Código de Condutas voltado para orientar a elaboração dos termos de serviços das plataformas digitais garantirá caráter multissetorial imprescindível, quando se trata de atividades com impacto em tantos setores.
Outras atividades que se pretendam atribuir ao CGI.br com caráter normativo ou fiscalizatório poderão desnaturar o Comitê com impactos para o Núcleo de Informação e Coordenação do Ponto BR, o que seria indesejável, diante do histórico de sucessos da entidade, que tem sido um modelo internacional para a governança da Internet.
Por fim, importante destacar que o Decreto 8.771/2016, que regulamenta o Marco Civil da Internet (art. 17 a 20), atribuiu à Secretaria Nacional do Consumidor, ao Sistema Brasileiro da Concorrência e a ANATEL, em linha com as diretrizes estabelecidas pelo CGI.br, o papel de garantir transparência e fiscalização das plataformas, para garantir enforcement aos direitos estabelecidos pela lei; mas esta estrutura está atrofiada e deveria, a exemplo do que começou a fazer o Ministro Flávio Dino, a atuar para enfrentar as ilegalidades que vêm sendo perpetradas pelas Bigtechs. - José Antonio Galhardo 16/07/2023 às 11:03Alguns atores governamentais como ANPD, CADE, Ministério da Ciência e Tecnologia, Legislativo, Judiciário e Ministério Público deveriam integrar um Conselho Gestor de uma Agência específica que deve ser criada para a implementação da regulação de plataformas digitais. As principais atribuições que esses atores devem ter são: estabelecer as diretrizes de funcionamento da Agência, acompanhar os trabalhos, servir como fórum de discussão e deliberação sobre controvérsias, estimular a criação de hubs/portais de inovação para orientação e fomento de padrões, políticas e boas prática de adesão autodeterminada pelas empresas e principalmente pelos entrantes em um novo mercado e para que sirva para a Agência antecipar tendências de desenvolvimento de novos negócios e seus impactos, estimular a criação e acompanhar o monitoramento de sandboxes regulatórios, e participar de redes regulatórias transnacionais e fomentar a participação da academia e do setor empresarial nas discussões e construção de guias e padrões propostos por organismos multilaterais (ex. OECD, ITU, UNESCO) e por entidades de padronização técnica internacionais (ex. ISO, IEEE, CSA, OASIS OPEN, Open Geospatial Consortium).
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:55Tratando-se de um assunto complexo, é necessária uma entidade autônoma e independente para regulamentação, implementação e aplicação das sanções previstas na regulação de plataformas digitais. Tratando-se de uma matéria tão transversal, ainda é necessário garantir de mecanismo de cooperação entre as diversas autoridades envolvidas - como a ANPD, o Cade, a Senacon, entre outras - de forma que todos possam contribuir na medida de suas atribuições e expertise.
Ainda é necessário a criação de mecanismos que garantam participação social. Em especial, um espaço multissetorial como o CGI.br. Em complemento, também seria ideal a criação de um conselho participativo multissetorial.
Importa frisar que, até o momento, vê-se que a Anatel não é o órgão mais adequado para cumprir a fundação de reguladora de plataformas digitais. Em suma, reiteramos os argumentos levantados pela Coalizão Direitos da Rede (CDR) em nota técnica sobre o assunto [1]: (i) a Anatel não tem a expertise necessária nos temas de regulação de plataformas, além de ter falhado recorrentemente no cumprimento de suas atribuições no setor de telecomunicações; (ii) atribuir a regulação das plataformas à agência poderá agravar esse cenário, prejudicando o avanço da conectividade significativa no Brasil e levando os interesses econômicos das plataformas e empresas de telecomunicações a prevaleceram sobre os interesses dos usuários e (iii) a Anatel é historicamente refratária à participação da sociedade civil, o que é incompatível com o modelo de governança multissetorial e colaborativa da internet no país.
[1] CDR. Órgão independente de supervisão das plataformas é essencial, mas não pode ser Anatel
. 28 abr. 2023. https://direitosnarede.org.br/2023/04/28/orgao-independente-de-supervisao-das-plataformas-e-essencial-mas-nao-pode-ser-anatel/ - João Coelho 15/07/2023 às 17:03Eixo Educação, Treinamento e Difusão de Informações
Atribuição: Investimento equitativo em infraestrutura tecnológica
101. Estados Partes devem investir equitativamente em infraestrutura tecnológica nas escolas e em outros ambientes de aprendizagem, garantindo a disponibilidade e a acessibilidade de um número suficiente de computadores, banda larga de alta qualidade e alta velocidade e uma fonte estável de eletricidade, treinamento de profissionais da educação para o uso de tecnologias educacionais digitais, acessibilidade e a manutenção oportuna das tecnologias escolares. Eles também devem apoiar a criação e difusão de diversos recursos educacionais digitais de boa qualidade nos idiomas que as crianças entendem e assegurar que as desigualdades existentes não sejam exacerbadas, como aquelas vividas por meninas. Estados Partes devem assegurar que o uso de tecnologias digitais não prejudique a educação presencial e seja justificado para fins educacionais.
Fonte: CG25, Item 101, p. 216 do CG25 Comentado
Exemplos: Poder Executivo - MCTIC e MEC
Fonte: Item 101 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Atribuição: difusão de Informações, conscientização e treinamento:
32. Estados Partes devem divulgar informações e conduzir campanhas de conscientização sobre os direitos da criança no ambiente digital, focando particularmente naquelas cujas ações têm um impacto direto ou indireto sobre as crianças. Devem promover programas educacionais para crianças, mães, pais e cuidadores, o público em geral e os formuladores de políticas para aumentar seu conhecimento dos direitos da criança em relação às oportunidades e riscos associados aos produtos e serviços digitais. Esses programas devem incluir informações sobre como as crianças podem se beneficiar de produtos e serviços digitais e desenvolver sua alfabetização e habilidades digitais, como proteger a privacidade das crianças e prevenir a vitimização e como reconhecer uma criança que é vítima de danos perpetrados online ou off-line e responder adequadamente. Esses programas devem ser informados por meio de pesquisas e consultas com as crianças, mães, pais e cuidadores.
Fonte: CG25, Item 32, p. 88 do CG25 Comentado
Exemplos de Atores Públicos: MEC, MDHC (Assessoria de Educação e Cultura), Secom, Ministério da Saúde
Outros Atores: Sociedade Civil, Educadores, Escolas Municipais e Federais, escolas de governo
Fonte: Item 32 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Atribuição: Implementação de Projeto Político-Pedagógico de Educação Digital Inclusiva:
99. O ambiente digital pode permitir e melhorar significativamente o acesso das crianças à educação inclusiva de alta qualidade, incluindo recursos confiáveis para a aprendizagem formal, não formal, informal, pelos pares e autodirigida. O uso de tecnologias digitais também pode fortalecer o engajamento entre profissionais da educação e aluno e entre alunos. As crianças destacaram a importância das tecnologias digitais para melhorar seu acesso à educação e apoiar sua aprendizagem e participação em atividades extracurriculares.
Fonte: Item 99 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Educação e ambiente digital são temas que, no Brasil, remetem às múltiplas desigualdades no acesso à internet, seja com relação à ausência de conexão nos territórios; velocidade insuficiente da conexão; ausência ou insuficiência de equipamentos adequados, tecnologias digitais não acessíveis e inclusivas, necessidade de qualificação dos professores, comunidade escolar e integração das tecnologias digitais como forma de ensino e aprendizagem de forma específica e transversal ao currículo escolar. O uso dessas tecnologias nas escolas deve ocorrer dentro de um projeto político-pedagógico participativo, inclusivo e que contemple todos os estudantes com e sem deficiência.
Para ver mais: Instituto Rodrigo Mendes (2021). Tecnologias digitais aplicadas a educação inclusiva. TIC Educação 2020; Escola no Mundo Digital, guia elaborado pelo Instituto Alana, Educadigital e Intervozes e Instituto Federal de Alagoas; Relatório de política educacional ‘’Tecnologias para uma educação com equidade’’. Todos Pela Educação, TLT Lab, Brasília, 2021.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 212 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Exemplos de Atores Públicos: MEC, MDHC, Secom
Outros Atores: Sociedade Civil, Academia
Atribuição: Ensino de literacia digital desde o nível pré-escolar e durante todos os anos escolares
104. Estados Partes devem assegurar que a literacia digital seja ensinada nas escolas, como parte dos currículos da educação básica, desde o nível pré-escolar e durante todos os anos escolares, e que essas pedagogias sejam avaliadas com base em seus resultados.68 Currículos escolares devem incluir os conhecimentos e habilidades para lidar com segurança com uma ampla gama de ferramentas e recursos digitais, incluindo aqueles relacionados a conteúdo, criação, colaboração, participação, socialização e engajamento cívico. Currículos escolares também devem incluir compreensão crítica, orientação sobre como encontrar fontes de informação confiáveis e identificar informações errôneas e outras formas de conteúdo tendencioso ou falso, inclusive sobre questões de saúde sexual e reprodutiva, direitos humanos, incluindo os direitos da criança no ambiente digital, e formas disponíveis de apoio e recurso. Devem promover a conscientização entre as crianças das possíveis consequências adversas da exposição a riscos relacionados ao conteúdo, contato, conduta e contrato, incluindo ciberagressões, tráfico, exploração e abuso sexual e outras formas de violência, bem como estratégias para reduzir os danos e estratégias para proteger seus dados pessoais e de terceiros e para construir as habilidades sociais e emocionais e a resiliência das crianças.
Fonte: Item 104 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Criação e fomento de recursos de aprendizagem digitais, acessíveis e interativos
Uma das contribuições importantes da tecnologia para a qualidade e a equidade da educação é promover o acesso a Recursos Educacionais Digitais como política educacional e sob uma perspectiva inclusiva que promove a igualdade de aprendizagem e a valorização da diversidade na educação. Esses materiais didáticos digitais precisam ser baseados nos princípios do Desenho Universal para Aprendizagem (DUA), acessíveis, com representação social, cultural, territorial diversa e em múltiplos formatos e plataformas. A UNESCO defende que o acesso universal à educação de qualidade compreende oferecer Recursos Educacionais digitais Abertos (REA), ou seja, de domínio público, liberados de licenças de propriedade intelectual, com a prioridade de uso de software livre. O que facilita seu uso, adaptação, distribuição gratuitos e, sobretudo, fortalece a cultura digital baseada em colaboração e interatividade. Ainda, segundo o relatório de política educacional “Tecnologias para uma educação com equidade’’, insumos tecnológicos, como acesso à internet, computadores e laboratórios, são recursos básicos para a prática pedagógica e é obrigação do Estado garanti-los. O relatório sugere que seja estabelecida uma estratégia nacional para tecnologia na educação que leve em conta a transparência e a proteção dos dados das crianças e adolescentes.
Fonte: Unesco. Diretrizes para elaboração de políticas de recursos educacionais abertos.; Instituto Rodrigo Mendes. Tecnologias digitais aplicadas à educação inclusiva; BLIKSTEIN, P. et al. D3e, Todos Pela Educação, TLT Lab. Relatório de política educacional ‘’Tecnologias para uma educação com equidade’’
Exemplos de Atores Públicos: MEC, MDHC, FNDE
Outros Atores: Sociedade Civil, Academia, Desenvolvedores
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 215 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Desenvolvimento de diretrizes para aquisição e utilização de materiais educacionais, que, inclusive, assegurem o seu uso seguro, ético, não-discriminatório e com o consentimento e fornecimento de informações apropriadas para a comunidade escolar e famílias
103. Estados Partes devem desenvolver políticas, padrões e diretrizes baseadas em evidências para escolas e outros órgãos relevantes responsáveis pela aquisição e utilização de tecnologias e materiais educacionais para aprimorar o fornecimento de benefícios educacionais valiosos. As normas para tecnologias educacionais digitais devem assegurar que o uso dessas tecnologias seja ético e apropriado para fins educacionais e não exponha as crianças à violência, discriminação, mau uso de seus dados pessoais, exploração comercial ou outras violações de seus direitos, como o uso de tecnologias digitais para documentar a atividade de uma criança e compartilhá-la com mães, pais ou cuidadores sem o conhecimento ou consentimento da criança.
Fonte: Item 103 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 17:01Eixo Responsabilização e Monitoramento
Atribuição: Responsabilização do setor privado na criação de ambientes digitais que preservem o melhor interesse da criança e do adolescente, através da noção da eficácia horizontal dos direitos fundamentais
Considerando a responsabilidade compartilhada entre Estados, famílias e sociedade, o que inclui empresas, e o princípio da devida diligência em direitos humanos, termo utilizado para designar processos de governança empresarial alinhados com obrigações e compromissos de proteção e promoção de direitos humanos, as empresas também devem assumir a responsabilidade de respeitar os direitos das crianças, seu melhor interesse e se comprometerem a apoiar os seus direitos humanos. Sobretudo no ambiente digital, é necessário que ele seja educativo e promotor de direitos, ao invés de puramente comercial, com práticas de exploração comercial, como a publicidade infantil digital. Empresas, como agentes privados da sociedade, são vinculadas diretamente à Constituição (art. 227) e à Convenção (art. 3, 1) e têm o dever, por eficácia horizontal de direitos humanos, de assegurar os direitos e o melhor interesse das crianças com prioridade absoluta, inclusive no ambiente digital. Inclusive, referendada jurisprudência no STJ e Tribunais de Justiça pelo país possibilitam a aplicação de multa à pessoa jurídica que descumpra deveres legais do ECA, como a hospedagem de crianças em hotéis sem autorização familiar e para fins de exploração ou violência sexual. Outrossim, a Lei 8.078/80 estabelece que é direito básico do consumidor “a efetiva prevenção e reparação de danos patrimoniais e morais, individuais, coletivos e difusos”, o que inclui a proteção a crianças e adolescentes consumidores em ambientes digitais (art. 6º, VI).
Referência legal: art. 227, da CF/88; art. 5º do ECA; art. 3º, 1, da CRC; art. 6º, VI, CDC; Comentário Geral n. 16 (2013): State obligations regarding the impact of the business sector on children’s rights
Para ver mais: The Office of Global Insight & Policy (UNICEF). Children’s rights-by-design: a new standard for data use by tech companies; Grupo de Direitos Humanos e Empresas da Direito GV. O direito à proteção integral das crianças e dos adolescentes no contexto de grandes empreendimentos: papéis e responsabilidades das empresas; LIVINGSTONE, Sonia; STOILOVA, Mariya. Children’s Online Privacy and Commercial Use of Data: Growing up in a digital age; United Nations Human Rights Office of The High Commissioner Princípios Orientadores sobre Empresas e Direitos Humanos da ONU, traduzido ao português pela Conectas Direitos Humanos.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 94 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 17:01Eixo Pesquisas
Atribuição: Produção de Dados e Pesquisas capazes de impulsionar a melhora de direitos de crianças e adolescentes e gerar monitoramento e avaliação constantes:
30. Dados e pesquisas regularmente atualizados são cruciais para compreender as implicações do ambiente digital na vida das crianças, avaliando seu impacto sobre seus direitos e avaliando a eficácia das intervenções do Estado. Estados Partes devem assegurar a coleta de dados robustos e abrangentes, com recursos adequados e que os dados sejam desagregados por idade, sexo, deficiência, localização geográfica, origem étnica e nacional e situação socioeconômica. Esses dados e pesquisas, incluindo pesquisas realizadas com e por crianças, devem informar a legislação, política e prática e devem estar disponíveis no domínio público. A coleta de dados e as pesquisas relacionadas à vida digital das crianças devem respeitar sua privacidade e atender aos mais altos padrões éticos.
Exemplos de atores: MEC, MDHC, MJSP, Disque 100, Min do Desenvolvimento Social, Min da Saúde, MDHC, Ministério do Meio Ambiente, CAPES, Cetic, Academia, Sociedade Civil
Fonte: Item 30 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:50A adoção de tecnologia é extremamente disseminada em diversos setores da economia, que estão se transformando rapidamente, tornando desafiadora a criação de uma regulação ampla com efetividade quanto à aplicação e implementação a todos os atores. Muito embora haja bons elementos para presumir que as ferramentas já disponíveis são suficientes para enfrentar os desafios apresentados pelas “plataformas digitais”, em um cenário subsidiário no qual alguma regulação seja imprescindível, a autorregulação regulada desponta como uma melhor solução, pois, a partir do estabelecimento de princípios direcionadores pelo órgão de supervisão com compromissos estabelecidos pelas plataformas, se mostra um mecanismo eficaz, que considerará as particularidades dos atores envolvidos e possibilitará a continuidade da inovação.
Assim, considerando a diversidade de modelos de negócio exercidos pelas plataformas, eventual determinação de órgão supervisor deve compreender alguns pontos essenciais: competência técnica e independência funcional. O conhecimento e a competência para criar e aplicar diretrizes e sanções é de extrema importância em razão das particularidades do mundo digital e suas constantes transformações. Adicionalmente, há que se considerar a necessidade deste órgão ser independente para que possa atuar com técnica e imparcialidade.
O estabelecimento de um órgão específico também deve considerar que os serviços digitais já são regulados por diversos órgãos e agências em temas específicos que são intrínsecos às suas atividades, como BACEN, CVM, Senacon e outros, fazendo-se necessário um juízo de necessidade e adequação quanto ao seu estabelecimento. Caso se entenda pela sua necessidade, a capacidade de comunicação deste órgão será de fundamental importância. O canal de comunicação deve (i) ser eficiente e buscar construir junto aos diferentes stakeholders, incluindo as plataformas, as regras e diretrizes necessárias; e (ii) buscar cooperar com o conjunto de reguladores setoriais que hoje atuam no cenário brasileiro, evitando o conflito de normas e entendimentos para maior eficiência e segurança jurídica.
Todavia, a Camara-e.net entende que é prudente avaliar o impacto de qualquer legislação/regulação antes de adotá-la ou de apontar uma dada agência ou órgão público como o ideal para aplicar uma regulação genérica sobre “plataformas digitais”, sem detrimento de regulações específicas já existentes ou a existir. É recomendável primeiro identificar as questões em que há um vácuo legal e em que se procura remediar por meio da legislação, e considerar eventual regulação futura de forma ponderada, antes de indicar em abstrato o agente econômico que deve ser responsável por ela. - Flávio Rech Wagner 15/07/2023 às 10:57[ Nota 1: Embora esta pergunta se refira à “implementação da regulação”, o texto abaixo trata do papel do CGI.br, que não deve ser associado a esta “implementação”. No entanto, devido à estrutura da consulta, não foi possível incluir este texto em outro local no formulário de submissão.]
[ Nota 2: O texto abaixo foi publicado em dezembro de 2022 e assinado por grande número de indivíduos. Mas sua submissão a esta consulta do CGI.br é de minha única e integral responsabilidade. ]
O modelo multissetorial de governança da Internet adotado no Brasil, reconhecido e elogiado nacional e internacionalmente por sua relevância e história, nasceu num processo de consenso multissetorial que culminou com a criação do CGI.br – Comitê Gestor da Internet no Brasil em 1995. Pioneiro e globalmente inédito à época, foi implementado com a representação de diferentes setores da sociedade, inclusive do governo, para, sempre em busca permanente do consenso, elaborar e propor diretrizes, princípios e recomendações para o desenvolvimento e o uso da Internet no país. Não deve ser pouco lembrar sua Declaração de Princípios para Uso e Governança da Internet no Brasil, publicada em 2009 depois de extenso debate e acordo entre seus integrantes. O Decálogo do CGI.br é um dos grandes feitos que projetou o Brasil nos fóruns internacionais.
Além das muitas razões filosóficas, técnicas e políticas que podemos elencar e que justificam a necessidade de preservação do modelo do CGI.br, importa salientar que o CGI.br e seu braço operacional, o NIC.br – Núcleo de Informação e Coordenação do Ponto BR, desenvolvem inúmeros projetos de grande interesse e impacto para o desenvolvimento da Internet no Brasil, dos quais citamos apenas alguns: a mais extensa rede de pontos de troca de tráfego do mundo; as séries anuais de estatísticas de padrão mundial sobre a penetração da Internet em todos as dimensões da sociedade brasileira; programas de capacitação técnica para os provedores de conexão de todo o país; estudos, publicações e eventos os mais variados nas áreas de segurança, de web, de privacidade e de infraestrutura; e um amplo programa de capacitação no modelo de governança multissetorial que tanto o caracteriza. Todos esses resultados são custeados com os recursos do registro de nomes de domínio sob o “ponto BR”, gerenciados pelo NIC.br, uma sociedade civil sem fins de lucro e, portanto, sem onerar quaisquer recursos públicos.
Um dos maiores méritos do modelo do CGI.br é sua natureza não-estatal – de forma similar a muitas entidades técnicas globais, como a ICANN e o IETF, suas recomendações são adotadas de forma voluntária pela sociedade, pelas empresas e pelo governo. O debate multissetorial no seio do CGI.br teve grande relevância para o desenvolvimento de importantes legislações brasileiras para a área da Internet, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados.
As excelências técnicas e operacionais e o reconhecimento internacional deste modelo dão ao Brasil importante protagonismo nos debates globais sobre a governança da Internet, tornando o CGI.br uma liderança fundamental em diversas frentes de discussão, tal como exerceu ao co-organizar a NETMundial, evento internacional de forte repercussão e até hoje celebrado pelos resultados obtidos e pelo exemplo de debate multissetorial equânime.
Mesmo com todos os novos desafios que surgem pela crescente digitalização da sociedade e da economia, inclusive com fenômenos perturbadores como a proliferação da desinformação, do discurso de ódio e da cibercriminalidade através da rede, o modelo do CGI.br tem se mostrado à altura, capaz de conduzir com as necessárias moderação e qualidade o diálogo em busca das soluções que a sociedade exige.
Para o sucesso do CGI.br na condução de sua missão, há que se salientar a importância da Norma 4, publicada sequencialmente na mesma data de criação do comitê, prevendo a distinção da Internet como um Serviço de Valor Adicionado às Redes de Telecomunicações, princípio este também contemplado posteriormente quando da criação da Anatel em 1997 como órgão regulador dos serviços de telecomunicações.
No entanto, a conjuntura recente tem trazido preocupações no que se refere à continuidade do exitoso modelo brasileiro de governança da Internet, da bem-sucedida trajetória do CGI.br e de seu importante papel para a sociedade brasileira. Dois exemplos recentes podem ser destacados.
No Legislativo, há Projetos de Lei propondo estender a órgãos de regulação de telecomunicações competência regulatória sobre serviços que são típicos da Internet, ou outros projetos propondo transformar a natureza do CGI.br em um órgão da administração pública de competência regulatória. Propostas como estas trazem equívocos fundamentais. De um lado ferem o princípio adotado no Brasil desde a Norma 4 sobre Serviço de Valor Adicionado; de outro, ao proporem o CGI.br como órgão público com atribuições de agente estatal, desvirtuam sua principal natureza multissetorial e não-estatal. As propostas de regulação da Internet devem levar em conta que cada camada da rede envolve características e incidência legal distintas – é inconcebível que a regulação de conteúdos e ações de preservação de direitos relacionados a esses conteúdos sejam colocadas no mesmo patamar regulatório das camadas de infraestrutura.
Assim, seja no Legislativo ou no Executivo, a formulação de leis, de políticas públicas e de ordenamento administrativo deve preservar o bem sucedido modelo brasileiro de governança da Internet, fortemente calcado no modelo multissetorial do CGI.br, no NIC.br, na separação entre a infraestrutura de telecomunicações e a Internet como Serviço de Valor Adicionado, princípio previsto pela Norma 4, e na interação com múltiplas áreas de governo. - Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:11A regulação das plataformas digitais deve ser orientada pelo princípio da governança democrática e colaborativa da internet, tendo por referência incontornável o multissetorialismo. No âmbito do poder público, é necessário instituir um sistema de governança que articule a criação de uma autoridade reguladora independente, com corpo técnico especializado e autonomia administrativa e financeira. Esta autoridade deve exercer as funções de normatização, fiscalização e aplicação de sanções quando do descumprimento da regulação.
É importante que esta autoridade tenha atuação coordenada com outros órgãos que compõem o ecossistema brasileiro, com destaque para o Comitê Gestor da Internet (CGI.br) e para a Autoridade Nacional de Proteção de Dados (ANPD). Compete ao CGI elaborar diretrizes, estudos e recomendações para a governança das plataformas, assim como o faz para a internet, operando como espaço dialógico e de participação social. Quanto à ANPD, é importante que esta continue a exercer suas atribuições de normatização e fiscalização quanto aos aspectos regulatórios referentes à proteção dos dados pessoais, incluindo disponibilização de dados para estudos, perfilamento, padrões de segurança, compartilhamento de dados com autoridades, etc.
Destaca-se, por fim, a importância de se atentar às particularidades de cada camada da internet no que diz respeito à sua governança, com especial cuidado para se diferenciar a gestão do provimento de conexão das questões relativas a conteúdos. Nesse sentido, a Agência Nacional de Telecomunicações (Anatel) deve preservar seu papel relativamente à fiscalização e ampliação da conectividade no país, não sendo adequado que lhe sejam atribuídas responsabilidades referentes a conteúdos. Dadas as insuficiências históricas na atuação da agência em relação às telecomunicações e a expertise funcional de seu corpo técnico, a estrutura regulatória nacional se beneficiará de direcionar os recursos da Anatel para a efetiva implementação de suas atribuições atuais. - Sarah Martins 14/07/2023 às 18:56- Proporcionalidade da Regulação (Item 39):
Apesar de não existir um item específico na consulta pública sobre o tema, a Brasscom gostaria de trazer aspectos gerais sobre a abordagem baseada no risco vislumbrado nos diferentes tipos de serviços, para o bloco 3, que se refere a “como regular”.
Conforme exposto, a pluralidade de agentes no ecossistema digital que oferecem os serviços digitais é enorme. Nesse sentido, uma iniciativa legislativa ou regulamentar deverá, ao invés de estabelecer regulamentos detalhados aplicáveis a todos os agentes econômicos, necessariamente considerar os distintos serviços, seus potenciais riscos, seu alcance, sua natureza para com base nestas informações realizar uma escolha de política pública adequada e proporcional.
Dito de outra forma, a regulação teria o grande desafio de ser efetiva num ambiente que é complexo e que traz impactos diretos e indiretos em diversos setores da economia, visto que o processo de digitalização de empresas é um fenômeno que acontece desde a indústria automobilística até a agrícola, sob o risco de estabelecer efeitos desproporcionais de forma transversal em todos esses setores e limitar o desenvolvimento de soluções digitais inovadoras para os consumidores. Nesse contexto, independentemente de a abordagem será regulatória ou não, as iniciativas legislativas relacionadas às plataformas digitais se beneficiariam de uma abordagem baseada em risco, isto é, uma legislação que identifique todos os benefícios socioeconômicos relacionados ao uso das plataformas digitais, bem como de modo específico os maiores riscos das atividades envolvidas por plataformas e os aborde de maneira pontual, (6) garantindo que a intervenção é de fato necessária e proporcional, evitando uma atividade administrativa demasiadamente ampla.
Conforme mencionamos em nossa resposta ao Item 1, compreender as diferenças entre os mais diversos tipos de serviços e na interação do usuário nas plataformas digitais é fundamental para entender a dinâmica do mercado, e enfrentar adequadamente quaisquer desafios.
Qualquer iniciativa voltada para o ambiente das plataformas digitais, de maneira genérica, deve se concentrar principalmente em garantir que os participantes do mercado, em particular os menores, encontrem um ambiente que lhes permita ter sucesso, ao mesmo tempo em que se concentra na promoção do bem-estar do consumidor e no endereçamento de falhas de mercado inequivocamente identificadas. A proporcionalidade é fundamental para evitar consequências não intencionais ligadas ao excesso de obrigações regulatórias que desconsiderem as especificidades dos serviços.
Sendo qualquer regulação ou legislação baseada em risco, é preciso ter em mente que a noção de risco não pode ser uma mera possibilidade de mal funcionamento em dado segmento digital. Ao contrário, o risco deve ser entendido como a identificação em concreto, baseado em evidências, de possível perpetuação de falhas de mercado já identificadas que resultem em danos igualmente identificáveis. É preciso avaliar e mensurar riscos e potenciais danos, como forma de possibilitar o melhor planejamento das maneiras de como evitá-los ou mitigá-los. A elaboração de uma Análise de Impacto Regulatório ou documento congênere é fundamental neste sentido, pois são avaliados problemas empíricos, possíveis soluções para o endereçamento destas questões, inclusive com análise de custo-benefício das alternativas regulatórias ou não disponíveis.
Além disso, caso identificado o espaço e a opção da regulação, é também necessário que se defina especificamente os poderes do regulador e as competências atribuídas, fazendo com que seus atos sejam previsíveis e estritamente limitados pela legalidade.
Como resultado de uma regulação proporcional e baseada em evidências, evitam-se custos regulatórios excessivos tanto aos regulados, preservando seu potencial econômico e social, quanto ao regulador, que terá capacidades administrativa, fiscalizatória e sancionatória adequadas.
(6) v. BLACK, J., "Risk-based Regulation: Choices, Practices and Lessons Being Learnt", in Risk and Regulatory Policy: Improving the Governance of Risk, OECD Publishing, Paris, 2010, disponível em: https://doi.org/10.1787/9789264082939-11-en. - Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 18:18Propostas de regulação de plataformas digitais, tanto no cenário internacional quanto nacional, têm advogado em favor de uma gestão plural do ambiente regulatório. A multiplicidade de temas e de interesses que são tangenciados pela atuação das plataformas digitais fundamenta esses pleitos, dada a complexidade de se mobilizar, sozinho e com a necessária destreza, a gama de assuntos demandados pela regulação que se pretende instituir.
Enquanto exemplo internacional, foi criada em 2021 no Reino Unido a Digital Markets Unit (“DMU”), inicialmente uma vertente da autoridade concorrencial britânica (Competition and Markets Authority) sem previsão estatutária. Já nesse momento embrionário da DMU constava como preocupação do órgão a interação com stakeholders diversos, como representantes do setor produtivo, academia, Poder Público e outros reguladores, inclusive internacionais. A capacidade de interação com diversos atores era vista como ponto positivo da estrutura nascente, propiciando o acesso a preocupações e perspectivas que deveriam informar a construção do regime regulatório das plataformas digitais. Submetida a estrutura da DMU à Consulta Pública, a sociedade civil britânica respaldou a importância de coordenação efetiva entre reguladores existentes e a nova autoridade, de forma que a DMU possa se beneficiar de expertise pertinente quando necessário. A partir desse contexto, a proposta legislativa apresentada pelo governo britânico (Digital Markets, Competition and Consumers Bill) reconhece a importância da coordenação, prevendo a necessidade de interação com diversas autoridades – como a Financial Conduct Authority, Office of Communications, Information Comissioner’s Office, Bank of England e Prudential Regulation Authority.
No contexto da União Europeia, em 2022 foram aprovados tanto o Digital Services Act (“DSA”) quanto o Digital Markets Act (“DMA”), ambos com incidência manifesta no contexto de regulação de plataformas digitais. A aplicação das novas estruturas regulatórias ficou a cargo da Comissão Europeia, mas em ambos os casos com colaboração de outras autoridades e atores. O DMA conta com intensa cooperação de autoridades dos Estados Membros da UE. No caso do DSA, a Comissão Europeia estabeleceu uma unidade específica para transparência algorítmica, o European Centre for Algorithmic Transparency (“ECAT”). Pensado para subsidiar com expertise a atuação da Comissão Europeia, o ECAT prevê a colaboração com representantes do setor produtivo, academia e sociedade civil. São abordagens regulatórias que enfatizam a colaboração na regulação de plataformas digitais, seja com outros agentes públicos, seja com demais setores da sociedade civil.
Também no cenário brasileiro propostas de regulação de plataformas digitais mobilizam as ideias de cooperação e composição multissetorial. No contexto dos debates relacionados ao Projeto de Lei 2.630/2020, a Ordem dos Advogados do Brasil, por meio da Comissão Especial de Direito Digital de seu Conselho Federal, propôs a construção de um “Sistema Brasileiro de Regulação de Plataformas Digitais tripartite”, com instâncias decisórias plurais compostas por membros indicados pelos três Poderes da República, além da presença de órgãos reguladores e da própria OAB. Outra proposta nesse teor é a articulada pela Anatel, que tem proposto um modelo de fiscalização de notícias falsas e discurso de ódio baseado em blockchain compartilhado por uma comunidade de checagem, composta por veículos jornalísticos, agências de fact-checking, a OAB, empresas e entes da sociedade civil. Sendo múltiplos os interesses que permeiam o funcionamento das plataformas digitais, de rigor que a regulação que sobre elas incidirá dê vazão e considere essa diversidade de perspectivas, colaborando para uma regulação atenta às demandas da sociedade que pretende regular.
É em linha com todas essas tendências que se situa o entendimento da ABRANET sobre como deve ser modelada uma regulação de plataformas digitais que se pretenda eficaz, criteriosa e capaz de abarcar o contexto multifacetado que circunscreve a atuação dessas empresas. Nenhuma das autoridades brasileiras já constituídas possui a expertise necessária para fazer frente, sozinha, ao desafio de regulação das plataformas. Por isso, a Associação entende ser necessária a estruturação de uma nova entidade, com sua autonomia assegurada por lei, para supervisionar a atuação das plataformas digitais, bem como suas práticas de autorregulação, que tem sua importância aqui reconhecida e preservada.
A composição dessa nova estrutura administrativa teria a multissetorialidade como pilar. Sua estrutura seria composta por representantes do setor público, privado, sociedade civil e academia. Os diferentes representantes comporiam um conselho ou comitê, encarregado de fiscalizar a aplicação de diretrizes legalmente estabelecidas, bem como o cumprimento de compromissos assumidos em sede de autorregulação pelas plataformas digitais.
Deste comitê participariam enquanto representantes do setor público: (i) o Conselho Administrativo de Defesa Econômica (“Cade”), dado o intenso debate relacionado às repercussões concorrenciais da atuação das plataformas digitais; (ii) a Autoridade Nacional de Proteção de Dados (“ANPD”), por sua competência para fiscalizar e regulamentar plataformas digitais, no que concerne à proteção de dados pessoais; (iii) a Secretaria Nacional do Consumidor (“Senacon”), por seu papel de coordenação e execução da política nacional de proteção e defesa do consumidor, que cada vez mais utiliza das plataformas digitais para suas práticas de consumo; (iv) a Secretaria de Comunicação Social da Presidência da República, especialmente em sua atual Secretaria de Políticas Digitais, a quem compete, dentre outras prerrogativas, formular e implementar políticas públicas para promoção da liberdade de expressão, do acesso à informação e de enfrentamento à desinformação na internet; (v) o Ministério da Justiça, que tem intensificado sua atuação na seara digital, por meio da Coordenadoria para Direitos Digitais; e (vi) representantes dos Poderes Legislativo e Judiciário, indicados por estes próprios Poderes e com expertise no tema, pela importância de que tópico tão importante quanto a regulação das plataformas digitais conte com a contribuição de todos os Poderes da República na definição de seus contornos.
Representando o setor privado, associações de mercado participariam da nova estrutura responsável pela fiscalização das plataformas digitais; notadamente a ABRANET – cuja história se confunde com a trajetória da internet brasileira, e hoje possui mais de 400 associados – mas também outras associações e fóruns que sejam representativos da pluralidade de atores que exercem suas atividades no ambiente digital.
Nesta linha de reconhecer a diversidade do ecossistema digital é que o comitê deve abrir espaço também para a sociedade civil como um todo, reservando assentos para associações representativas dos diversos interesses que são impactados pela atividade transversal das plataformas digitais.
Por fim, a comunidade acadêmica seria representada por pesquisadoras e pesquisadores renomados, com notório saber em assunto da internet – e indicados por universidades e fóruns específicos de debate do ecossistema digital. Também teria lugar o próprio CGI.br, que desempenha importante papel na disseminação de conhecimento relacionado ao espaço digital.
No contexto de refletir sobre os atores que devem participar da regulação das plataformas digitais, importante destacar que, a despeito de mobilizações que se tem apresentado, descabe à Anatel o papel de reguladora única desse tema. A prerrogativa da autarquia de regular infraestrutura passiva, como torres e antenas, necessária à estruturação do ecossistema digital, em nada lhe assiste na regulamentação propriamente dita dos desafios suscitados pelo funcionamento desse ecossistema – e, nesse diapasão, das plataformas digitais. Em outras palavras, a camada de infraestrutura não se confunde com a de aplicações da Internet.
A dependência fática de uma infraestrutura para a prestação de um serviço ou execução de uma atividade não repercute em uma dependência ou mesmo proximidade regulatória relativamente a como devem ser organizadas essas atividades econômicas, pelo que é evidente que suas autoridades regulatórias não necessariamente precisam coincidir. Tal acontece relativamente à Anatel, que se depara com temas, atores, ecossistema, modelos de negócio e ritmo de alteração regulatória substancialmente distintos dos quais está acostumada a lidar em sua atividade corrente. Por serem distintas as camadas de aplicações e de infraestrutura de rede, não há qualquer proximidade temática que justifique os pleitos de participação da Agência Nacional de Telecomunicações na regulação das plataformas digitais. Mais que isso, a Lei Geral de Telecomunicações expressamente retira da competência da Anatel a possibilidade de regulação da internet, ao estabelecer que os serviços de valor adicionado, que tem por suporte os serviços de telecomunicações, com eles não se confundem, pelo que as atividades econômicas que têm lugar na internet não são serviços de telecomunicações, restando além da competência regulatória da Anatel (Lei 9.472/1997, art. 61, § 1º). Dessa forma, à Agência Nacional de Telecomunicações não cabe ser a reguladora do tema. No limite, pela regulação da infraestrutura de rede tangenciar a operação da camada de aplicações na internet, seria possível cogitar a participação da Anatel enquanto mais uma representante do setor público na nova autoridade que ora se delineia, mas não há qualquer fundamento que embase um papel de primazia para a Agência Nacional de Telecomunicações nesse esforço regulatório sobre as plataformas digitais.
Elencados os representantes que devem compor a nova autoridade responsável pela regulação das plataformas digitais, cabe especificar a função que se espera que esses agentes executem. Na compreensão da ABRANET, o desenho regulatório que deve ser aplicado às plataformas digitais não deve ser o da clássica regulação “comando e controle”, com a autoridade pública estabelecendo regras e impondo sanções aos agentes privados em caso de descumprimento. Dada a (i) complexidade temática, (ii) multiplicidade de atores e modelos de negócios envolvidos e (iii) natureza dinâmica das plataformas digitais, potencialmente suscitando novos desafios regulatórios de forma recorrente, a ABRANET acredita veementemente que a modelagem regulatória mais eficaz se assenta em práticas de autorregulação regulada, a exemplo do que já acontece – com sucesso – no setor financeiro, na relação entre o Banco Central e a Associação Brasileira das Entidades dos Mercados Financeiro e de Capitais (“Anbima”). Nessa abordagem, a autoridade pública se encarrega fundamentalmente de supervisionar e fiscalizar a atividade de autorregulação, elaborada e levada a cabo pelos próprios agentes de mercado, coletivamente.
No caso da Anbima, a associação edita códigos de regulação e melhores práticas, a partir de sugestões e mediante aprovação dos associados, cujas disposições são posteriormente supervisionadas pela própria associação e avaliadas em seu cumprimento por um conselho independente. Toda essa atividade de governança setorial é realizada em sintonia com as prerrogativas do Bacen, que mantém sua competência para fiscalizar e disciplinar instituições financeiras. De resto, a prática normativa da Anbima é complementar à regulação estatal, não podendo sobrepô-la nem a contradizer.
A reprodução de tal modelagem no contexto das plataformas digitais teria o benefício de assegurar espaços de autonomia regulatória às empresas atuantes no setor, o que é desejável dados os elementos de complexidade temática, multiplicidade de atores e modelos de negócios envolvidos e natureza dinâmica das plataformas digitais, fatores que obstaculizam uma regulação ágil e eficaz da parte do Poder Público. De resto, a proposta de autorregulação está alinhada com o arcabouço normativo vigente, que reconhece as plataformas digitais como instâncias primeiras no exercício da moderação de conteúdo, passíveis de serem responsabilizadas por conteúdo de terceiros apenas em casos de descumprimento de ordem judicial determinando remoção específica (art. 19 do Marco Civil da Internet – Lei 12.965/2014).
De outro lado, a previsão da autoridade multissetorial delineada anteriormente, encarregada de supervisionar e fiscalizar a atividade autorreguladora das plataformas digitais, asseguraria o cumprimento dessas regras por parte dos agentes de mercado, preservando as diretrizes exaradas pela regulação estatal. É esta função de supervisão e monitoramento da autorregulação privada que compete, no melhor entendimento da ABRANET, às autoridades públicas anteriormente elencadas, reunidas na nova autoridade multissetorial aqui delineada. - keiichi tamashiro 05/07/2023 às 18:47Os setores privados e públicos.
- CEIIAS, Centro de Estudos Integrados, Infancia, Adolescencia e Saude (comentário inserido por: Evelyn Eisenstein) 03/07/2023 às 16:53representantes do governo como CGI-NIC, SECOM, CONANDA, ANATEL, INATEL, MSAUDE, MEDUCACAO, ANPD alem de representantes da Soc Brasileira de Pediatria,, Soc Bras de Psicologia, SAFERNET, ALANA e UNIVERSIDADES com programas que lidem com riscos de crianças e adolescentes/
- GOLBERY de Oliveira Chagas Aguiar RODRIGUES 01/07/2023 às 09:19Esse ponto realmente merece atenção, porque essa ação regulatória não pode ficar nas mãos de um único segmento, o governamental, por exemplo. Creio que essa possibilidade é que causa temor em muitas pessoas que são contra marco regulatório.
Portanto, defendo a existência de um organismo em âmbito internacional, ancorado pela ONU, com sucursais pelos países. - ROSA VICARI 23/06/2023 às 18:47Acredito que a regulação precisa ser realizada de forma ampla, pela ONU e ou por blocos de países. Considero que legislações muito específicas tendem a não ter resultado.
Certamente, a educação é fundamental.
Temos muitas Leis, Estatutos, Recomendações no país. Elas devem ser aplicadas também ao mudo virtual. Isso não significa que ajustes não devam ser realizados. Os sistemas digitais deixam um rastro de dados. O mundo ainda está aprendendo a conviver com a IA, por exemplo. Logo, privacidade de dados, armamento, desinformação, concentração do pode, rolagem infinita, dentre outros são temas que foram abordados neste questionário e que precisam ser tratados com o devido cuidado. - Rede Narrativas (comentário inserido por: ROBERTA TASSELLI) 22/06/2023 às 15:40[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
Construção de um comitê com sociedade civil, governo e plataformas, para não ficar na mão das plataformas os critérios de remoção
Ter reguladores locais e regionais, respeitando legislação nacional
Garantir alcance de conteúdos educativos e verdadeiros, garantindo que essa moderação não seja feita apenas por plataformas;
Canais de denúncia e reclamação mais acessíveis, na língua local, para derrubada, roubo de perfis etc.
Relacionado ao aspecto das crianças e adolescentes, uma escuta feita de forma global trouxe como uma das demandas dessa faixa etária a necessidade de termos de uso no idioma deles e que fossem de fácil compreensão;
Autorregulação não é solução, é mais fácil para essas plataformas de atuação global - Christian Abreu 21/06/2023 às 09:38Não deve haver qualquer regulação por órgãos, agências ou autoridades públicas. É uma grave ameaça à liberdade de expressão, é inconstitucional, trata-se de uma agenda terrível promovida pelos "poderosos" da ocasião.
- Victor Lippi Zaccariotto 13/05/2023 às 22:33Além do CGI.br, ABIN e Ministério de Ciência, Tecnologia e Inovação. Ambos apoiando tecnicamente e avaliando os mecanismos viáveis para a implementação da regulação.Felipe Braga 05/07/2023 às 21:51"ABIN" não... serpro.gov.br talvez
- Rodrigo Pereira 25/04/2023 às 20:28O Estatuto da Criança e do Adolescente fala em bem estar, em saúde, em participação. É preciso fomentar investimento em escolas que tratam em seu programa pedagógico, e em suas atividades, temas relacionados ao uso racional e consciente das tecnologias digitais, em feiras de ciências, etc. Tenho um programa completo que já ajuda a inspirar como explorar estas atividades de protagonismo em pesquisa e conscientização psicossocial partindo da linguagem da própria juventude.
- Instituto Nupef (comentário inserido por: Oona Caldeira Brant Monteiro de Castro) 16/07/2023 às 22:46É fundamental envolver a sociedade civil e os usuários, diversos órgãos do Ministério da Justiça, do Ministério das Comunicações, o CGI.br, no processo regulatório, compartilhando as responsabilidades. Todos os órgãos envolvidos no sistema de regulação das plataformas devem ter regras de transparência e participação multissetorial bastante amplas. As próprias plataformas - privadas ou públicas - que se constituem espaços de disseminação de conteúdo devem também promover a regulação baseada em lei e promovendo o espaço democrático possibilitado pela Internet à luz do interesse público. Ao mesmo tempo em que se deve limitar o poder das plataformas que atuam no campo da produção de conteúdos por usuários em relação à regulação daquilo que produzem, é necessário ampliar a responsabilização das plataformas pela propagação de desinformação deliberada e proporcionalmente aos efeitos causados, admitindo-se assim uma ação mais enérgica em relação a conteúdos indiscutivelmente falsos e que produzem males de ordem social (por exemplo, propagação da desinformação em relação à saúde). Os canais remunerados, patrocinados e de amplo alcance devem contar com aplicação de regras mais rigorosa por parte das plataformas digitais.
- Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:45A regulação de plataformas digitais impactará as partes interessadas de diferentes maneiras, por isso é crucial que quaisquer debates sobre essa questão sejam inclusivos e robustos, com a participação de todas as partes interessadas, incluindo a sociedade civil e os setores público e privado, para garantir que os efeitos adversos na sociedade sejam minimizados.
- LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 13:04A participação social na regulação de plataformas é imprescindível. Não somente em relação à participação popular na validação regulatório (o que conduz à necessidade de formulação de Análises de Impacto Regulatório e Análise de Resultado Regulatório), mas levando-se em conta prestação de contas ativa, na qual entidades de diversos setores da sociedade poderão julgar a regulação de plataformas no escopo de um fórum público de prestação de contas [1].
A estruturação de uma governança nodal, como supedâneo à necessária accountability na regulação de plataformas, demonstra o envolvimento de entidades públicas e privadas que mobilizam recurso e conhecimento para formar um ambiente permanente de escrutínio público [2].
Pode-se listar exemplificadamente como entidades privadas representativas da Sociedade Civil que devem compor este fórum: IDEC - Instituto Brasileiro de Defesa do Consumidor; Coalizão Direitos na Rede; Associação Data Privacy Brasil de Pesquisa; LAPIN – Laboratório de Políticas Públicas e Internet; e Instituto Alana.
Pode-se listar exemplificadamente como entidades privadas representativas do setor empresarial: ABRADI – Associação Brasileira de Agentes Digitais; ABES – Associação Brasileira de Empresas de Software; I2AI - International Association of Artificial Intelligence.
Pode-se listar exemplificadamente como entidades privadas representativas do setor acadêmico as universidades e os centros de pesquisa. Enquanto aponta-se para a necessidade de engajamento do setor privado na regulação a partir da tomada de contas, vislumbra-se a necessidade de entes públicos desempenhem papéis de supervisão e proposição de escopos normativos, especialmente em Direitos Humanos.
[1] BOVENS, Mark. Analysing and Assessing Accountability: A Conceptual Framework. In: European Law Journal, Vol. 13, No. 4, July 2007, p. 447–468.
[2] BURRIS, Scott; DRAHOS, Peter. SHEARING, Clifford. Nodal Governance. In: Australian Journal of Legal Philosophy, Vol. 30, 2005. Disponível em: . Acesso em: 11 jun. 2023. - LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 13:03A participação social na regulação de plataformas é imprescindível. Não somente em relação à participação popular na validação regulatório (o que conduz à necessidade de formulação de Análises de Impacto Regulatório e Análise de Resultado Regulatório), mas levando-se em conta prestação de contas ativa, na qual entidades de diversos setores da sociedade poderão julgar a regulação de plataformas no escopo de um fórum público de prestação de contas [1].
A estruturação de uma governança nodal, como supedâneo à necessária accountability na regulação de plataformas, demonstra o envolvimento de entidades públicas e privadas que mobilizam recurso e conhecimento para formar um ambiente permanente de escrutínio público [2].
Pode-se listar exemplificadamente como entidades privadas representativas da Sociedade Civil que devem compor este fórum: IDEC - Instituto Brasileiro de Defesa do Consumidor; Coalizão Direitos na Rede; Associação Data Privacy Brasil de Pesquisa; LAPIN – Laboratório de Políticas Públicas e Internet; e Instituto Alana.
Pode-se listar exemplificadamente como entidades privadas representativas do setor empresarial: ABRADI – Associação Brasileira de Agentes Digitais; ABES – Associação Brasileira de Empresas de Software; I2AI - International Association of Artificial Intelligence.
Pode-se listar exemplificadamente como entidades privadas representativas do setor acadêmico as universidades e os centros de pesquisa. Enquanto aponta-se para a necessidade de engajamento do setor privado na regulação a partir da tomada de contas, vislumbra-se a necessidade de entes públicos desempenhem papéis de supervisão e proposição de escopos normativos, especialmente em Direitos Humanos.
[1] BOVENS, Mark. Analysing and Assessing Accountability: A Conceptual Framework. In: European Law Journal, Vol. 13, No. 4, July 2007, p. 447–468.
[2] BURRIS, Scott; DRAHOS, Peter. SHEARING, Clifford. Nodal Governance. In: Australian Journal of Legal Philosophy, Vol. 30, 2005. Disponível em: . Acesso em: 11 jun. 2023. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:29Todas as entidades públicas desempenham um papel na economia digital, na medida em que já aplicam a legislação concorrencial, aplicam regras de privacidade de dados, e regulam setores específicos como saúde, serviços bancários e seguros.
- José Antonio Galhardo 16/07/2023 às 11:05Além dos órgãos e atores governamentais indicados no item anterior (ANPD, CADE, Ministério da Ciência e Tecnologia, Legislativo, Judiciário e Ministério Público), o próprio CGI.br e representantes da Academia, como o SBPC, deveriam também integrar o Conselho. Gestor da Agência específica que deve ser criada para a implementação da regulação de plataformas digitais. O papel dessas entidades seria o mesmo descrito no item 39. O setor empresarial e a sociedade civil também poderiam ter representação mas acho que seria mais efetiva uma atuação desses atores dentro dos setores específicos. Além disso, essa representação deve ser pensada para trazer a contribuição não só das Bigtechs mas de startups, representantes da economia tradicional (tanto empresariado quanto trabalhadores), e da sociedade civil usuária e dos excluídos digitais.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:57COOPERAÇÃO: Para além da cooperação com outras autoridades públicas - como a ANPD, o Cade, a Senacon e até o Ministério da Saúde e a ANS em matérias relativas ao setor de saúde - também é fundamental a atuação do CGI.br.
CGI.BR: As atribuições do Comitê relacionadas à regulação e supervisão do funcionamento da
internet no Brasil devem ser mantidas, nos termos das Leis nº 12.965/14 e nº 13.853/19. Ainda, conforme previsão do PL 2630, o CGI.br poderá realizar estudos, pareceres e propor diretrizes estratégicas nas matérias relacionadas a regulação de plataformas.
AUTORREGULAÇÃO REGULADA: como complemento à regulação, para que as plataformas tenham independência e responsabilidade no seu funcionamento e que não seja responsabilidade de nova autoridade a análise individual de conteúdo.
PARTICIPAÇÃO SOCIAL: em todo o caso, envolvido por um sistema multissetorial participativo de supervisão e acompanhamento - João Coelho 15/07/2023 às 17:10Eixo Monitoramento e Transparência das Plataformas norteados pela participação social
Atribuição: Geração de relatórios de Transparência capazes de demonstrar sistemas e processos utilizados para garantir a devida diligência no respeito de Direitos Humanos, direitos de crianças e adolescentes e aplicação de medidas de mitigação.
“38. Estados Partes devem exigir que o setor empresarial realize a devida diligência dos direitos da criança, em particular para realizar avaliações de impacto dos direitos da criança e divulgá-las ao público, com especial atenção aos impactos diferenciados e, às vezes, severos do ambiente digital sobre as crianças. Eles devem tomar medidas apropriadas para prevenir, monitorar, investigar e punir os abusos dos direitos da criança por parte das empresas.”
Fonte: Item 38 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Quem? Plataformas
Atribuição: Abertura para feedback sobre a construção dos Relatórios de Transparência e estruturação dos relatórios
Quem? Plataformas
Atribuição: Criação de espaços para ouvir e envolver usuários
As plataformas devem criar espaços para ouvir, envolver e envolver os usuários, incluindo aqueles que sofreram assédio ou abuso, seus representantes e usuários de diversas comunidades, para informar as políticas e processos da plataforma. Isso pode incluir maneiras de identificar e combater o conteúdo que pode ser restrito pela lei internacional de direitos humanos, bem como oportunidades e soluções para lidar com riscos sistêmicos. Deve-se considerar a criação de produtos específicos que permitam a todos os grupos relevantes participar ativamente no fortalecimento de contra-narrativas contra o discurso de ódio e outros discursos que carregam riscos sistêmicos.
Quem? Plataformas Digitais, atores envolvidos na regulação
Safeguarding freedom of expression and access to information: guidelines for a multistakeholder approach in the context of regulating digital platforms, Unesco https://www.unesco.org/en/internet-conference/guidelines
Atribuição: Fomento de instâncias participativas nacionais e locais para revisão das práticas e critérios de moderação de conteúdo
Quem? Plataformas digitais. Ex de projeto: Oversight Board, Meta (https://about.fb.com/news/tag/oversight-board/)
Atribuição: Colaboração na criação de um banco de dados de armazenamento de hashes de conteúdos já identificados como prejudiciais para direitos de crianças e adolescentes e colaboração intraplataformas para sua remoção;
Exemplos de boas práticas: Projeto Take It Down, do National Center for Missing & Exploited Children
Atribuição: Fortalecimento das práticas de classificação indicativa, com fornecimento de orientação, evitando medidas que provoquem a restrição de acesso de crianças e adolescentes ao ambiente digital
111. Quando Estados Partes ou empresas fornecem orientação, classificação etária, rotulagem ou certificação em relação a certas formas de engajamento e recreação digital, elas devem ser formuladas de forma a não restringir o acesso das crianças ao ambiente digital como um todo ou interferir em suas oportunidades de lazer ou em seus outros direitos.
Fonte: Item 111 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Exemplos de atores: MJSP, Casc/Cpcind
Atribuição: Criação de Códigos de Conduta profissionais com orientações relevantes sobre relato de riscos e oportunidades no digital
57. Códigos de conduta profissionais estabelecidos pelos meios de comunicação e outras organizações relevantes devem incluir orientações sobre como relatar riscos e oportunidades digitais relacionados às crianças. Essas orientações devem resultar em relatórios baseados em evidências que não revelem a identidade das crianças vítimas e sobreviventes e que estejam de acordo com os padrões internacionais de direitos humanos.
Fonte: Item 57 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Exemplos de atores: Associações, Organizações da Sociedade Civil, Empresas, CGI.Br
Atribuição: Criação de templates e modelos para análise de riscos e impactos de plataformas à direitos fundamentais de crianças e adolescentes, com uma consideração especial sobre: a) o risco apresentado pela plataforma, seja pela quantidade de usuários ou pela natureza do serviço.
Referências: Self-Assessment Risk Tool da ICO (https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/childrens-information/childrens-code-guidance-and-resources/children-s-code-self-assessment-risk-tool/); Toolkit Childs Rights by Design da 5Rights (https://childrightsbydesign.digitalfuturescommission.org.uk/page/checklist)
Exemplos de atores: CGI.Br, Academia, Sociedade Civil
Atribuição: Realização de auditorias externas independentes. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 17:08Eixo Educação, Treinamento e Difusão de Informações
Atribuição: Treinamento de profissionais que trabalham para e com crianças e do setor empresarial
33. Profissionais que trabalham para e com crianças e o setor empresarial, incluindo a indústria de tecnologia, devem receber treinamento que inclua como o ambiente digital afeta os direitos da criança em múltiplos contextos, as formas pelas quais as crianças exercem seus direitos no ambiente digital e como elas acessam e utilizam as tecnologias. Eles também devem receber treinamento sobre a aplicação dos padrões internacionais de direitos humanos ao ambiente digital. Estados Partes devem assegurar, antes da contratação e durante o serviço, treinamento relacionado ao ambiente digital seja oferecido aos profissionais que trabalham em todos os níveis de educação, para apoiar o desenvolvimento de seus conhecimentos, habilidades e práticas.
Exemplos de Atores: Sociedade Civil, Academia
Fonte: Item 33 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
O papel das escolas no contexto de plataformização
“A respeito do papel da escola sobre o tema, relevante pesquisa assevera que “o debate sobre tecnologia educacional deve sair do ‘se’ e evoluir para o ‘como’”, na medida em que “não podemos mais discutir se a tecnologia deve estar na escola, mas ‘como’ isso deve acontecer”. Nesse sentido, aponta para quatro dimensões que se complementam, a serem observadas nas políticas públicas sobre o assunto: (i) recursos e infraestrutura; (ii) pessoas: profissionais e formação; (iii) segurança de dados pessoais na educação e (iv) estratégia nacional. Assevera, ainda, que os vários tipos de tecnologia educacional podem ser divididos em três categorias: infraestrutura, ensino e criação/experimentação. Nesse contexto, também a aprendizagem sobre o funcionamento das máquinas passa a ser fundamental para que as crianças do presente, adultos do futuro, não fiquem à mercê de uma tecnologia digital que não dominam, podendo, ao contrário, serem por ela dominadas. Em um mundo que caminha a passos velozes para a supremacia dos algoritmos, aprender a programar um computador, por exemplo, será não um diferencial, mas algo básico a ser ensinado nas escolas - até porque discussões profundas sobre algoritmos são muito mais fáceis e possíveis quando se sabe sobre a sua estrutura. Além do fato de que o aprendizado de engenharia robótica é também um direito de todos os estudantes de explorar novos conteúdos e atividades.”
Fonte do Trecho: Direitos fundamentais da criança no ambiente digital: O dever de garantia da
absoluta prioridade de Isabella Henriques. pps. 103-104 Link: https://ariel.pucsp.br/bitstream/handle/30933/1/Isabella%20Vieira%20Machado%20Henriques.pdf
Para saber mais, ver: BLIKSTEIN, Paulo; BARBOSA E SILVA, Rodrigo; CAMPOS, Fabio; MACEDO, Lívia. Tecnologias para uma educação com equidade: Novo horizonte para o Brasil. Relatório de política educacional. Brasília: Todos pela educação; Dados para um debate democrático; Transformative Learning Technologies Lab, 2021. Disponível em: https://todospelaeducacao.org.br/wordpress/wpcontent/uploads/2021/04/Relatorio-Tecnologias-para-uma-Educacao-comequidade.pdf?utm_source=site
Atribuição: Treinamento de profissionais da educação em literacia digital e educação em saúde sexual e reprodutiva, com foco em salvaguardas relacionadas ao ambiente digital
105. É cada vez mais importante que as crianças adquiram uma compreensão do ambiente digital, incluindo sua infraestrutura, práticas comerciais, estratégias persuasivas e os usos do processamento automatizado e dos dados pessoais e vigilância, e dos possíveis efeitos negativos da digitalização nas sociedades. Os profissionais da educação, em particular aqueles que se dedicam à educação em literacia digital e educação em saúde sexual e reprodutiva, devem ser treinados sobre as salvaguardas relacionadas ao ambiente digital.
Fonte: Item 105 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Atribuição: Cooperação do Estado com a sociedade civil
34. Estados Partes devem sistematicamente envolver a sociedade civil, incluindo grupos liderados por crianças e organizações não governamentais que trabalham no campo dos direitos das crianças e aqueles preocupados com o ambiente digital, no desenvolvimento, implementação, monitoramento e avaliação de leis, políticas, planos e programas relacionados aos direitos das crianças. Devem também assegurar que as organizações da sociedade civil sejam capazes de implementar suas atividades relacionadas à promoção e proteção dos direitos das crianças em relação ao meio ambiente digital.
Fonte: Item 34 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Atribuição: Incentivo à produção e disseminação de informação de qualidade apropriada à idade
51. Estados Partes devem providenciar e apoiar a criação de conteúdo digital apropriado para a idade e empoderador para as crianças de acordo com o desenvolvimento progressivo de suas capacidades e assegurar que as crianças tenham acesso a uma ampla diversidade de informações, incluindo informações mantidas por órgãos públicos, sobre cultura, esportes, artes, saúde, assuntos civis e políticos e direitos das crianças.
52. Estados Partes devem incentivar a produção e disseminação de tal conteúdo usando múltiplos formatos e uma pluralidade de fontes nacionais e internacionais, incluindo meios de comunicação, emissoras, museus, bibliotecas e organizações educacionais, científicas e culturais. Eles devem esforçar-se particularmente para melhorar o fornecimento de conteúdo diverso, acessível e benéfico para crianças com deficiências e crianças pertencentes a grupos étnicos, linguísticos, indígenas e outros grupos minoritários. A possibilidade de acessar informações relevantes, nas linguagens que as crianças compreendem, pode ter um impacto positivo significativo na igualdade.
Fonte: Itens 51 e 52 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 17:06Ressaltamos a relevância do Sistema de Garantia de Direitos da Criança e do Adolescente (SGDCA). Citamos, entre atores a serem envolvidos:
- Famílias e Responsáveis
- Crianças e Adolescentes
- Conselheiros Tutelares e Assistentes Sociais
- Ministério dos Direitos Humanos e Cidadania, SNDCA e Conanda
- Promotores
- Juízes
- Defensores Públicos
- Juízes da Vara da Infância
- Conselheiros de Direitos das Crianças e Adolescentes
- Conselhos Estaduais e Municipais de Crianças e Adolescentes
- Educadores e profissionais da área da educação
- Profissionais da Saúde
- ONGs e Institutos de Pesquisa (de proteção à infância e adolescência, de proteção ao meio ambiente, de proteção da pessoa com deficiência, de combate ao racismo, de educação, de defesa dos povos indígenas, de defesa aos direitos digitais, de defesa da igualdade de gênero) - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:51Todas as entidades públicas desempenham um papel na economia digital, na medida em que já aplicam a legislação concorrencial, aplicam regras de privacidade de dados, e regulam setores específicos como saúde, serviços bancários e seguros.
- Flávio Rech Wagner 15/07/2023 às 11:00A governança da Internet em geral, e a regulação de plataformas em particular, são necessariamente policêntricas e multissetoriais. Há múltiplos atores públicos e privados que devem estar envolvidos, dentro de suas respectivas competências.
O Marco Civil da Internet já faz referência ao CADE e à SENACON, que devem atuar de forma articulada, dentro de suas competências, e seguindo diretrizes estabelecidas pelo CGI.br. Esta arquitetura regulatória não deve ser alterada.
Outras entidades públicas, como a ANPD e os PROCONs, e órgãos de aplicação da lei (Ministério Público, Poder Judiciário, órgãos policiais, ...) também têm um papel a desempenhar, igualmente dentro de suas competências.
A regulação de plataformas envolve múltiplas dimensões. O Brasil já possui farto e suficiente arcabouço legal (Marco Civil da Internet, LGPD, Código de Defesa do Consumidor, Código Penal, ...) para lidar com os múltiplos riscos associados a estas dimensões, mesmo que tal arcabouço legal sempre possa ser ajustado e aperfeiçoado, em função de novos modelos de negócios na camada de serviços e aplicações.
A Anatel, em particular, deve se restringir à regulação da camada de infraestrutura. Não lhe cabe regular a camada de serviços, aplicações e conteúdos, nem a camada da Internet (protocolos da Internet, gestão dos identificadores únicos e do DNS, etc.). A Norma 4 é um princípio que tem demonstrado sua grande relevância para a evolução da Internet no Brasil e precisa ser mantida.
Conforme já afirmado em minha resposta à pergunta 39 desta consulta, não podem ser dadas ao CGI.br atribuições que são próprias de órgãos de Estado, já que isto seria completamente incompatível com sua missão. Em particular, no caso de eventual legislação adicional relativa à moderação de conteúdos em plataformas que permitem a postagem de conteúdos por terceiros, não pode caber ao CGI.br, em nenhuma hipótese, atribuições operacionais tais como a validação de termos de uso de plataformas digitais e a avaliação de relatórios de transparência e de “dever de cuidado” elaborados por plataformas digitais. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 15/07/2023 às 00:23O CGI pode desempenhar um papel fundamental no debate sobre regulação de plataformas, especialmente na formulação de estratégias de governança para o uso e desenvolvimento da Internet no Brasil. A autoridade Nacional de Proteção de Dados pode também contribuir na discussão, principalmente no que concerne ao seu processo criação e implantação, bem como nas atividades desenvolvidas pelo órgão na regulação da matéria e na fiscalização de instituições públicas e privadas em relação à proteção de dados pessoais. A Anatel, mesmo que não deva assumir a função de um órgão regulador para as plataformas digitais, pode compartilhar experiências de regulação no setor de telecomunicações. O CADE, por fim, pode atuar nas questões envolvendo abuso de poder econômico e práticas anticompetitivas. De todo modo, é preciso garantir mecanismos cooperação para evitar a sobreposição de competências com o novo órgão que seja criado.
- Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:12Na medida em que as relações entre as pessoas usuárias e as plataformas digitais estão sujeitas às normas de defesa do consumidor, há papel importante a ser desempenhado pelas entidades ligadas ao tema. Destaca-se, nesse sentido, o papel da Secretaria Nacional do Consumidor e do Ministério Público em apurar violações aos direitos dos consumidores no âmbito dessas relações. Esta atuação, deve-se notar, necessita ser continuamente coordenada com as das demais autoridades de fiscalização, em especial a ANPD e a nova autoridade a ser instituída, a fim de evitar duplicidade de esforços e extrapolação de competências.
Além disso, o setor privado pode constituir entidade de autorregulação, a exemplo da experiência bem-sucedida do Conselho Nacional de Autorregulamentação Publicitária. Essa entidade poderia estimular a adoção de boas práticas e amparar o desenvolvimento de códigos de conduta voluntários no setor. Também seria salutar a criação proativa, por parte das plataformas, de espaços independentes com composição multissetorial para acompanhamento das diretrizes aplicáveis à moderação de conteúdo e proposição de melhorias - a exemplo da experiência do Comitê de Supervisão da Meta.
Também é fundamental o papel a ser desempenhado pelas instituições da sociedade civil organizada e da comunidade técnica e científica, que podem produzir estudos e recomendações referentes à defesa de direitos fundamentais, bem como acompanhar e denunciar casos de violações desses direitos. Ademais, a experiência brasileira tem sido muito bem-sucedida no engajamento da sociedade civil quanto a proposição de políticas públicas colaborativas para a governança da internet, e isso pode ser replicado no âmbito das plataformas. - Sarah Martins 14/07/2023 às 19:12- Governança participativa (Item 40):
Em se tratando de um segmento complexo, que envolve diversas atividades, uma eventual regulação de plataformas poderá se aproveitar de amplo debate e participação pública, principalmente para a definição de seus objetivos e para garantir o diálogo entre governo, indústria e sociedade. Portanto, observar todas as etapas do processo regulatório, especialmente Tomada de Subsídios, Análise de Impacto Regulatório (AIR) e Consultas Públicas é essencial para buscar elementos e centralizar análises de diferentes pontos de vista com vistas a promover uma eventual normatização mais assertiva.
Nesse particular, a experiência da governança multissetorial consolidada em órgãos colegiados relativos à internet, como o CGI (Comitê Gestor da Internet) e o CNPD (Conselho Nacional de Proteção de Dados), órgãos que permitem a participação dos diversos segmentos da sociedade, é relevante referência de modelos bem sucedidos e que apoiam a criação de um ambiente que garanta maior legitimidade à regulação pública, inclusive para orientá-la com atualidade a respeito das práticas do mercado e dos modos de expressão dos usuários.
A Brasscom reconhece, contudo, que a complexidade do ecossistema digital, e seu caráter plural, traz alto grau de complexidade para o exercício de composição de órgão desta natureza, em virtude da necessidade primordial de garantia de participação de representantes dos inúmeros segmentos que pertencem a essa complexa cadeia produtiva.
* * *
À luz destas considerações sobre regulação de plataformas, a Brasscom se põe à disposição de agentes públicos e privados para discutir o tema, garantindo em última instância o bem-estar e a preservação de direitos fundamentais dos usuários, pessoas físicas ou jurídicas, que se beneficiam diariamente dos serviços de intermediação digital. - Thiago Alencar 27/06/2023 às 08:08A participação dos usuários deveria ser considerada fundamental no processo de regulação das plataformas digitais, não apenas para defender uma compreensão plural de pautas de interesse público, mas para garantir uma representação política dos usuários. Um projeto de regulação deveria estabelecer parâmetros legais e técnicos para que organizações da sociedade civil que desempenham funções sociais relevantes nessas plataformas tenham status diferenciado e uma participação ativa na manutenção das normas desses espaços. Poderiam ser concedidas, por exemplo, a possibilidade de acessar ferramentas mais sofisticadas de aferição de suas métricas ou mecanismos internos de gestão de suas comunidades, participação permanente em processos de auditoria e fiscalização do cumprimento dos termos de uso e dos marcos regulatórios sobre as plataformas, ou mesmo uma atuação sob demanda, em eventuais ocorrências que demandem de sua expertise, seja por meio de uma consultoria ou trabalho de pesquisa. As alternativas são muito vastas, bem como o interesse de contribuir com a gestão do espaço digital dessas entidades, que tem legitimidade conferida por suas comunidades para representar os interesses comuns dos usuários e a proteção dos seus direitos.
- Christian Abreu 21/06/2023 às 09:45Eu confio no CGI.br e admiro e parabenizo pelo excelente papel desempenhado na promoção do desenvolvimento da Internet no Brasil. Na minha opinião não há entidade melhor para liderar toda iniciativa relacionada à Internet por seu histórico exemplar. Faço uma ressalva - os debates realizados atualmente tem sido de péssima qualidade, e os discursos ideológicos deveriam ser evitados a todo custo.
- Mozart Hasse 28/04/2023 às 11:22A autoridades públicas devem garantir que as plataformas tenham SEMPRE canais para recebimento de denúncias, que essas denúncias sejam auditáveis e tão transparentes quanto possível (até o limite imposto pela LGPD) e que o tempo de resposta seja o menor possível, sujeito a multa em caso de descumprimento. Só. O resto é com a comunidade e a constituição.
- Rodrigo Pereira 25/04/2023 às 20:32O mais importante é que as autoridades estejam sempre com boa paridade de setores igualmente divididos na participação. O mesmo número ou porcentagem de representantes num clima de responsabilidade compartilhada, como o CGi procura exercer suas atividades. Acompanho mais de perto os setores da academia e do terceiro setor, e pessoas como Serigo Amadeu, Flávia Lefebvre, Bia Barbosa, mas é preciso evitar bolhas e garantir participação do setor empresarial e entidades públicas dos 3 poderes.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:47(Contribuição da Coalizão Direitos na Rede)
Os enormes desafios que temos devem levar a sociedade a empreender esforços à altura, como a criação de novos modelos regulatórios e instâncias competentes. Toda boa regulação precisa de um bom regulador. Para que as medidas sejam eficazes, a CDR aponta a necessidade de se instituir um modelo participativo, multissetorial e com a criação de uma entidade autônoma de supervisão independente: um espaço multissetorial capaz de absorver a complexidade de demandas dos diferentes setores envolvidos na pauta e que preserve o caráter de criação coletiva da internet.
A Coalizão Direitos na Rede entende que um ponto central de êxito de qualquer regulação dedicada às plataformas digitais está na criação de um órgão específico, dotado de autonomia funcional, financeira e administrativa, associado a um conselho multissetorial com capacidades deliberativas. Tal arranjo garantirá a tecnicidade e a participação pública necessárias ao detalhamento de regras, fiscalização do seu cumprimento e aplicação de sanções em caso de violações.
Entendemos que a criação de um órgão regulador é fundamental, uma vez que atualmente não existe nenhum órgão na administração pública direta ou indireta, com prerrogativas, acúmulo, capacidade ou estrutura para assumir integralmente essas atribuições.
Por exemplo, havendo uma entidade autônoma de supervisão, que pudesse ter o papel central de fiscalizar o cumprimento de regras previstas em Lei, ela poderia atuar em parceria com o Comitê Gestor da Internet, que ficaria responsável pela emissão de diretrizes. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:37[Contribuição do DiraCom - Direito à Comunicação e Democracia]
É fundamental que sejam criados tanto um órgão regulador, a fim de dar efetividade à regulação, por meio da normatização e fiscalização, e um conselho que proteja esse órgão da captura regulatória e amplie a participação popular no setor, o que poderá se dar também por meio de consultas públicas e outros instrumentos de participação. O Comitê Gestor da Internet no Brasil (CGI.br) pode ser esse espaço ou integrar essa arquitetura institucional, contribuindo com os novos órgãos.
O órgão regulador mencionado deve ser uma autarquia especial independente e ter como atribuições:
I - fiscalizar e aplicar sanções pelo descumprimento da legislação específica de regulação das plataformas, mediante processo administrativo que assegure o contraditório, a ampla defesa e o direito de recurso;
II – Receber denúncias de conteúdos causadores de dano coletivo e durante eleições;
III - Emitir regulamento, a partir de diretrizes do conselho multissetorial acerca de medidas para enfrentamento e mitigação de situações de risco iminente e graves violações a dano coletivo.
IV- - Propor diretrizes, aprovar, emendar e revisar códigos de conduta dos provedores de aplicação tutelados pela legislação,
V – Propor parâmetros para análise de riscos sistêmicos associados à garantia do Estado Democrático de Direito;
VI – Receber e avaliar conformidade de medidas de mitigação de riscos sistêmicos, tendo em vista os parâmetros propostos;
VII – Sugerir medidas para contenção de riscos sistêmicos causadores de danos coletivos associadas à configuração e prestação dos serviços;
VIII - Elaborar regulamentos para a implementação e detalhamento das diretrizes e regras constantes na legislação.
IX – promover estudos e debates para aprofundar o entendimento sobre desinformação, e o seu combate, no contexto da internet e das redes sociais;
X - promover na população o conhecimento das normas e das políticas públicas relacionadas à regulação do setor;
XI – receber e avaliar os dados constantes nos relatórios de transparência, apurando quais provedores de aplicação de internet estarão anualmente sujeitos às normas estabelecidas na legislação;
XII – requerer diretamente aos provedores informações a respeito das metodologias utilizadas para a detecção de desconformidades que motivaram a intervenção em contas e conteúdos gerados por terceiros, incluindo a exclusão, indisponibilização, redução do alcance, desindexação, sinalização, com o objetivo de identificar vieses e produzir políticas públicas pra garantir a liberdade de expressão, observados os segredos comercial e industrial.
XIII – realizar estudos sobre os procedimentos de moderação adotados pelos provedores de redes sociais, bem como sugerir diretrizes para sua implementação;
XIV - realizar auditorias, ou determinar sua realização, no âmbito da atividade de fiscalização e com a devida observância do disposto na Lei Geral de Proteção de Dados Pessoais;
XV - deliberar, na esfera administrativa, em caráter terminativo, sobre a interpretação da legislação, as suas competências e os casos omissos;
XVI - comunicar às autoridades competentes as infrações penais das quais tiver conhecimento;
O conselho acima mencionado deve ter como atribuições:
I – formular e aprovar políticas e diretrizes para aplicações de Internet com vistas à consecução dos objetivos da legislação de regulação de plataformas aprovada no país;
II – propor e submeter à consulta da sociedade as políticas e diretrizes de que trata o inciso I.
III – monitorar o cumprimento da legislação específica, a partir de análises e relatórios da fiscalização do órgão regulador;
III – formular e aprovar diretrizes para o fornecimento de informações e cumprimento das obrigações de transparência previstos na legislação específica por provedores de aplicação de Internet ao órgão regulador ;
IV - emitir diretrizes e critérios para a definição das hipóteses de protocolos de crise/emergência/ riscos iminentes de graves violações a danos coletivos.
V – aprovar, ouvida órgao regulador ou provocado por ele, protocolos de crise/emergência/ riscos iminentes de graves violações a danos coletivos.
VI - emitir diretrizes para a formulação de códigos de conduta e validar os códigos celebrados entre provedores de aplicação de Internet de grande porte e o órgão regulador.
VIII – emitir diretrizes e requisitos para a análise de riscos sistêmicos pelos provedores de aplicação de Internet, a ser realizada pelo órgão regulador a partir de informações fornecidas pelos provedores de aplicação de Internet de grande porte.
IX - decidir, como última instância administrativa em grau de recurso, sobre sanção administrativa adotada pelo órgão regulador;
X – Estabelecer diretrizes para a cooperação e a articulação com o Judiciário para o cumprimento dos objetivos e determinações da legislação específica sobre regulação de plataformas.
As definições mais críticas devem se dar por meio de quórum qualificado. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:46Não é possível avaliar a criação de novas instituições sem uma definição clara das questões que a regulação pretende corrigir. É prudente, portanto, avaliar o impacto de qualquer legislação/regulação antes de criar novas instituições para implementar o arcabouço regulatório.
- Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:55Sim. É preciso pensar uma nova autoridade que consiga implementar tais obrigações, colocando os direitos humanos e fundamentais como centro e que tenha espaço para participação multissetorial.
Dentre as atribuições, destacamos: (i) competência para regulamentar as obrigações; (ii) competência para fiscalizar e aplicar sanções; (iii) competência a análise de relatórios de transparência e análises de impactos de riscos sistêmicos; (iv) coordenação com outras esferas públicas, como ANPD, CADE, órgãos de defesa do consumidor. - Rede de Pesquisa em Governança da Internet (comentário inserido por: Rede de Pesquisa em Governança da Internet) 16/07/2023 às 20:52Conforme vemos na literatura, entendemos que a governança da internet deve ser compreendida como uma floresta, um ecossistema com uma diversidade imensa de temas a serem discutidos que são interdependentes uns dos outros (Kleinwächter e Almeida, 2015). Tentativas de legislar de maneira particular conforme um novo problema surge na sociedade, via processos legislativos ou via decretos, são arriscadas e perigosas, pois há muito conhecimento acumulado no campo que não são consultados por novos atores na arena política e deve ser considerado em novas tentativas de regulação. Vemos como importante ter uma autoridade multissetorial que reúna especialistas do campo digital de diferentes áreas de conhecimento para ser obrigatoriamente consultada quando o tema é a entrada e criação de novos serviços digitais no país, e em qualquer aspecto de regulação de tecnologias digitais. O modelo do CADE, para dar pareceres sobre questões de competição e avaliar os riscos à economia de uma maneira ampla, é uma referência.
O debate atual considera a ANATEL como essa possível autoridade, e nós discordamos. Quando o tema é participação e comunicação com a sociedade, a ANATEL tem infelizmente se mostrado uma agência pouco afeita ao diálogo, com conselhos pouco representativos dos movimentos sociais e da sociedade civil brasileira. Regular aspectos ligados ao digital, à internet e à inteligência artificial requer uma autoridade que seja um conselho representativo em si, com poder de impedir regulação, de fazer recomendações ao legislativo, executivo, e ao judiciário, com foco na sociedade, nas pessoas, especialmente as que têm mais possibilidades de serem prejudicadas devido ao racismo, à misoginia e aos problemas estruturais de classe no país. Essa autoridade deve ser composta com diversidade regional, de gênero, de etnia, de raça, de deficiência, etc. Não há no Brasil um órgão como esse atualmente. O modelo que hoje mais se aproxima no contexto da governança da internet é o CGI.br, que tem tido um papel fundamental no desenvolvimento da internet e de uma massa crítica em temas de governança da internet, no entanto, seu desenho e escopo não atendem aos desafios de poder de regulação e assessoria aos três poderes que essa autoridade deveria ter.
Essa é uma discussão que deveria ser encaminhada junto aos atores atualmente interessados e envolvidos, como o CGI.br, Coalizão Direitos na Rede, a OAB, o legislativo, a Casa Civil, e deveria ativamente mobilizar novos atores ainda à parte dessa discussão, como movimentos sociais, organizações da sociedade civil, populações indígenas, e ministérios como dos Povos Indígenas, Direitos Humanos, Meio Ambiente, Comunicações, MCTI, e a comunidade acadêmica para um debate mais representativo da sociedade e mais voltado à direção da sociedade que queremos ter. - LABID² Laboratório de Inovação e Direitos Digitais da UFBA 16/07/2023 às 13:04O fenômeno no policentrismo jurídico na administração pública brasileira impõe a necessidade de estabelecimento de uma autoridade centralizadora na interpretação e aplicação das normas de regulação de plataformas digitais. Relembrando a ressalva feita na resposta ao questionamento nº 39 dessa consulta, apetece-nos que a criação de uma entidade específica não é preliminar ao estabelecimento de uma entidade centralizadora.
Contudo, a criação de uma nova instituição teria o condão de clarificar o sistema jurídico, com maior funcionalidade na centralização regulatória. Rememora-se: a centralização regulatória não confunde com a concentração regulatória, mas importa na viabilidade de estabelecimento de uma autoridade com a finalidade precípua de interpretar, fiscalizar e aplicar as normas de regulação de plataformas [1], tendo em vista que o policentrismo pode gerar uma situação de insegurança jurídica e mitigação da paz social.
Por conseguinte, a formação de uma entidade específica de regulação de plataformas deve representar o esforço social na consecução de democracia digital, através de uma representação multissetorial, nos moldes em que se funda o próprio Comitê Gestor da Internet do Brasil.
Nesse contexto, nos parece ser coerente a criação de um ente público que, vinculado ao próprio CGI.BR, tenha o papel de interpretar, fiscalizar e aplicar a norma de regulação de plataformas digitais, mantendo-se hígida a estrutura multissetorial deste comitê, que é tido como exemplo perante o mundo na Governança da Internet [2]. As atribuições deste ente devem abarcar a interpretação da norma, a fiscalização do cumprimento da norma, a criação de políticas públicas no âmbito do letramento digital, o estabelecimento de agendas regulatórias e aplicações de sanções.
[1] BENNET, C. J. The Accountability Approach to Privacy and Data Protection: Assumptions and Caveats. In: GUAGNIN, D. et al. Managing Privacy through Accountability. Londres: Palgrave Macmillan UK, 2012.
[2] MONTEIRO NETO, João. The Operation of Multistakeholderism in Brazilian Internet Governance: Governance Innovation through multistakeholderism generativity. Doctor of Philosophy (PhD) thesis, University of Kent, 2018. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:29Não é possível avaliar a criação de novas instituições sem uma definição clara dos problemas que a regulação pretende remediar. É prudente avaliar o impacto de qualquer legislação/regulação antes de fazê-lo.
O atual mercado digital é extremamente diverso e se transforma rapidamente tornando desafiador a criação de uma regulação ampla com efetividade quanto a aplicação e implementação a todos os atores. Nesse caminhar, a auto regulação regulada encontra-se como melhor solução. O estabelecimento de princípios direcionadores pelo órgão de supervisão com compromissos estabelecidos pelas plataformas pode se caracterizar como mecanismo extremamente eficaz, que considerará as particularidades dos atores envolvidos possibilitando a continuidade da inovação.
Assim, considerando a diversidade de modelos de negócio exercidos pelas plataformas, a determinação do órgão supervisor deve compreender alguns pontos essenciais: competência técnica e independência funcional. O conhecimento e a competência para criar e aplicar diretrizes e sanções é de extrema importância em razão das particularidades do mundo digital e suas constantes transformações. Adicionalmente, há que se considerar a necessidade deste órgão ser independente para que possa atuar sem sofrer a interferência de interesses não necessários.
Se for necessário o órgão supervisor, sua capacidade de comunicação será de fundamental importância. O canal de comunicação deve ser eficiente e buscar construir junto aos stakeholders do ecossistema, incluindo as plataformas, as regras e diretrizes necessárias. Esse canal também deverá buscar cooperar com o conjunto de reguladores setoriais que hoje atuam no cenário brasileiro, evitando o conflito de normas e entendimentos para maior eficiência e segurança jurídica.
Porém, entendemos não ser necessário a criação de novo órgão regulador para o tema, já que existem diversos reguladores que dividem essa função, como Casas Legislativas, Executivo, ANPD, BC, CADE, entre outros. - José Antonio Galhardo 16/07/2023 às 11:06O grande diferencial da regulação das plataformas digitais é que elas estão presentes em tudo. O modelo de Agência reguladora especializada em um determinado setor não se adequa. Não há uma estrutura específica no Brasil com essa característica transversal. Sem dúvida a ANPD tem um papel fundamental mas não tem poder, nem capacidade atualmente, para atuar em aspectos relacionados por exemplo à Inteligência Artificial ou serviços em nuvem. O mesmo se aplica ao CADE. Por isso, acho que é necessária a criação de uma Agência específica cujo papel principal seja o de convocar e coordenar o trabalho colaborativo de diversos atores do governo, do empresariado, da sociedade civil, da academia e de organismos multilaterais.
- Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:59"Endossamos que uma agência reguladora independente e com maior capacidade de fiscalização que a Anatel é essencial para que os termos da lei sejam garantidos. Para isso, é preciso que se construa um espaço multissetorial capaz de absorver a complexidade de demandas dos diferentes setores envolvidos na pauta e que preserve o caráter de criação coletiva da internet.
A Coalizão Direitos na Rede entende que um ponto central de êxito de qualquer regulação dedicada às plataformas digitais está na criação de um órgão específico, dotado de autonomia funcional, financeira e administrativa, associado a um conselho multissetorial com capacidades deliberativas. Tal arranjo garantirá a tecnicidade e a participação pública necessárias ao detalhamento de regras, fiscalização do seu cumprimento e aplicação de sanções em caso de violações.
Entendemos que a criação de um órgão regulador é fundamental, uma vez que atualmente não existe nenhum órgão na administração pública direta ou indireta, com prerrogativas, acúmulo, capacidade ou estrutura para assumir integralmente essas atribuições. A Anatel possui um relevante papel na regulação de telecomunicações e no avanço da conectividade significativa, mas não possui expertise e estrutura suficientes para a regulação de plataformas. " [1]
[1] CDR. Órgão independente de supervisão das plataformas é essencial, mas não pode ser Anatel
. 28 abr. 2023. https://direitosnarede.org.br/2023/04/28/orgao-independente-de-supervisao-das-plataformas-e-essencial-mas-nao-pode-ser-anatel/ - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 20:57O cenário ideal é a criação de uma entidade autônoma para regulação de plataformas digitais. O Idec entende que nenhuma das instituições existentes contempla de maneira satisfatória as competências e expertise necessárias para a regulação de mercados digitais. Ademais, para evitar a captura de setores previamente regulados, o ideal seria a criação de uma autoridade em específico. Entretanto, para tanto, seria necessário que o governo reconhecesse a importância do tema e dedicasse orçamento para esse desenho.
ATRIBUIÇÕES (exemplificativas): Definir diretrizes de responsabilidade de plataformas digitais, limites e deveres com publicidade, sancionar empresas que descumprirem com o regulado, instituir medidas concretas de transparência. - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 17:16Existem Diretrizes em documentos internacionais, como as geradas pela Unesco no “Guidelines for regulating digital platforms: a multi-stakeholder approach to safeguarding freedom of expression and access information”, destacadas abaixo na língua original do documento, a fim de auxiliar na identificação de atribuições:
To fulfil the goal of regulation, the regulatory system should have the following powers:
- Establish standardized reporting mechanisms and formats. Ideally, reports should be made annually in a machine-readable format.
- Commission off-cycle reports if there are exigent emergencies, such as a sudden information crisis (such as that brought about by the COVID19 pandemic) or a specific event which creates vulnerabilities (for example, elections or protests).
- Summon any digital platform deemed non-compliant with its own policies or failing to protect users. Any decision by the regulator should be evidence-based, the platform should have an opportunity to make representations and/or appeal against a decision of non-compliance, and the regulatory system should be required to publish and consult on enforcement guidelines and follow due process before directing a platform to implement specific measures.
- Commission a special investigation or review by an independent third party if there are serious concerns about the operation or approach of any platform or an emerging technology when dealing with illegal content or content that risks significant harm to democracy and the enjoyment of human rights.
- Establish a complaints process that offers users redress should a platform not deal with their complaint fairly, based on the needs of the public they serve, the enforcement powers they have in law, their resources, and their local legal context.
- Oversee the fulfilment by the digital platforms of the five principles detailed in these guidelines, taking necessary and proportional enforcement measures, in line with international human rights law, when platforms consistently fail to implement these principles.
Fonte: Guidelines for regulating digital platforms: a multi-stakeholder approach to safeguarding freedom of expression and access information, Unesco. Link: https://www.unesco.org/en/internet-conference/guidelines - Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 17:14Destacamos algumas atribuições e características que julgamos importantes para instituição dedicada à implementação de regulação de plataformas no Brasil:
- Importância de uma estrutura multissetorial, respeitando o histórico de regulação da Internet no Brasil;
- Independentemente de qual será o órgão, que seja diverso da sociedade, não somente contando com representação das empresas ou setores públicos, mas também das famílias (pais, mães e responsáveis);
- Autonomia financeira;
- Independência para atuação;
- Quadro de pessoal suficiente e capacitado;
- Mecanismos para garantir que sua atuação possa gerar metas de curto, médio e longo prazo, para além de mudanças do Governo;
- Oversight externo da atuação;
- Cooperação Interinstitucional: Garantia de coordenação e diálogos entre diferentes atores sobre atribuições para regulação de plataformas;
- Cooperação Internacional: Fortalecimento de redes e compartilhamento de informações, especialmente pensando num contexto de fortalecimento da América Latina e de países de realidade de Sul Global;
- Competência da Autoridade: Difusão e efetiva aplicação do Comentário Geral 25:
125. Estados Partes devem assegurar que o presente comentário geral seja amplamente divulgado, inclusive através do uso de tecnologias digitais, a todas as partes interessadas relevantes, principalmente entre os parlamentos e autoridades governamentais, incluindo os responsáveis pela transformação digital transversal e setorial, bem como membros do judiciário, empresas, mídia, sociedade civil e o público em geral, educadores e crianças, e seja disponibilizado em múltiplos formatos e línguas, incluindo em versões apropriadas para as diferentes idades.
Fonte: Item 125 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:53Não é possível avaliar a criação de novas instituições sem uma definição clara dos problemas que a regulação pretende remediar. É prudente avaliar o impacto de qualquer legislação/regulação antes de fazê-lo.
Uma via a ser avaliada é a autorregulação regulada, especialmente considerando que a adoção de tecnologia é extremamente disseminada entre diversos setores da economia, que se transformam rapidamente, tornando desafiadora a criação de uma regulação ampla com efetividade quanto à aplicação e implementação a todos os atores. Nesse cenário, a autorregulação regulada se apresenta como a melhor solução, pois, a partir do estabelecimento de princípios direcionadores pelo órgão de supervisão com compromissos estabelecidos pelas plataformas, se mostra um mecanismo eficaz, que permitirá que as particularidades dos atores envolvidos sejam consideradas e possibilitará a continuidade da inovação.
Assim, considerando a diversidade de modelos de negócio exercidos pelas plataformas, a determinação do órgão supervisor deve compreender alguns pontos essenciais: competência técnica e independência funcional. O conhecimento e a competência para criar e aplicar diretrizes e sanções é de extrema importância em razão das particularidades do mundo digital e suas constantes transformações. Adicionalmente, há que se considerar a necessidade deste órgão ser independente para que possa atuar com técnica e imparcialidade.
Por fim, o estabelecimento de um órgão específico também deve considerar que os serviços digitais já são regulados por diversos órgãos e agências em temas específicos que são intrínsecos às suas atividades, como BACEN, CVM, Senacon e outros, fazendo-se necessário um juízo de necessidade e adequação quanto ao seu estabelecimento. Caso se entenda pela sua necessidade, a capacidade de comunicação deste órgão será de fundamental importância. O canal de comunicação deve (i) ser eficiente e buscar construir junto aos diferentes stakeholders, incluindo as plataformas, as regras e diretrizes necessárias; e (ii) buscar cooperar com o conjunto de reguladores setoriais que hoje atuam no cenário brasileiro, evitando o conflito de normas e entendimentos para maior eficiência e segurança jurídica. - Flávio Rech Wagner 15/07/2023 às 11:01[ Nota: A resposta abaixo é específica para o tema da moderação de conteúdos. ]
No caso da moderação de conteúdos em plataformas que permitem a postagem de conteúdos por terceiros, duas novas entidades podem ser criadas, para lidar com aspectos de regulação ainda não cobertos pelas entidades já existentes (CGI.br, CADE, SENACON, ANPD, PROCONs, órgãos de aplicação da lei), desde que seja garantida a devida articulação entre essas entidades.
Conforme sugerido em versão do PL 2630, essas duas entidades seriam:
1) Uma entidade de autorregulação, formada pelas próprias plataformas, destinada à revisão de decisões de moderação de conteúdo e contas por seus associados, por meio de provocação por aqueles afetados diretamente pela decisão.
2) Uma entidade autônoma de supervisão, com representação multissetorial, que, por meio de regulamentação própria, estabelecerá procedimentos de apuração e critérios de aplicação das sanções administrativas a infrações à legislação.
- Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 15/07/2023 às 00:24Sim. Nesse quesito, é importante atentar para a experiência de criação da Autoridade Nacional de Proteção de Dados. Inicialmente, foi instituída como órgão da Administração Pública direta da União, integrante da Presidência da República. Embora dotada de autonomia técnica, decisória, financeira, orçamentária, estabilidade e mandato fixo de seus diretores, a disposição como órgão centralizado impedia-lhe o exercício pleno de suas atividades, principalmente no que concerne ao exercício de funções que são próprias do Poder Público, sendo a natureza jurídica autárquica a mais indicada para atender a esse requisito. Aliás, esse entendimento foi proferido na ADI 1.717/DF (BRASIL, 2002), que julgou a constitucionalidade do art. 58 e seus parágrafos, da lei nº 9.649/1998. Nesse julgado, o Supremo Tribunal Federal firmou entendimento pela indelegabilidade, a uma entidade privada, de atividade típica de Estado que abrange poder de polícia, de tributar e de punir. O caso em questão refere-se à fiscalização do exercício de atividades profissionais regulamentadas, por Conselhos de fiscalização profissional, que também possuem natureza autárquica em regime especial.
- Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:12É necessária a criação de uma nova autoridade reguladora independente, dotada de especialização técnica em sua composição, bem como de autonomia administrativa e financeira. Esta entidade deve ser parte da administração pública indireta, a fim de que possa gozar da tecnicidade necessária ao exercício de suas atribuições. As referidas atribuições, por sua vez, devem incluir a regulamentação de dispositivos da lei, fiscalização de sua observância pelas plataformas, instauração de processos administrativos, aplicação de sanções cabíveis, coordenação com outras autoridades competentes e promoção da educação digital e da participação multissetorial em seus temas de atuação.
- Ricardo de Holanda Melo Montenegro 12/07/2023 às 10:36Não vejo necessidade de criação de novos órgãos públicos.
É impraticável para cada nova tecnologia, serviço ou solução digital nova, o Estado criar um órgão público, portanto, um gasto desnecessário para o orçamento público.
A solução pode ser modernizar a estrutura administrativa e do Estado Regulador, tornar a gestão mais participativa (multisetorial) e considerar as alternativas existentes, p.ex.: autorregulação regulada, autorregulação, fiscalização conciliatória, segregação de funções, atividades exclusivas de Estado etc. - Abranet - Associação Brasileira de Internet (comentário inserido por: Aline Viotto) 07/07/2023 às 18:23Em propostas que têm sido aventadas para fiscalizar a atuação das plataformas digitais, o estabelecimento de novas estruturas de regulação é opção recorrente. No caso do Reino Unido, ainda em 2021 a autoridade concorrencial estabeleceu uma vertente específica para tratar de mercados digitais: a Digital Markets Unit (“DMU”). Inicialmente estabelecida de forma informal, a nova estrutura regulatória é agora objeto de um projeto de lei para ter suas atividades legalmente previstas na regulação britânica de plataformas digitais (via Digital Markets, Competition and Consumers Bill).
Também em sede de exemplo internacional, a União Europeia aprovou em 2022 tanto o Digital Markets Act quanto o Digital Services Act, os quais possuem aplicabilidade manifesta ao contexto de atuação das plataformas digitais. Ainda que em ambos os casos a estrutura regulatória responsável pela aplicação dos normativos seja a Comissão Europeia, foi criada uma estrutura específica para subsidiar a atividade da Comissão em temas de elevada expertise, como ciência de dados e algoritmos: o European Centre for Algorithmic Transparency. Fica evidente dos casos britânico e europeu que as particularidades de condições e de desafios trazidos pelos mercados digitais não passam despercebidas pelas autoridades regulatórias já existentes, que reformulam suas competências para abrir espaço a novas estruturas na governança da economia digital – seja para assessoramento, seja para regulação efetiva.
Na realidade brasileira, propostas que se orientam para a regulação de plataformas digitais também trazem a ideia de instituição de uma nova autoridade regulatória para dispor do assunto. No contexto do PL 2.630/2020, o texto original apresentado previa a instituição de um “Conselho de Transparência e Responsabilidade na Internet”. Tratando do mesmo Projeto de Lei e em maio deste ano, a Ordem dos Advogados do Brasil, por meio da Comissão Especial de Direito Digital de seu Conselho Federal, sugeriu a construção de um “Sistema Brasileiro de Regulação de Plataformas Digitais tripartite”, com instâncias decisórias plurais compostas por membros indicados pelos três Poderes da República, além da presença de órgãos reguladores e da própria OAB. A proposta da OAB em comento apontava que a implementação de uma regulação de plataformas não poderia prescindir de um órgão independente encarregado de supervisionar seu cumprimento, pontuando que, no Brasil, nenhum órgão, setor ou agente tem demonstrado que, sozinho, poderia desempenhar essa função a contento. O modelo concebido pela OAB evidencia duas questões: (i) a necessidade de estruturação de uma nova autoridade regulatória para monitorar a atuação das plataformas digitais e (ii) a incapacidade de que uma única perspectiva informe a atuação da estrutura regulatória a ser concebida, propugnando por questões de composição plural e multissetorialidade.
É em linha com todas essas tendências que se situa o entendimento da ABRANET. Para a associação, uma regulação de plataformas digitais que se pretenda apta a endereçar efetivamente os desafios da economia digital não se encaixa exclusivamente na competência de nenhuma das autoridades regulatórias já instituídas no país – daí a necessidade de constituição de uma nova autoridade para ficar a cargo dessa função.
Mais que isso, contudo, é preciso consorciar perspectivas diversas na instrução dessa nova estrutura regulatória, pelo que a multissetorialidade deve ser um de seus valores mais caros, em linha com a trajetória de como a regulação da internet vem sendo construída no Brasil desde o Marco Civil da Internet (Lei 12.965/2014). Nesse sentido, a estrutura da nova autoridade regulatória seria composta por representantes do setor público, privado, sociedade civile academia. Os diferentes representantes comporiam um conselho ou comitê, encarregado de fiscalizar a aplicação de diretrizes legalmente estabelecidas, bem como o cumprimento de compromissos assumidos em sede de autorregulação pelas plataformas digitais.
Deste comitê participariam enquanto representantes do setor público: (i) o Conselho Administrativo de Defesa Econômica (“Cade”), dado o intenso debate relacionado às repercussões concorrenciais da atuação das plataformas digitais; (ii) A Autoridade Nacional de Proteção de Dados (“ANPD”), por sua competência para fiscalizar e regulamentar plataformas digitais, no que concerne à proteção de dados pessoais; (iii) a Secretaria Nacional do Consumidor (“Senacon”), por seu papel de coordenação e execução da política nacional de proteção e defesa do consumidor, que cada vez mais utiliza das plataformas digitais para suas práticas de consumo; (iv) a Secretaria de Comunicação Social da Presidência da República, especialmente em sua atual Secretaria de Políticas Digitais, a quem compete, dentre outras prerrogativas, formular e implementar políticas públicas para promoção da liberdade de expressão, do acesso à informação e de enfrentamento à desinformação na internet; (v) o Ministério da Justiça, que tem intensificado sua atuação na seara digital, por meio da Coordenadoria para Direitos Digitais; e (vi) representantes dos Poderes Legislativo e Judiciário, indicados por estes próprios Poderes e com expertise no tema, pela importância de que tópico tão importante quanto a regulação das plataformas digitais conte com a contribuição de todos os Poderes da República na definição de seus contornos.
Representando o setor privado, associações de mercado participariam da nova estrutura responsável pela fiscalização das plataformas digitais; notadamente a ABRANET – cuja história se confunde com a trajetória da internet brasileira, e hoje possui mais de 400 associados – mas também outras associações e fóruns que sejam representativos da pluralidade de atores que exercem suas atividades no ambiente digital.
Nesta linha de reconhecer a diversidade do ecossistema digital é que o comitê deve abrir espaço também para a sociedade civil como um todo, reservando assentos para associações representativas dos diversos interesses que são impactados pela atividade transversal das plataformas digitais.
Por fim, a comunidade acadêmica seria representada por pesquisadoras e pesquisadores renomados, com notório saber em assunto da internet – e indicados por universidades e fóruns específicos de debate do ecossistema digital. Também teria lugar o próprio CGI.br, que desempenha importante papel na disseminação de conhecimento relacionado ao espaço digital.
No contexto de refletir sobre os atores que devem participar da regulação das plataformas digitais, importante destacar que, a despeito de mobilizações que se tem apresentado, descabe à Anatel o papel de reguladora única desse tema. A prerrogativa da autarquia de regular infraestrutura passiva, como torres e antenas, necessária à estruturação do ecossistema digital, em nada lhe assiste na regulamentação propriamente dita dos desafios suscitados pelo funcionamento desse ecossistema – e, nesse diapasão, das plataformas digitais. Em outras palavras, a camada de infraestrutura não se confunde com a de aplicações da Internet.
A dependência fática de uma infraestrutura para a prestação de um serviço ou execução de uma atividade não repercute em uma dependência ou mesmo proximidade regulatória relativamente a como devem ser organizadas essas atividades econômicas, pelo que é evidente que suas autoridades regulatórias não necessariamente precisam coincidir. Tal acontece relativamente à Anatel, que se depara com temas, atores, ecossistema, modelos de negócio e ritmo de alteração regulatória substancialmente distintos dos quais está acostumada a lidar em sua atividade corrente. Por serem distintas as camadas de aplicações e de infraestrutura de rede, não há qualquer proximidade temática que justifique os pleitos de participação da Agência Nacional de Telecomunicações na regulação das plataformas digitais. Mais que isso, a Lei Geral de Telecomunicações expressamente retira da competência da Anatel a possibilidade de regulação da internet, ao estabelecer que os serviços de valor adicionado, que tem por suporte os serviços de telecomunicações, com eles não se confundem, pelo que as atividades econômicas que têm lugar na internet não são serviços de telecomunicações, restando além da competência regulatória da Anatel (Lei 9.472/1997, art. 61, § 1º). Dessa forma, à Agência Nacional de Telecomunicações não cabe ser a reguladora do tema.. No limite, pela regulação da infraestrutura de rede tangenciar a operação da camada de aplicações na internet, seria possível cogitar a participação da Anatel enquanto mais uma representante do setor público na nova autoridade que ora se delineia, mas não há qualquer fundamento que embase um papel de primazia para a Agência Nacional de Telecomunicações nesse esforço regulatório sobre as plataformas digitais.
Elencados os representantes que devem compor a nova autoridade responsável pela regulação das plataformas digitais, cabe especificar a função que se espera que esses agentes executem. Na compreensão da ABRANET, o desenho regulatório que deve ser aplicado às plataformas digitais não deve ser o da clássica regulação “comando e controle”, com a autoridade pública estabelecendo regras e impondo sanções aos agentes privados em caso de descumprimento. Dada a (i) complexidade temática, (ii) multiplicidade de atores e modelos de negócios envolvidos e (iii) natureza dinâmica das plataformas digitais, potencialmente suscitando novos desafios regulatórios de forma recorrente, a ABRANET acredita veementemente que a modelagem regulatória mais eficaz se assenta em práticas de autorregulação regulada, a exemplo do que já acontece – com sucesso – no setor financeiro, na relação entre o Banco Central e a Associação Brasileira das Entidades dos Mercados Financeiro e de Capitais (“Anbima”). Nessa abordagem, a autoridade pública se encarrega fundamentalmente de supervisionar e fiscalizar a atividade de autorregulação, elaborada e levada a cabo pelos próprios agentes de mercado, coletivamente.
No caso da Anbima, a associação edita códigos de regulação e melhores práticas, a partir de sugestões e mediante aprovação dos associados, cujas disposições são posteriormente supervisionadas pela própria associação e avaliadas em seu cumprimento por um conselho independente. Toda essa atividade de governança setorial é realizada em sintonia com as prerrogativas do Bacen, que mantém sua competência para fiscalizar e disciplinar instituições financeiras. De resto, a prática normativa da Anbima é complementar à regulação estatal, não podendo sobrepô-la nem a contradizer.
A reprodução de tal modelagem no contexto das plataformas digitais teria o benefício de assegurar espaços de autonomia regulatória às empresas atuantes no setor, o que é desejável dados os elementos de complexidade temática, multiplicidade de atores e modelos de negócios envolvidos e natureza dinâmica das plataformas digitais, fatores que obstaculizam uma regulação ágil e eficaz da parte do Poder Público. De resto, a proposta de autorregulação está alinhada com o arcabouço normativo vigente, que reconhece as plataformas digitais como instâncias primeiras no exercício da moderação de conteúdo, passíveis de serem responsabilizadas por conteúdo de terceiros apenas em casos de descumprimento de ordem judicial determinando remoção específica (art. 19 do Marco Civil da Internet – Lei 12.965/2014).
De outro lado, a previsão da autoridade multissetorial delineada anteriormente, encarregada de supervisionar e fiscalizar a atividade autorreguladora das plataformas digitais, asseguraria o cumprimento dessas regras por parte dos agentes de mercado, preservando as diretrizes exaradas pela regulação estatal. É esta função de supervisão e monitoramento da autorregulação privada que compete, no melhor entendimento da ABRANET, às autoridades públicas anteriormente elencadas, reunidas na nova autoridade multissetorial aqui delineada. - CEIIAS, Centro de Estudos Integrados, Infancia, Adolescencia e Saude (comentário inserido por: Evelyn Eisenstein) 03/07/2023 às 16:57SIM, uma COALIZAO TRIPARTIDE com orgaõs do governo, BTechs e Sociedade Civil que lidem com as questões de crianças e adolescentes no mundo digital, especialistas existem e trabalham muitos anos fazendo alertas sobre os riscos exemplo, rede ESSE Mundo Digital www.essemundodigital.com.br
- carolina christofoletti 26/06/2023 às 14:30Sim, em razão da hiper-especialidade do tópico, cujo volume de informação à revisão cresce exponencialmente - e sobre pena de banalização e hiper-generalidade do regulamento, o que pode torna-lo abusivo à luz de um cem número de interpretações e inaplicabilidades, ao invés de trazer à este a necessária clareza informativa.
O assessoramento de risco deve ser medida anterior à regulação, a fim de que se possa garantir que a mesma toca sobre problemas concretos e sobre a qual se têm compreensão mínima - tal como implementado no modelo inglês e australiano. - Rede Narrativas (comentário inserido por: Larissa Sampaio) 22/06/2023 às 15:36[SUGESTÃO ENVIADA PELA REDE NARRATIVAS]
Sim. Criação de agência pública dedicada que tenha especialistas em desenvolvimento de código para avaliação de algorítmicos e códigos;
Criação de novas instituições capazes de atuar permanentemente na regulação. - Christian Abreu 21/06/2023 às 09:47Não há necessidade. Ao contrário, a criação de quaisquer entidades ou mecanismos representa um risco para a Internet como conhecemos e valorizamos.
- Victor Lippi Zaccariotto 13/05/2023 às 22:47Acho importante que exista um órgão responsável pela regulação. Por se tratar de um meio tão sensível e que tem impactado a sociedade signficativamente e permitido infrações de forma tão descontrolada, é necessário que se dê a devida atenção ao tema. A própria LGPD que deu origem a ANPD, ao meu ver não é tão importante quanto a regulação das plataformas digitais. Vejo a LGPD como uma subdivisão da regulação digital. Se a subdivisão tem órgão, porque o divisão principal não teria? É importante também que esse órgão tenha uma representação ampla para que as decisões sejam avaliadas de forma imparcial. Por fim e não menos importante, esse órgão deve ter blindagem para que suas decisões não sejam afetadas por viés político e não seja afetado pelas gestões governamentais.
- Rodrigo Pereira 25/04/2023 às 20:37No que me toca a participação do terceiro setor no controle social e da garantia de direitos e deveres é fundamental. Mas se as instituições de autoridade de governança da internet forem efetivamente independentes, com regimento e estatutos "pétrios" para evitar corrupções por questões de mudanças de governo, já teremos uma estrutura forte, para saber das delegações de responsabilidade seja quem for. Com esta superestrutura bem criada, creio que pode-se esperar uma evolução para uma transdisciplinaridade em que todos os atores de cada setor tenham uma capilaridade de saber que produza naturalmente uma cultura de responsabilidade compartilhada por um mundo melhor, para além dos interesses de entidade.
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:38[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Arquitetura institucional multissetorial, envolvendo Estado, sociedade civil, academia e empresas. A regulação deve considerar diferentes camadas de atribuições e responsabilidades, contanto centralmente com órgão regulador e conselho multissetorial, além de envolver o Comitê Gestor da Internet no Brasil (CGI.br).
Essa arquitetura deve ser capaz de envolver também ministérios para formulação e execução de políticas convergentes, o que deve significar a reorganização de outros órgãos que agências hoje relacionados às comunicações e à proteção de dados.
O Judiciário também tem seu papel e deve se estruturar para responder com mais celeridade e julgar possíveis violações. Os agentes regulados podem desenvolver também medidas autorregulatórias, observando o necessário cumprimento das normas que serão criadas e/ou implementadas a partir do órgão regulador. - ITS Rio (comentário inserido por: Carlos Affonso Souza) 16/07/2023 às 19:12Em geral, é preciso considerar a insuficiência de medidas de regulação estatal pura no campo das plataformas digitais. Essas empresas assumiram tamanho protagonismo na gestão do discurso público e político que passaram a rivalizar em alguns aspectos com o Estado-nação. Isso é alavancado por uma concentração de precedentes de poder econômico aliada à natureza eminentemente transnacional da oferta de serviços digitais. Ou seja, regular é preciso, mas não é suficiente, justamente porque o Estado-nação já não conta mais com os instrumentos necessários para atingir todos os aspectos do funcionamento dessas plataformas digitais que impactam no exercício e proteção de direitos humanos e fundamentais, bem como nos desdobramentos de processos democráticos. Assim, é mais promissora a aposta em mecanismos de co-regulação, onde o Estado-nação se posiciona ao lado das plataformas como colaborador no sentido de construir, sempre de forma dialógica e cooperativa, soluções técnicas para as externalidades negativas identificadas (como discurso de ódio, ataques ao Estado Democrático de Direito, violação da privacidade, dentre outros).
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:29Não é possível avaliar a criação de novas instituições sem uma definição clara dos problemas que a regulação pretende remediar. É prudente avaliar o impacto de qualquer legislação/regulação antes de fazê-lo.
O atual mercado digital é extremamente diverso e se transforma rapidamente tornando desafiador a criação de uma regulação ampla com efetividade quanto a aplicação e implementação a todos os atores. Nesse caminhar, a auto regulação regulada encontra-se como melhor solução. O estabelecimento de princípios direcionadores pelo órgão de supervisão com compromissos estabelecidos pelas plataformas pode se caracterizar como mecanismo extremamente eficaz, que considerará as particularidades dos atores envolvidos possibilitando a continuidade da inovação.
Assim, considerando a diversidade de modelos de negócio exercidos pelas plataformas, a determinação do órgão supervisor deve compreender alguns pontos essenciais: competência técnica e independência funcional. O conhecimento e a competência para criar e aplicar diretrizes e sanções é de extrema importância em razão das particularidades do mundo digital e suas constantes transformações. Adicionalmente, há que se considerar a necessidade deste órgão ser independente para que possa atuar sem sofrer a interferência de interesses não necessários.
Se for necessário o órgão supervisor, sua capacidade de comunicação será de fundamental importância. O canal de comunicação deve ser eficiente e buscar construir junto aos stakeholders do ecossistema, incluindo as plataformas, as regras e diretrizes necessárias. Esse canal também deverá buscar cooperar com o conjunto de reguladores setoriais que hoje atuam no cenário brasileiro, evitando o conflito de normas e entendimentos para maior eficiência e segurança jurídica.
- José Antonio Galhardo 16/07/2023 às 11:08A Agência convocaria os diversos atores de acordo com o tipo de problema a ser enfrentado. Por exemplo, se é um negócio que envolve o setor de saúde: ANPD, Ministério da Saúde, ANVISA, SUSEP, CADE, Comissões especializadas da Câmara e do Senado, Ministério Público, Judiciário, Órgãos de classe profissional, Sindicatos e Associações empresariais e de trabalhadores, Organizações da sociedade civil de usuários, OMS...
Se é um negócio que envolve o sistema financeiro ou mobiliário: ANPD, CADE, BACEN, CVM, Receita Federal, Serpro, Comissões legislativas, FEBRABAN, Associações de Fintechs, Sindicatos e Associações de trabalhadores, Organizações de defesa de direitos de consumidores, BIS...
Se é um negócio que envolve educação..., energia,... trânsito e transporte..., segurança privada ou pública..., trabalho..., espaço aéreo...., jornalismo..., esportes...
Ou seja, um Agência capaz de identificar e articular o trabalho coletivo de atores essenciais para tratar as especificidades de cada situação discutida. Além disso, uma agência com capacidade técnica - própria, requisitada e contratada, de acordo com a necessidade - e com poder de fiscalizar e punir as empresas, conforme estabelecido na legislação e nas diretrizes do Conselho Gestor. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 21:00"É essencial reafirmar a defesa da regulação pública democrática em um cenário em que forças ligadas a pressões de interesses escusos e/ou ligados às plataformas têm promovido uma campanha baseada em mentiras e distorções para tentar derrotar o projeto (como a mentira de que a proposição censuraria textos religiosos). [...] Não há uma regulação pública democrática sem instituições públicas democráticas, multissetoriais e com autonomia em relação a grupos privados e governos. [...] A existência de órgãos reguladores, tão comum em países que amadureceram a compreensão sobre políticas de comunicação, é fundamental à democracia, pois possibilita o debate de proposições, garante olhar técnico sobre as questões e abre espaço para a participação de diversos setores da sociedade." [1]
[1] CDR. PL 2630: Regulação pública democrática das plataformas é fundamental, com instituições autônomas e participativas. 28 abr. 2023. Disponível em: https://direitosnarede.org.br/2023/04/28/pl-2630-regulacao-publica-democratica-das-plataformas-e-fundamental-com-instituicoes-autonomas-e-participativas/. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 21:00Inicialmente, é fundamental que os processos sancionatórios ou fiscalizatórios, além de outros procedimentos administrativos, possibilitem a participação de legitimados interessados, nos termos do art. 9º c/c art. 49-B e art. 49-D da Lei 9.784/99, que regula o processo administrativo no âmbito da Administração Pública Federal.
No âmbito das entidades públicas é fundamental que as ações sejam articuladas, (i) impedindo o bis in idem, (ii) possibilitando a melhor atuação da administração pública, inclusive em termos de economicidade. Sob a forma de cooperação institucional, ainda que determinado órgão lidere, é necessário que outras entidades possam contribuir na medida de sua competência. Para isso, não basta a mera cooperação, sendo essencial a possibilidade de contribuição mediante pareceres e documentos jurídico-técnicos, por outras entidades. Ou seja, para além de serem firmados Acordos de Cooperação Técnica (ACT) entre autoridades, é também necessário ter um efetivo plano de trabalho para garantir exequibilidade e eficiência na cooperação.
Já no âmbito privado, a participação de terceiros possibilita a contribuição técnica de organizações e associações representativas, no tocante a direitos e interesses coletivos, além de pessoas jurídicas e físicas que deram início ao processo administrativo por meio de representação. Nesse sentido, a transparência pública deve ser prioritária e orientar a atuação do órgão regulador. - João Coelho 15/07/2023 às 17:15Integração da Proteção Online de Crianças às Políticas Nacionais de Proteção à Criança:
25. Proteção online das crianças deve ser integrada às políticas nacionais de proteção à criança. Estados Partes devem implementar medidas que protejam as crianças de riscos, incluindo a ciberagressão e a exploração e abuso sexual de crianças online facilitados pela tecnologia digital, assegurar a investigação desses crimes e fornecer reparações e apoio às crianças que são vítimas. Devem também atender às necessidades de crianças em situações de desvantagem ou vulnerabilidade, inclusive fornecendo informações acessíveis às crianças que sejam, quando necessário, traduzidas para línguas minoritárias relevantes.
Fonte: Item 25 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Coordenação
27. Para abarcar as consequências transversais do ambiente digital para os direitos das crianças, Estados Partes devem definir um órgão governamental encarregado de coordenar políticas, diretrizes e programas relacionados aos direitos das crianças entre os departamentos do governo central e os vários níveis de governo. O mencionado mecanismo de coordenação nacional deve envolver as escolas e o setor de tecnologia da informação e comunicação e cooperar com empresas, sociedade civil, academia e organizações para realizar os direitos das crianças em relação ao ambiente digital nos níveis multissetoriais, nacionais, regionais e locais. Ele deve se basear em conhecimentos tecnológicos e outros conhecimentos relevantes dentro e fora do governo, conforme necessário, e ser avaliado independentemente quanto à sua eficácia no cumprimento de suas obrigações.
Fonte: Item 27 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
No Brasil, o CONANDA, implementado em 1991, é o principal órgão do sistema de garantia de direitos das crianças e adolescentes. Dentre as principais atribuições do Conselho, por meio de gestão compartilhada entre governo e sociedade, estão: a definição de políticas para a área da infância e adolescência e de normas gerais e fiscalização de tais ações; o acompanhamento da elaboração e execução do Orçamento da União, garantindo a destinação privilegiada de recursos para políticas direcionadas a essa população; além da gestão do Fundo Nacional da Criança e do Adolescente (FNCA).
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 81 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Da cooperação bilateral e multilateral em nível internacional
123. A natureza transfronteiriça e transnacional do ambiente digital requer uma forte cooperação internacional e regional, para assegurar que todos os interessados, incluindo Estados, empresas e outros atores, efetivamente respeitem, protejam e cumpram os direitos das crianças em relação ao ambiente digital. Portanto, é vital que os Estados Partes cooperem bilateral e multilateralmente com organizações não governamentais nacionais e internacionais, agências das Nações Unidas, empresas e organizações especializadas em proteção à criança e direitos humanos em relação ao ambiente digital.
Fonte: Item 123 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
124. Estados Partes devem promover e contribuir para o intercâmbio internacional e regional de expertise e boas práticas e estabelecer e promover a capacitação, recursos, padrões, regulações e proteções além das fronteiras nacionais que permitam a efetivação dos direitos das crianças no ambiente digital por todos os Estados. Eles devem incentivar a formulação de uma definição comum do que constitui um crime no ambiente digital, a assistência jurídica mútua e a coleta conjunta e o compartilhamento de provas.
Fonte: Item 124 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Alocação de Recursos:
28. Estados Partes devem mobilizar, alocar e utilizar recursos públicos para implementar legislação, políticas e programas para concretizar totalmente os direitos das crianças no ambiente digital e aprimorar a inclusão digital, que é necessária para enfrentar o crescente impacto do ambiente digital na vida das crianças e para promover a igualdade de acesso e acessibilidade de serviços e conectividade.
Fonte: Item 28 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
O art. 4o, d, do ECA determina que os Estados devem garantir a “destinação privilegiada de recursos públicos nas áreas relacionadas com a proteção à infância e à juventude”, inclusive para estratégias de proteção digital.
Fonte do Trecho: Comentário Geral Nº 25 sobre os direitos das crianças em relação ao ambiente digital: Versão Comentada, p. 83 - https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Alocação de recursos para investigação e responsabilização de crimes cometidos no ambiente digital
116. Estados Partes devem assegurar que uma legislação apropriada esteja em vigor para proteger as crianças dos crimes que ocorrem no ambiente digital, incluindo fraude e roubo de identidade, e para alocar recursos suficientes para assegurar que os crimes no ambiente digital sejam investigados e processados. Estados Partes também devem exigir um alto padrão de segurança cibernética, privacidade por design e segurança por design nos serviços e produtos digitais que as crianças utilizam, para minimizar o risco desses crimes.
Fonte: Item 116 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Monitoramento independente
31. Estados Partes devem assegurar que os mandatos das instituições nacionais de direitos humanos e outras instituições independentes apropriadas contemplem os direitos das crianças no ambiente digital e que elas sejam capazes de receber, investigar e tratar reclamações de crianças e seus representantes. Quando existirem órgãos independentes de supervisão para monitorar as atividades relacionadas ao ambiente digital, as instituições nacionais de direitos humanos devem trabalhar em estreita colaboração com esses órgãos no cumprimento efetivo de seus mandatos relativos aos direitos das crianças.
Fonte: Item 31 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/
Colaboração internacional para investigação e solução de crimes contra crianças e adolescentes e para capacitação de profissionais:
47. Tecnologias digitais trazem uma complexidade adicional para a investigação e a acusação de crimes contra crianças, que podem cruzar fronteiras nacionais. Estados Partes devem abordar as formas pelas quais os usos das tecnologias digitais podem facilitar ou impedir a investigação e a acusação de crimes contra crianças e tomar todas as medidas preventivas, coercitivas e corretivas disponíveis, inclusive em cooperação com parceiros internacionais. Eles devem fornecer treinamento especializado para oficiais responsáveis pela aplicação da lei, promotores e juízes sobre violações dos direitos da criança especificamente associadas ao ambiente digital, inclusive por meio da cooperação internacional.
Fonte: Item 47 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:53Não é possível avaliar novos arranjos institucionais sem uma definição clara dos problemas que a regulação pretende remediar. É prudente avaliar o impacto de qualquer legislação/regulação antes de fazê-lo.
- Flávio Rech Wagner 15/07/2023 às 11:04A governança da Internet em geral, e a regulação de plataformas em particular, são necessariamente policêntricas e multissetoriais. Há múltiplos atores públicos e privados que devem estar envolvidos, dentro de suas respectivas competências, conforme a farta legislação já em vigor e que é suficiente para a regulação das múltiplas dimensões da operação das plataformas digitais.
A articulação entre essas múltiplas entidades deve ser um esforço permanente do setor público e das entidades não-públicas relacionadas à regulação de plataformas, como o CGI.br, respeitadas as competências dessas entidades e sem a necessidade de criação de novas entidades.
O Marco Civil da Internet já prevê que o CGI.br deve estabelecer diretrizes a serem seguidas por órgãos como a Anatel, CADE e SENACON, em dimensões que têm forte relação com a regulação de plataformas. Não há razão para mudanças neste arranjo.
No caso da moderação de conteúdos em plataformas que permitem a postagem de conteúdos por terceiros, em particular, caso uma nova legislação venha a estabelecer a criação de uma entidade autônoma de supervisão, tal entidade, desde que dotada de composição multissetorial adequada, poderia ficar responsável pela promoção da articulação entre as múltiplas outras entidades responsáveis por dimensões variadas da regulação destas plataformas, respeitadas suas respectivas competências. - Instituto de Pesquisa em Direito e Tecnologia do Recife (comentário inserido por: Rhaiana Valois) 15/07/2023 às 00:26Em respeito ao princípio da legalidade, é imprescindível que sejam tipificadas condutas ilícitas e as respectivas sanções administrativas a que estarão sujeitas as plataformas digitais, bem como que seja normatizada a dosimetria e aplicação dessas sanções administrativas, aos moldes do praticado pela ANPD, em recente publicação da RESOLUÇÃO CD/ANPD Nº 4, DE 24 DE FEVEREIRO DE 2023 (https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-publica-regulamento-de-dosimetria/Resolucaon4CDANPD24.02.2023.pdf).
A ausência dessas normatizações ensejará insegurança jurídica, pois deixará a critério da autoridade reguladora a interpretação do direito conforme o caso concreto, violando à proibição da analogia para punir a empresa. Ademais, é imprescindível que todos tenham o conhecimento das sanções a que estão sujeitos, em caso de prática de infrações definidas em normas jurídicas. - Instituto de Referência em Internet e Sociedade (IRIS) (comentário inserido por: Ana Bárbara Gomes Pereira) 14/07/2023 às 21:12Similarmente ao modelo adotado em outras agências reguladoras, o arranjo articularia, no nível governamental, um comitê como instância de participação social multissetorial e atribuições propositivas e consultivas (o CGI.br) a uma autoridade dotada de capacidades institucionais e técnicas para normatização, adjudicação, fiscalização e aplicação de sanções. A atuação desta autoridade deveria ser coordenada com diversas outras entidades do ecossistema de governança das plataformas digitais, o que poderia ser promovido por meio de Acordos de Cooperação Técnica voltados à realização de ações de interesse comum e produção coordenada de subsídios para atuação institucional. Quanto à interação com o setor privado, seria importante que a legislação definisse competências de forma nítida, a fim de evitar duplicidade e sobreposição de esforços entre diferentes instituições, tanto no setor público quanto na iniciativa privada.
- Sarah Martins 14/07/2023 às 19:05- Espaços de Autorregulação e Corregulação (Item 42):
Na temática de regulação de plataformas, a Brasscom gostaria de trazer para o debate a importância de se considerar mecanismos de autorregulação e corregulação.
Ainda que a regulação de plataformas possa, por eventual escolha legislativa, se apoiar em mandamentos legais cuja fiscalização caiba ao Poder Público, a complexidade e as dimensões do ecossistema digital, assim como o pleno conhecimento que as empresas têm de seus serviços, são elementos que fazem com que a sua atuação não possa ser ignorada quando se fala de uma regulação eficaz.
Vale mencionar que mecanismos de autorregulação ou de corregulação, mais do que meras possibilidades de interação entre o público e o privado, são imprescindíveis para garantir que qualquer regulação criada seja efetiva. (9) Não é por outro motivo que instrumentos regulatórios, como códigos de conduta e a eleição de medidas de mitigação pelas próprias plataformas. Além disso, em âmbito nacional, a própria Lei Geral de Proteção de Dados (LGPD) traz ferramentas de autorregulação e corregulação, como previsto em seu art. 50. (10)
Mais do que isso, a autorregulação, em seus mais diversos desenhos, não deve ser vista como elemento estranho no ordenamento jurídico brasileiro, já que há pelo menos duas experiências amplas e transversais que continuam a se mostrar bem-sucedidas anos após seu estabelecimento: a ANBIMA (Associação Brasileira das Entidades dos Mercados Financeiro e de Capitais), que define boas práticas para o mercado financeiro, e o CONAR (Conselho Nacional de Autorregulamentação Publicitária), que normatiza e faz valer regras para o mercado publicitário.
(9) v. por exemplo PODSZUN, R. Private Enforcement and Gatekeeper Regulation: Strengthening the Rights of Private Parties in the Digital Markets Act, Journal of European Competition Law & Practice, Volume 13, Issue 4, June 2022, pp. 254–267, https://doi.org/10.1093/jeclap/lpab076 & PICHT, P. Private Enforcement for the DSA/DGA/DMA Package. Verfassungsblog, 3 setembro 2021. Disponível em: https://verfassungsblog.de/power-dsa-dma-09/
(10) Art. 50. "Os controladores e operadores, no âmbito de suas competências, pelo tratamento de dados pessoais, individualmente ou por meio de associações, poderão formular regras de boas práticas e de governança que estabeleçam as condições de organização, o regime de funcionamento, os procedimentos, incluindo reclamações e petições de titulares, as normas de segurança, os padrões técnicos, as obrigações específicas para os diversos envolvidos no tratamento, as ações educativas, os mecanismos internos de supervisão e de mitigação de riscos e outros aspectos relacionados ao tratamento de dados pessoais."
- Ricardo de Holanda Melo Montenegro 12/07/2023 às 11:10Talvez possamos pensar em um arranjo institucional híbrido, como boa prática para o devido processo tecnológico, com funções colaborativas, de gestão compartilhada e por competências, que prioriza a governança e regulação participativa e colaborativa multisetorial, em que os planos estratégicos, as decisões e instâncias recursais (ex.: apelação) sejam realizados por um Conselho Gestor multisetorial.
A título exemplificativo, poderia ser um "Conselho Gestor para Liberdade de Expressão, Comunicação e Serviços Digitais na internet", um órgão multisetorial e colaborativo vinculado à órgão federal, mas com autonomia, que funcione com transparência de suas reuniões e decisões, composto com equidade representativa, especialmente por representantes da sociedade civil organizada, movimentos sociais que possuam entre seus objetivos a cultura digital e a democratização dos meios de comunicação, por consumidores de notório saber técnico, setor privado empresarial e setor público, por representantes da Ordem dos Advogados do Brasil (licenciados e sem conflitos de interesse) etc.
Esse arranjo institucional pode viabilizar as igualdades material e processual tecnológicas, prestigiar mecanismos de paridade de armas (digital), bem como segmentar as competências funcionais de fiscalizar, regular, julgar, implementar políticas públicas, congregando os diversos interesses conflitantes para um cenário regulatório convergente e de diversidade da atividade econômica.
Nesse sentido, a segmentação de competências é primordial para o arranjo institucional em modelo híbrido proposto, o qual tem como fundamento o princípio da segregação de funções.
A função “fiscalizar”, desse arranjo híbrido, pode ser fortalecida com métodos autocompositivos como a conciliação, por opção e autonomia do consumidor e, considerada a atividade típica de Estado, prestigiar também o devido processo tecnológico para fiscalizar, mitigar o abuso do poder tecnológico e o abuso à figura do consentimento e seus desvios quando da prestação de serviços digitais pelas Big Techs. - Autoridade Nacional de Proteção de Dados (comentário inserido por: Caroline Kappel) 07/07/2023 às 10:26Cumpre reforçar que, independentemente da decisão que vier a ser tomada sobre a abordagem regulatória e sobre o órgão regulador, devem ser preservadas as competências da ANPD relativas à proteção de dados pessoais, incluindo as de regulamentação, fiscalização e aplicação de sanções administrativas, nos termos da LGPD.
Com efeito, o tratamento intensivo de dados pessoais está na base do modelo de negócios das plataformas digitais, de modo que, para que a regulação e a garantia de direitos no ambiente digital sejam efetivas, é necessário adotar como premissa o fortalecimento das instituições existentes, estabelecendo regras coerentes que promovam a cooperação e a coordenação entre os órgãos reguladores e o respeito às suas competências e prerrogativas. Eventual regulamentação que desrespeite essa premissa – por exemplo, com limites imprecisos para o exercício de competências legais dos órgãos reguladores, com a ausência de regras de coordenação e de cooperação ou, ainda, com a atribuição de competências relativas à proteção de dados pessoais a outra entidade pública – traria forte insegurança jurídica e criaria riscos de fragmentação regulatória e de sobreposição de competências com a ANPD. Em última análise, seriam colocadas em posição frágil a própria regulação e a garantia do direito fundamental à proteção de dados pessoais no ambiente digital.
Assim, propõe-se que a futura regulação sobre o tema, independentemente da estrutura regulatória adotada, enfatize e preserve de forma expressa as competências da ANPD, no que concerne à proteção de dados pessoais e aos direitos à privacidade, reforçando, dessa forma, as competências que a Autoridade já possui e o mandato legal que lhe foi conferido pela LGPD. Sugere-se, para tanto, que sejam mantidas na ANPD as competências pertinentes à regulamentação, à fiscalização e à aplicação de sanções relativas aos temas mencionados abaixo e que se relacionam com a proteção de dados pessoais, com a prevalência das competências da ANPD, nesta área, conforme já disposto no art. 55-K da LGPD.
Dessa forma, seriam preservadas as competências da ANPD de regulamentação, fiscalização e aplicação de sanções quanto a temas como consentimento, perfilamento, decisões automatizadas, acesso a dados pessoais para fins de estudos e pesquisas, avaliação de impacto sobre dados pessoais e proteção de dados pessoais de crianças e adolescentes no ambiente digital.
Por fim, reconhece-se que a regulação de plataformas digitais possui um enfoque amplo, que considera não somente a moderação de conteúdos, mas também outros aspectos essenciais, em particular a proteção de dados pessoais, afinal, como mencionado, o uso intensivo de dados está na base do modelo de negócios das plataformas digitais. Contudo, para que a regulação e a garantia de direitos no ambiente digital sejam efetivas, é necessário fortalecer as instituições existentes, estabelecendo regras coerentes que promovam a cooperação e a coordenação entre os órgãos reguladores e o respeito às suas competências e prerrogativas. - Mozart Hasse 28/04/2023 às 11:14O Governo não precisa se meter em tudo. Já temos instituições suficientes, com pessoal suficiente para regular o que precisa ser regulado. Internet está longe de ser algo "novo", assim como redes sociais. Basta aplicar as mesmas regras que já são usadas nos outros meios, com a vantagem da velocidade que a internet proporciona.
- Rodrigo Pereira 25/04/2023 às 20:39Sim. Já respondido no item anterior: Independência, representatividade paritária, responsabilidade compartilhada pelo bem público, interdisciplinaridade rumo a uma transdisciplinaridade, etc.
- Coalizão Direitos na Rede (comentário inserido por: Bia Barbosa) 16/07/2023 às 23:48(Contribuição da Coalizão Direitos na Rede)
A previsão de sanções precisa ser ajustada para que medidas de bloqueio sejam aplicadas por maioria absoluta de órgão judicial colegiado, garantindo o devido exame dos direitos envolvidos numa dada situação. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:38[Contribuição do DiraCom - Direito à Comunicação e Democracia]
As medidas devem ser céleres e proporcionais. Podem ser aplicadas a partir de mecanismos de devido processo pelas próprias plataformas. Caso não sejam suficientes ou caso o usuário opte por outro caminho, a via judicial também poderá ser acionada. Por fim, o órgão regulador deve aplicar medidas com caráter coletivo. - Electronic Frontier Foundation e Access Now (comentário inserido por: Veridiana Alimonti) 16/07/2023 às 20:03(*** Esta contribuição é uma adaptação do documento da EFF e da Access Now publicado como contribuição ao debate brasileiro de regulação de plataformas e ao PL 2630. A íntegra do documento está disponível aqui: https://www.eff.org/files/2023/07/07/padroes_de_direitos_humanos_como_linhas_de_base_para_a_regulacao_e_prestacao_de_contas_das_plataformas_pt-br.pdf )
Garantir sanções de acordo com padrões de direitos humanos e garantias de devido processo legal, particularmente quando isso envolver o bloqueio de aplicações online.
O debate atual de regulação de plataformas vem apresentando a "suspensão temporária de atividades" entre as sanções administrativas possíveis contra provedores de aplicação que descumpram normas legais. Na prática, isso significa que uma autoridade governamental administrativa teria o poder de bloquear um site ou aplicativo por inteiro. De forma geral, o bloqueio de websites no Brasil acontece após uma ordem judicial, embora o Ministério da Justiça tenha afirmado recentemente que órgãos administrativos de proteção do consumidor teriam esses poderes de acordo com as penas de suspensão tradicionais definidas no Código de Defesa do Consumidor. Padrões internacionais de direitos humanos [1] apontam que o bloqueio de sites e aplicativos inteiros é uma medida extrema com desafios técnicos [2], grandes riscos de abuso [3] e impactos significativos em direitos fundamentais [4]. Em 2021, o Conselho de Direitos Humanos da ONU reiterou a adoção de uma resolução [5] condenando inequivocamente o recurso à interrupção do acesso à Internet e medidas de censura online, o que inclui o bloqueio a mídias sociais, para arbitrariamente impedir ou prejudicar o acesso ou a disseminação de informações online. Destacamos anteriormente tais preocupações no contexto do PL 2630. Enquanto nas versões anteriores do PL apenas a maioria absoluta de um órgão judicial colegiado poderia aplicar tal sanção de bloqueio, a proposta atual dá esse poder a uma autoridade administrativa não especificada. Os legisladores brasileiros devem reconhecer os perigos do uso arbitrário de bloqueios online e recuar.
[1] https://www.article19.org/resources/freedom-of-expression-unfiltered-how-blocking-and-filtering-affect-free-speech/
[2] https://www.lacnic.net/4137/1/lacnic/consecuencias-inesperadas-del-bloqueo-de-sitios-en-internet
[3] https://en.ovdinfo.org/internet-blocks-tool-political-censorship
[4] https://www.ohchr.org/en/stories/2022/08/activists-internet-shutdowns-violate-human-rights
[5] https://www.article19.org/resources/un-human-rights-council-adopts-resolution-on-human-rights-on-the-internet/
- ITS Rio (comentário inserido por: Carlos Affonso Souza) 16/07/2023 às 19:13As sanções administrativas por descumprimento do dever de cuidado, como aquelas previstas no PL 2630, devem focar na moderação de conteúdo enquanto sistema para evitar a criação de incentivos que levam ao resfriamento do debate público. Nesse sentido, a análise da autoridade competente precisa se ater, por exemplo, às ações implementadas pela plataforma para endereçar um eventual risco sistêmico, deixando de fora qualquer juízo sobre conteúdos individuais de terceiros que permanecem regulados pelo art. 19 do Marco Civil da Internet. Em outras palavras, é possível compatibilizar a imunidade das plataformas da responsabilização civil por danos causados por conteúdos (individuais) de terceiros (nos termos do MCI) com a previsão da aplicação de sanções administrativas em razão do não cumprimento do chamado dever de cuidado diante de riscos sistêmicos, que ainda precisam ser definidos de maneira mais apurada nas presentes iniciativas regulatórias para que essas figuras não sejam abusadas no futuro.
- ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:30Não é possível avaliar a criação de novas instituições sem uma definição clara dos problemas que a regulação pretende remediar. É prudente avaliar o impacto de qualquer legislação/regulação antes de fazê-lo.
O atual mercado digital é extremamente diverso e se transforma rapidamente tornando desafiador a criação de uma regulação ampla com efetividade quanto a aplicação e implementação a todos os atores. Nesse caminhar, a auto regulação regulada encontra-se como melhor solução. O estabelecimento de princípios direcionadores pelo órgão de supervisão com compromissos estabelecidos pelas plataformas pode se caracterizar como mecanismo extremamente eficaz, que considerará as particularidades dos atores envolvidos possibilitando a continuidade da inovação.
Assim, considerando a diversidade de modelos de negócio exercidos pelas plataformas, a determinação do órgão supervisor deve compreender alguns pontos essenciais: competência técnica e independência funcional. O conhecimento e a competência para criar e aplicar diretrizes e sanções é de extrema importância em razão das particularidades do mundo digital e suas constantes transformações. Adicionalmente, há que se considerar a necessidade deste órgão ser independente para que possa atuar sem sofrer a interferência de interesses não necessários.
Se for necessário o órgão supervisor, sua capacidade de comunicação será de fundamental importância. O canal de comunicação deve ser eficiente e buscar construir junto aos stakeholders do ecossistema, incluindo as plataformas, as regras e diretrizes necessárias. Esse canal também deverá buscar cooperar com o conjunto de reguladores setoriais que hoje atuam no cenário brasileiro, evitando o conflito de normas e entendimentos para maior eficiência e segurança jurídica.
- José Antonio Galhardo 16/07/2023 às 11:10As medidas de reparação e sancionamento devem ser implementadas por meio de autuações tradicionais, Termos de Ajustamento de Conduta, interdição de atividade, cassação de licença, etc. Deve-se prever e privilegiar um processo de solução consensual de controvérsias na esfera administrativa. Porém, o mais importante, é a Agência ser instrumentalizada para detectar o descumprimento da regulação. Para isso, o uso da tecnologia (Regtech e Suptech) para implementar, monitorar e auditar as várias camadas de sistemas do negócio das plataformas digitais deve ser um norteador de operacionalização da regulação e de atuação da Agência especializada criada.
- Instituto Alana (comentário inserido por: Emanuella Halfeld) 15/07/2023 às 15:02Definindo a reparação adequada no caso de violações - Diretrizes do Comentário Geral nº 25 (CRC/ONU):
46. A reparação adequada inclui restituição, compensação e satisfação, e pode exigir um pedido de desculpas, correção, remoção de conteúdo ilegal, acesso a serviços de recuperação psicológica ou outras medidas. Em relação às violações no ambiente digital, os mecanismos de reparação devem levar em conta a vulnerabilidade das crianças e a necessidade de atuar com rapidez para deter os danos atuais e futuros. Estados Partes devem assegurar a não recorrência de violações, inclusive por meio da reforma das leis e políticas relevantes e sua efetiva implementação.
Fonte: Item 46 do Comentário Geral nº 25 sobre os direitos das crianças em relação ao ambiente digital. Link: https://criancaeconsumo.org.br/biblioteca/comentario-geral-no-25-comentado/ - Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:54Não é possível avaliar assertivamente novas medidas de reparação e sancionamento sem uma definição clara dos problemas que a regulação pretende remediar. É prudente avaliar o impacto de qualquer legislação/regulação antes de fazê-lo.
Contudo, de maneira geral, a implementação das medidas de reparação e sanção em caso de descumprimento das obrigações pelas plataformas deve considerar, entre outros pontos, a limitação de responsabilidade das plataformas e a cultura litigiosa do país.
Assim, no caso específico das discussões sobre conteúdo de terceiros, uma vez que seja observada a diligência pelas plataformas no atendimento da solicitação vinda de forma apropriada (ex. artigo 19, MCI), não há que se falar em responsabilização por conteúdo de terceiro. Nesse sentido, a responsabilidade subsidiária ao usuário deve respeitar o sistema já organizado e estabelecido pelo Código de Defesa do Consumidor (CDC), e limitar o valor indenizatório a ser pago.
Em um país tão litigioso quanto o Brasil, faz-se necessária a inclusão de limitação às indenizações que poderão ser pretendidas, sob pena de (i) incentivar o ajuizamento de ações que busquem especialmente a indenização e, consequentemente, sobrecarregar o já atarefado Judiciário e (ii) criar um ônus excessivo para as plataformas, inviabilizando seu modelo de negócios ao criar tamanha imprevisibilidade de sua eventual exposição com o lançamento de campanhas de anúncios. - Sarah Martins 14/07/2023 às 19:03Relevância das leis existentes (Item 43):
Apesar de não ser um tema abordado de maneira específica na consulta pública, a Brasscom gostaria de chamar atenção em relação aos riscos de eventual sobreposição, ou até mesmo conflito, de leis existentes.
Na discussão de novas normas específicas, não se pode ignorar a existência de uma série de leis vigentes que já se aplicam a estas empresas. O Código de Defesa do Consumidor possui importantes regramentos de oferta de informações e de publicidade aos usuários, assim como a Lei Geral de Proteção de Dados (LGPD) endereça preocupações do uso de dados pessoais de maneira ampla, ou como o Marco Civil da Internet define o regime de responsabilidade na rede mundial de computadores, alcançando todos os setores da economia.
Em complemento, a Lei de Defesa da Concorrência oferece remédios para quaisquer abusos contra a ordem econômica que venham a ser cometidos por qualquer agente econômico, incluindo os provedores de serviços digitais, permitindo ao Conselho Administrativo de Defesa Econômica (CADE) que realize o seu trabalho de orientação, fiscalização, prevenção e apuração de abusos de poder econômico, baseado na liberdade de iniciativa e livre concorrência, em análises caso a caso.
Portanto, uma eventual regulação de plataformas digitais deve levar em conta a experiência legal e regulatória já vigente, e assim endereçar pontualmente os problemas que não podem ser resolvidos pela legislação atual ou ainda pela atividade de controle da autoridade concorrencial, de modo a evitar a sobreposição ou conflito de regras e competências. - Internet Society Capítulo Brasil (comentário inserido por: GT-RI ISOC Brasil) 14/07/2023 às 15:23Ainda comuns em diversos países e com um preocupante histórico de tentativas no Brasil, os bloqueios de aplicativos de mensageria instantânea são lembretes e ameaças constantes dos alertas que organizações como a Internet Society e a Policy Network for Internet Fragmentation têm feito sobre a fragmentação da Internet. Estudos da área têm mostrado que bloqueios de conteúdos, de aplicações e mesmo do acesso local à Internet (https://www.internetsociety.org/blog/2019/12/from-content-blocking-to-national-shutdowns-understanding-internet-disruptions/) ocorrem globalmente sob a justificativa de atendimento a demandas situadas no campo investigação criminal ou, em geral, à necessidade de exercício de pressão judicial e estatal às empresas privadas. No entanto, as diferentes técnicas e escopos de bloqueio ( https://www.internetsociety.org/wp-content/uploads/2017/03/ContentBlockingOverview_PT_.pdf) frequentemente negligenciam os custos de possíveis danos colaterais infligidos à sociedade, bem como a potencial ineficácia frente aos problemas a serem enfrentados.
Nesses termos, bloqueios locais de aplicações móveis por meio de determinações jurídicas e regulatórias integram conjunto de medidas que podem restringir o acesso aos conteúdos, serviços e aplicações disponíveis na Internet, fragmentando a experiência que populações inteiras têm da conexão em rede em suas várias facetas. Assim, o capítulo brasileiro da Internet Society traz pontos de atenção aos riscos de se estabelecer um marco regulatório nacional que falhe em adequadamente integrar a gravidade do tema, deixando assim de estabelecer freios e contrapesos que coíbam práticas dessa natureza. Na perspectiva da organização, é deletério que a crescente e legítima demanda nacional por uma experiência digital positiva resulte na aproximação do país a exemplos negativos de prejuízo às propriedades de uma Internet aberta, globalmente conectada, segura e confiável, incorrendo em contrasensos entre intenções e resultados. Nesses termos, preza-se pela antecipação de problemas por vezes inerentes a opções regulatórias pouco amadurecidas e desconectadas do necessário resgate e consideração do que toma parte da operação da Internet como tal.
Os riscos apontados se tornam ainda mais latentes quando o contexto do Brasil é levado em consideração, já que a indevida aposta na determinação de bloqueios aplicáveis genericamente aos cidadãos brasileiros como solução a problemas complexos não é inédita ou rara no país, estando presente em discursos e práticas. A situação pode ser ilustrada pelo histórico do país ao tratar do WhatsApp e do Telegram, os dois mensageiros mais utilizados no país.
CASO DO WHATSAPP
O WhatsApp, que surgiu em 2009 como uma alternativa ao SMS, é um aplicativo de mensagens instantâneas amplamente difundido no cotidiano brasileiro. Contando com mais de dois bilhões de pessoas em mais de 180 países ao redor do mundo, o aplicativo se tornou essencial na vida de diversas pessoas, conectando diferentes gerações e facilitando a comunicação de maneira prática e gratuita.
O Brasil é o segundo país com mais usuários, tendo aproximadamente 147 milhões de pessoas conectadas em 2022. Ainda, o aplicativo está no topo do ranking como a plataforma de mídia social mais usada no país e presente em cerca de 99% dos smartphones.
Para além da comunicação direta entre indivíduos, nos últimos anos se tornou o canal de comunicação oficial de diversas marcas, empresas, instituições financeiras e até setores do judiciário (com inclusive a possibilidade de que oficiais de justiça intimem via whatsapp).
Contudo, a despeito do amplo uso no país, desde 2015, diversas decisões judiciais determinando o bloqueio do aplicativo em todo o território nacional repercutiram e geraram controvérsias. A problemática se inicia com a investigação de organizações criminosas que estariam utilizando o Whatsapp para atividades ilegais, o que levou o judiciário a solicitar a quebra dos dados criptografados da plataforma.
Em resposta, o Facebook - já dono do Whatsapp à época - respondeu que, por conta de inviabilidades tanto técnicas quanto legais, não seria capaz de cumprir a requisição. A situação se repetiu ao longo dos anos de 2015 e 2016 por diversos motivos, levando ao bloqueio do aplicativo de algumas horas a até o dia todo. Em suma, a determinação de bloqueio se dava após o descumprimento de exigências que visavam o fornecimento de dados à justiça, sendo adotada como forma de coação à plataforma para que colaborasse.
Nesse sentido, vale ressaltar que o período em destaque se passa no cenário pré-LGPD (Lei 13.709/2018) e, portanto, não havia lei específica para proteção de dados pessoais. Dessa forma, recorria-se à Lei nº 12.965/2014, Marco Civil da Internet, que assegura a inviolabilidade da privacidade do cidadão e o direito ao sigilo de suas comunicações pela internet e comunicações privadas armazenadas (art. 7º). Ainda, protege os dados pessoais, não permitindo o fornecimento sem consentimento a terceiros.
Entretanto, compreendendo a relevância do aplicativo no país, milhares de usuários ficaram impossibilitados de se comunicar da forma que estavam acostumados durante o período de suspensão. Em manifestação à época, o Comitê Gestor da Internet no Brasil (CGI.br) pontuou a desproporcionalidade da medida adotada pelo Poder Judiciário.
Dentre as questões apontadas pela entidade, uma das principais preocupações se dá em relação ao bloqueio total e indiscriminado de um aplicativo em função do uso deturpado por alguns usuários, o que leva à punição não apenas dos diretamente culpados, mas sim de todos os usuários e, inclusive, da própria plataforma. Nesses termos, resta evidente os riscos que tal medida representa para a unidade da Internet, podendo levar a casos de fragmentação da rede.
Nesse cenário, vê-se o substancial desencontro entre as decisões judiciais e os meios de aplicá-las na prática. São diversas as decisões que não levam em consideração os obstáculos e problemas técnicos - como neste caso, em que se solicitou o fornecimento de dados criptografados.
CASO DO TELEGRAM
De modo semelhante ao que ocorreu ao Whatsapp, o aplicativo de mensageria Telegram passou a ser alvo de suspensões judiciais no Brasil. É importante observar que o Telegram é a principal alternativa ao Whatsapp no contexto nacional. Nesse sentido, portanto, os principais aplicativos de comunicação privada no país têm sido alvos de bloqueios. Importa, ademais, diferenciar que o Telegram foi suspenso em razão de decisões que foram validadas pela alta Corte do país, o Supremo Tribunal Federal (STF), o que torna a questão ainda mais sensível.
No caso Telegram, a primeira suspensão da plataforma ocorreu em 17/03/22, por decisão do STF, após a inércia do aplicativo em excluir a conta do usuário Allan dos Santos, figura pública vinculada a grupos da extrema direita no Brasil. À época, a plataforma ficou mais de dois dias suspensa.
Mais recentemente, após decisões anteriores que previam a suspensão do aplicativo como sanção em caso de descumprimento de requisições judiciais, no dia 26/04/2023, o Telegram acabou por ser suspenso judicialmente, por decisão da Justiça Federal do Espírito Santo. Nesse episódio, a suspensão se deu em razão da negativa da plataforma ao fornecimento de informações que possibilitassem a identificação de usuários neonazistas que atuam no aplicativo.
Tal sanção reacendeu o debate sobre o impacto social e econômico do bloqueio de plataformas digitais, ainda que em razão de decisões que, em tese, buscam garantir direitos humanos fundamentais. Nesse período, a proposta do marco regulatório brasileiro das plataformas digitais também já estava sob discussão (PL 2630/20), de modo que o bloqueio do Telegram respingou nas preocupações sobre as questões de liberdade de expressão, privacidade, autoritarismo e fragmentação da rede.
Ainda em 2022, na primeira suspensão, a organização Artigo 19 já havia alertado que o bloqueio de uma plataforma digital de uso comum e massivo pela população é uma medida desproporcional, ainda que seja realizada a fim de resguardar direitos fundamentais. Isso porque implica em restrição ao exercício de direitos fundamentais de milhões de brasileiros que não concorreram para as ilegalidades que geraram a decisão judicial.
Sobre a suspensão determinada em 2023, o próprio Poder Judiciário reconheceu em 2ª instância, por meio de decisão do Tribunal Regional Federal da 2ª Região, que a determinação sancionatória de bloqueio do Telegram “não guarda razoabilidade, considerando a afetação ampla em todo território nacional da liberdade de comunicação de milhares de pessoas absolutamente estranhas aos fatos sob apuração”.
A CONTRIBUIÇÃO DO BLOQUEIO DE PLATAFORMAS DIGITAIS PARA A FRAGMENTAÇÃO DA INTERNET
O bloqueio de aplicativos em território nacional materializa a fragmentação da rede. Ainda que não o faça em extensão global, a suspensão de um aplicativo imprime uma limitação territorial aos usuários da rede. Isso porque medidas desse tipo impedem que os usuários no Brasil compartilhem informações com usuários em outras regiões no mundo e vice-versa, criando, assim, pontos de rompimento na conexão da rede.
Esses pontos de rompimento, especialmente quando gerados por decisões judiciais ou governamentais, ameaçam a Internet aberta, globalmente conectada e segura, além de resultar em riscos significativos para o Estado Democrático de Direito. Veja-se que o bloqueio de uma plataforma digital de uso comum, e por vezes massivo, pelos usuários brasileiros, afeta o exercício de direitos fundamentais, sobretudo os direitos humanos digitais, tais como o direito ao acesso à Internet, a liberdade de expressão e a livre iniciativa.
A gravidade e desproporcionalidade de decisões de bloqueio de plataformas se torna ainda mais patente ao analisar os impactos extraterritoriais. A exemplo, em decorrência de fatores técnicos, o bloqueio do Whatsapp em território brasileiro provocou consequências em países vizinhos, principalmente Argentina, Uruguai e Chile. Isso ocorre por conta do uso de cabos submarinos e terrestres que transferem a conexão. Assim, além de uma decisão proferida por um Tribunal específico afetar o Brasil como um todo, os prejuízos foram refletidos em territórios internacionais.
Logo, as distorções geradas em razão de bloqueios ainda que parciais da rede afetam liberdades individuais, negócios e até mesmo a defesa da democracia. A esse respeito, há que se destacar que, ao determinar a suspensão de aplicativos, o Brasil se aproxima de realidades políticas autoritárias ao redor do mundo que vêm controlando o acesso à Internet de maneira arbitrária. Sobre isso, os bloqueios da Internet (shutdows), que podem ser parciais, completos, temporários ou permanentes, são comuns dentre atos voltados ao controle da opinião pública e à supressão da cidadania.
A campanha KeepItOn da organização AccesNow aponta para o aumento de medidas de bloqueio da rede em países como a Índia, Cuba, Irã, Ucrânia e inclusive Brasil. Ademais, mais recentemente, após as ondas de protestos na França em julho de 2023, o presidente Emmanuel Macron passou a defender a possibilidade de bloqueio das redes sociais no país para controlar os protestos em curso.
Portanto, é necessário ter em conta que assegurar que a Internet permaneça como uma rede aberta, global e livre, conversa diretamente com a proteção de direitos humanos fundamentais. Desse modo, prevenir a possibilidade de bloqueios de plataformas significa evitar bloqueios da própria rede, inclusive a fim de limitar medidas autoritárias por parte do Estado.
APONTAMENTOS SOBRE O USO DO BLOQUEIO DE PLATAFORMAS DIGITAIS COMO SANÇÃO JURÍDICA
O cerne da discussão sobre as decisões judiciais que determinaram medidas de bloqueio de plataformas reside na ausência de proporcionalidade, isto é no sentido de adequação, necessidade e proporcionalidade da decisão para o caso concreto (http://repositorio.ufla.br/bitstream/1/30751/1/Thaís%20Bernardes%20Carvalho%20-%20TCC.pdf), bem como na contestável legitimidade ( https://www.conjur.com.br/2021-mar-14/opiniao-legitimidade-decisao-processo-democratico) do uso da medida de bloqueio como sanção em casos de ilegalidades cometidas por usuários.
Nesse sentido, não se busca esgotar o tema, que também encontra relação com a discussão sobre o modelo regulatório da responsabilização de terceiros. Contudo, propõe-se alguns apontamentos para a construção de diretrizes quanto ao bloqueio de plataformas como sanção jurídica.
De início, há que se destacar a necessidade de observância do princípio da legalidade, pois o bloqueio de plataformas como medida sancionatória precisa estar de acordo com o ordenamento jurídico. Contudo, para que isso ocorra, é necessário que a legislação aborde de maneira mais detalhada as hipóteses nas quais o bloqueio poderia ser utilizado ou não como sanção jurídica.
Atualmente, o Marco Civil da Internet (art.12, III) e a Lei Geral de Proteção de Dados (art. 52, X) prevêem a possibilidade da suspensão temporária de plataformas em casos de irregularidades recorrentes no tratamento de dados. Porém, o MCI foi utilizado como base jurídica para fundamentar as decisões de bloqueio de aplicativos, como no caso do Telegram, ainda que tais situações tratem de moderação de conteúdo online e não estritamente de questões referentes ao tratamento de dados.
Outro ponto é que o bloqueio de tais aplicativos, apesar de serem plataformas de uso massivo e diário, costuma surpreender os usuários, que só tomam conhecimento do bloqueio quando este já foi concretizado. Isso agrava os prejuízos econômicos decorrente das suspensões e, ainda que tenham sido previstas em decisões judiciais públicas, tais medidas são pouco transparentes da perspectiva do usuário.
Ademais, há que se observar as peculiaridades do uso da Internet no Brasil. Os casos de bloqueios de plataforma no país tiveram por objeto aplicativos de mensageria, Whatsapp e Telegram especificamente. O brasileiro raramente faz uso de SMS, sendo grande parte da comunicação online feita por meio do Whatsapp. O uso desse tipo de aplicativo é tão difundido no país que as operadoras que fornecem conexão à Internet incluem tais plataformas em suas práticas de zero-rating, tornando seu uso mais barato aos usuários. Nesse cenário, o bloqueio sancionatório de plataformas precisa ser estabelecido como medida extrema, a última a ser adotada em caso de necessidade.
Por fim, não se defende que haja desresponsabilização da plataforma digital em favor da integridade da rede. A esse respeito, não se ignora que o Telegram foi um dos aplicativos de mensageria que mais cresceu no Brasil após a implementação de medidas de combate à desinformação por parte do Whatsapp. À época, grupos inteiros de usuários migraram para o Telegram em razão de políticas mais brandas ou inexistentes sobre o compartilhamento de conteúdo falso e/ou legal nessa plataforma.
Logo, medidas para o combate às ilegalidades online precisam ser adotadas em conjunto com esforços das empresas, mas isso não pode resultar em violação dos direitos fundamentais dos usuários não envolvidos em eventuais ilegalidades, preservando também a livre iniciativa.
Assim, a ISOC Brasil ressalta a importância de:
1. Atenção aos riscos de se estabelecer um marco regulatório nacional que falhe em adequadamente considerar a gravidade do tema de bloqueios locais de aplicações móveis por meio de determinações jurídicas e regulatórias, deixando assim de estabelecer freios e contrapesos que coíbam práticas dessa natureza.Instituir princípios sobre a aplicação do bloqueio de plataformas digitais como sanção jurídica, definindo-o como medida extrema, levando em consideração o impacto profundo da suspensão do serviço sobre os usuários e sobre a própria empresa, sob orientação do princípio da proporcionalidade e dos princípios para o uso e governança da internet.
2. Conceber um escopo regulatório robusto e específico sobre o bloqueio de plataformas digitais, a fim de definir diretrizes detalhadas sobre as hipóteses de bloqueio e estabelecer critérios de aplicabilidade, abordando a restrição de seu uso como ferramenta de controle da opinião pública.
3. Estabelecer medidas de maior transparência e publicização quando o bloqueio de plataformas digitais for determinado, com exposição de período de suspensão e razões que a fundamentam, a fim de informar com antecedência acerca da indisponibilidade do serviço para mitigar os impactos econômicos e sociais que serão suportados pelos usuários.
- Celso Santos 10/07/2023 às 17:57Para regular é preciso ter um conselho regulatório científico e Tecnológica para a regulação , não censura de governo, pois a ideia de uma web livre sempre foi objetivo. Quanto a violações .....difícil de fazer pois não pode ser poder de polícia mas sim educação ...a deep web existe , todos frequentam e não acaba , não há punição, e bem ..vcs sabem
- ROSA VICARI 23/06/2023 às 18:51A União Europeia tem aplicado medidas de reparação e sancionamento com sucesso. Considero que um estudo da legislação recente da EU pode ser útil para o Brasil.
- Enzo Capalbo 30/05/2023 às 21:37Para que ocorra a implementação de tais medidas, deve ser levado em consideração alguns critérios, como a transparência e a fácil compreensão das políticas de privacidade, o monitoramento da plataforma com relação ao que é postado nela, para que, caso seja necessário, remova algum post ou usuário que descumpra os termos de acordo, entre outros.
Além disso, a plataforma deve sempre ouvir os seus usuários, para assim, garantir que as suas medidas sejam tomadas da melhor maneira possível. - Victor Lippi Zaccariotto 13/05/2023 às 23:05Vou contribuir com uma opinião de como não implementar, ou como evitar implementar. A sansão que afete o usuário deve ser evitada ao máximo. Temos visto frequentemente casos de sanções em que impactam a utilização das plataformas. Fazer com que uma enorme maioria pague por um erro que não é seu não aparenta ser uma opção interessante.
- Mozart Hasse 28/04/2023 às 11:20A comunidade pode e deve ajudar na fiscalização e na definição do que é ofensivo ou perigoso e o que não é. Isso é essencial especialmente porque a cultura muda com o tempo e o que hoje é tolerável pode amanhã ser considerado inapropriado e vice-versa. Os entes públicos só precisam garantir que as plataformas tenham canais de moderação disponíveis para os internautas, e que as reclamações ou denúncias sejam processadas em tempo adequado.
- Rodrigo Pereira 25/04/2023 às 20:43Até onde sei já temos as bases para sancionamentos e reparações através do Marco Civil, LGPD e medidas jurídicas já usadas no mundo real. Se a responsabilização das plataformas for feita por autoridades e entidades supervisoras, devem seguir parâmetros legais vigentes e cumprir a lei.
- Rodrigo Pereira 25/04/2023 às 20:40Já respondido nos dois itens anteriores
- DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:23[Contribuição do DiraCom - Direito à Comunicação e Democracia]
Fixação de limite de participação dos agentes, em cada segmento específico e no geral, no bolo publicitário. Garantia de transparência nos mecanismos publicitários, da identificação aos usuários às informações sobre campanhas para os anunciantes. Limitação do uso de dados pessoais sensíveis para a conformação de públicos, especialmente no caso de crianças e adolescentes. Proibição de impulsionamento de conteúdos durante as eleições. - INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 19:53Existe um vício de origem neste modelo de negócios que combina anúncios com busca. Tal vício de origem só pode ser revertido – ainda que 20 anos após sua consolidação – se: 1) houver separação econômica-estrutural entre as empresas que ofertam os produtos/serviços; 2) não havendo separação econômica-estrutural, que pelo menos, haja segregação dos bancos de dados/usuários (data silos) dentro da mesma empresa.
- IAB Brasil (comentário inserido por: Beatriz Falcão ) 06/07/2023 às 17:01Concentração de oferta de publicidade é uma falsa percepção que não resiste à análise da realidade. O ecossistema de publicidade digital é um dos mais vastos e complexos que existem, com milhares de empresas que participam da cadeia de valor existente entre o anunciante e o veículo: https://lumapartners.com/lumascapes/
O diagrama acima, produzida pela Luma Partners e disponível para consulta online , ajuda a compreender as diversas categorias de empresas diferentes que exercem uma grande variedade de papéis para que a publicidade online seja entregue para o usuário.
Além disso, vale lembrar que a publicidade personalizada possui certas características que a diferenciam da publicidade estática em outros meios e que dificultam a concentração, trazendo benefícios para o consumidor, para anunciantes e para a sociedade em geral:
Da perspectiva do consumidor, a publicidade personalizada:
(i) possibilita sua exposição a marcas, produtos, serviços e causas de seu interesse;
(ii) ajuda na comparação e substituição de produtos e serviços por outros equivalentes, muitas vezes a preços menores ou condições melhores;
(iii) aumenta seu poder de escolha e de barganha, em razão da multiplicidade de ofertas disponíveis;
(iv) economiza tempo e custos de transação, agilizando o processo de busca por produtos e serviços ideais às suas necessidades específicas;
(v) auxilia na aquisição de produtos e serviços de nicho que não são oferecidos localmente e que dificilmente são anunciados para o público de forma geral, ao contrário de bens e serviços para consumo de massa; e
(vi) permite a utilização, de forma gratuita e contínua, de conteúdos, aplicativos e serviços online custeados por publicidade.
Da perspectiva dos anunciantes, a publicidade personalizada:
(i) permite a empresas de qualquer lugar do mundo alcançar consumidores potencialmente interessados em seus produtos e serviços específicos;
(ii) viabiliza que pequenos negócios façam publicidade de modo acessível e a custos baixos, alcançando consumidores que de outra forma dificilmente saberiam da existência de seus produtos ou serviços;
(iii) facilita às marcas criar conexões significativas com grupos de consumidores específicos, gerando confiança, engajamento, reciprocidade e valor; e
(iv) traz melhor retorno sobre o investimento, minimizando a exposição de consumidores a anúncios que não correspondam a seus interesses.
Da perspectiva da sociedade, a publicidade personalizada:
(i) estimula o crescimento econômico, aumentando a eficiência e diminuindo os custos da publicidade e do marketing de modo geral.
(ii) aumenta a competição, permitindo que qualquer anunciante, independentemente de porte ou orçamento, tenha a oportunidade de alcançar consumidores interessados em seus produtos e serviços;
(iii) transforma um comércio ou uma indústria local em um ator econômico internacional, permitindo que milhões de consumidores de todo o mundo conheçam seus produtos e serviços;
(iv) representa em muitos casos a única alternativa para pequenos negócios fazerem publicidade, ante os elevados custos de anunciar em televisão, rádio ou imprensa;
(v) fortalece o jornalismo isento e independente, custeado por anúncios de interesse da audiência, por mais diversas que sejam suas preferências;
(vi) permite que produtos e serviços sejam oferecidos de forma individualizada e personalizada, e não apenas de maneira massificada;
(vii) ajudam organizações não-governamentais e governos a divulgar programas sociais, campanhas educativas e conscientizar a população sobre temas importantes, alcançando o público que mais necessite de comunicação sobre políticas públicas e grupos de pessoas mais propensas a se engajar com essas questões e disseminar informações de interesse público;
(viii) viabiliza novos modelos de negócio, como o oferecimento em larga escala de conteúdos, aplicativos e serviços online gratuitos para grupos de consumidores, custeados por publicidade; e
(ix) possibilita que sites e veículos online democratizem a disponibilização de conteúdo, alcançando a maior quantidade possível de pessoas (e não somente quem poderia pagar pelo acesso ao conteúdo), apresentando informações relevantes e personalizadas de acordo com os interesses e preferências de cada indivíduo
Além disso, o fato de existir publicidade nas grandes plataformas digitais não exclui a publicidade em meios tradicionais de comunicação (televisão, jornal, revista e rádio), em conteúdos patrocinados em posts de redes sociais, tampouco em plataformas digitais menores, blogs e até mesmo no conteúdo de e-mails. Esta categoria de publicidade inclusive representa elemento essencial para criadores de conteúdo de forma geral, de influenciadores a canais educacionais.
Dessa forma, o modelo de publicidade que temos hoje é o mais descentralizado possível: onde há atenção do usuário, pode ser exibida publicidade em troca de um serviço gratuito. - Alex Camacho Castilho 06/07/2023 às 14:131. Transparência na publicidade digital: Promover a transparência na publicidade digital é fundamental para evitar práticas enganosas, manipulativas ou fraudulentas. Isso inclui exigir que as plataformas digitais forneçam informações claras sobre o modo como a publicidade é veiculada, como os anúncios são segmentados e quais dados são utilizados para personalização. Além disso, é importante garantir que as métricas de medição sejam confiáveis e verificáveis, permitindo que anunciantes e usuários avaliem o desempenho e a eficácia dos anúncios.
2. Promoção da concorrência justa na publicidade digital: Estimular a concorrência no mercado de publicidade digital é essencial para evitar a concentração excessiva e a falta de opções para anunciantes e publishers. Isso pode ser alcançado por meio da aplicação rigorosa das leis antitruste e da regulamentação para prevenir práticas anticompetitivas, como preços predatórios, discriminação injusta ou exclusividade contratual que dificulte a entrada de novos concorrentes.
3. Padrões de interoperabilidade e portabilidade de dados: Definir padrões de interoperabilidade e portabilidade de dados na publicidade digital pode facilitar a migração de anunciantes e publishers entre diferentes plataformas. Isso permite que eles diversifiquem sua presença e alcancem diferentes audiências, reduzindo sua dependência de uma única plataforma. A interoperabilidade também pode permitir que anunciantes e publishers acessem dados relevantes para suas estratégias de publicidade de forma mais ampla e justa.
4. Regulação da coleta e uso de dados: A regulação adequada da coleta e uso de dados na publicidade digital pode ajudar a proteger a privacidade dos usuários e evitar abusos. Isso inclui estabelecer requisitos claros para obter consentimento informado dos usuários, limitar a coleta excessiva de dados, garantir a anonimização adequada quando necessário e definir regras para o compartilhamento seguro e responsável de dados entre anunciantes e plataformas.
5. Transparência nos algoritmos de veiculação de anúncios: As plataformas digitais devem ser transparentes sobre os algoritmos utilizados na veiculação de anúncios, garantindo que eles não promovam discriminação, polarização ou outros efeitos indesejados. Os anunciantes e os usuários devem ter visibilidade sobre os critérios utilizados para selecionar e exibir anúncios, e mecanismos de controle e recurso devem ser disponibilizados para contestar decisões algorítmicas questionáveis.
6. Incentivo à diversificação de modelos de publicidade: Estimular a diversificação de modelos de publicidade, como anúncios nativos, publicidade contextual ou modelos baseados em consentimento explícito, pode ajudar a reduzir a dependência exclusiva de anúncios direcionados e personalizados. Isso permite que os usuários tenham mais controle sobre sua experiência de anúncios e evita a excessiva concentração de poder em modelosde publicidade específicos. - Information Technology Industry Council (comentário inserido por: Husani Durans de Jesus) 16/07/2023 às 22:29O atual sistema tributário brasileiro e o sistema tributário previsto pela reforma tributária em andamento preveem a tributação de serviços digitais. Além disso, a Receita Federal publicou manifestações formais que demonstram que as empresas que prestam serviços digitais no Brasil arrecadam tanto ou mais do que as empresas que prestam serviços não digitais.
Atualmente, o Brasil cobra Imposto Sobre Serviços (ISS), Contribuição para o Programa de Integração Social (PIS) e Contribuição para o Financiamento da Seguridade Social (COFINS), sobre serviços digitais, além de cobrar Imposto de Renda de Pessoa Jurídica e Imposto de Renda Retido na Fonte sobre remessa de lucros ao exterior. Entendemos que a reforma tributária proposta cobraria um Imposto sobre Valor Agregado sobre produtos e serviços em toda a economia, independentemente de um produto ou serviço ser entregue física ou digitalmente. Essa abordagem reflete princípios tributários internacionais de longa data, como neutralidade, eficiência, justiça e simplicidade. Estabelecer um imposto exclusivamente sobre serviços digitais seria redundante e excessivamente oneroso tanto no sistema tributário brasileiro existente, quanto no sistema proposto pela reforma tributária em andamento. Também não refletiria o fato que toda a economia está se digitalizando. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:14Modelos de tributação não devem ser utilizados para remediar preocupações concorrenciais. O atual sistema tributário brasileiro e o sistema tributário previsto pela reforma tributária em andamento prevêem a tributação de serviços digitais. Além disso, a Receita Federal publicou manifestações oficiais que demonstram que as empresas que prestam serviços digitais no Brasil arrecadam tanto ou mais do que as empresas que prestam serviços não digitais.
Atualmente, o Brasil cobra Imposto Sobre Serviços (ISS), Contribuição para o Programa de Integração Social (PIS) e Contribuição Social sobre o Faturamento (COFINS), sobre serviços digitais, para além de cobrarem o imposto sobre o rendimento das sociedades e as retenções na fonte sobre a remessa de lucros para o exterior. Entendemos que a reforma tributária proposta cobraria um Imposto sobre Valor Acrescentado (IVA) sobre os produtos e serviços em toda a economia, independentemente de um produto ou serviço ser entregue fisicamente ou digitalmente. Essa abordagem reflete princípios tributários internacionais de longa data, como neutralidade, eficiência, justiça e simplicidade. Estabelecer um imposto exclusivamente sobre serviços digitais seria redundante e excessivamente oneroso tanto no sistema tributário brasileiro atual, quanto no sistema proposto pela reforma tributária em andamento. Também não refletiria o fato de que toda a economia estar se digitalizando.
Atualmente, no Brasil, muitas plataformas digitais já pagam impostos, seguindo as legislações aplicáveis a serviços. No Brasil, não faz sentido uma discussão de novas tributações. - ALAI - Associação Latino-Americana de Internet (comentário inserido por: Sérgio Garcia Alves) 16/07/2023 às 12:14Modelos de tributação não devem ser utilizados para remediar preocupações concorrenciais. O atual sistema tributário brasileiro e o sistema tributário previsto pela reforma tributária em andamento prevêem a tributação de serviços digitais. Além disso, a Receita Federal publicou manifestações oficiais que demonstram que as empresas que prestam serviços digitais no Brasil arrecadam tanto ou mais do que as empresas que prestam serviços não digitais.
- José Antonio Galhardo 16/07/2023 às 10:45A tributação do modelo de negócios das plataformas digitais deve ser pensada como política parafiscal para equalizar as condições de competição para os modelos de negócio tradicionais, principalmente em setores que empreguem trabalhadores com menor escolaridade e que exigiriam um investimento maior do Estado em políticas de assistência social e de adaptação para novas atividades.
Da mesma forma, um modelo de tributação que garanta o financiamento do sistema de assistência e seguridade social para os trabalhadores sem vínculo empregatício tradicional. O que resta de bônus demográfico do país não pode ser desperdiçado sob pena de condenar o futuro do país.
Nesse mesmo sentido, o modelo de tributação deve beneficiar fortemente o investimento na qualidade da educação pública para dar condições que a população ingresse nos novos mercados de trabalho de tecnologia não apenas como mão-de-obra desqualificada e sub-remunerada.
Por fim, a política tributária ou de zoneamento urbano também deve ser capaz de compensar impactos ambientais ou sobre o mercado imobiliário que o modelo de negócios das plataformas acarreta. - Idec - Instituto Brasileiro de Defesa do Consumidor (comentário inserido por: Camila Leite Contri) 15/07/2023 às 17:09Importante trazer um exemplo de soberania tecnológica e da importância de termos infraestruturas digitais públicas: o Pix surgiu quase no mesmo contexto que o anúncio do WhatsApp Pay (que inclusive foi objeto de análise pelo Bacen e pelo Cade). O WhatsApp Pay traria facilidades de integração dentro dessa plataforma utilizada por 98% dos brasileiros, mas ao mesmo tempo traria uma quantidade de dados ainda maior dentro da plataforma. Uma solução pública disseminada a todos os cidadãos de maneira gratuita parece ser um bom mecanismo de soberania tecnológica.
- Câmara Brasileira da Economia Digital (comentário inserido por: Thaís Covolato) 15/07/2023 às 12:29Modelos de tributação não devem ser utilizados para remediar preocupações concorrenciais. O atual sistema tributário brasileiro e o sistema tributário previsto pela reforma tributária em andamento preveem a tributação de serviços digitais. Além disso, a Receita Federal publicou manifestações oficiais que demonstram que as empresas que prestam serviços digitais no Brasil arrecadam tanto ou mais do que as empresas que prestam serviços não digitais.
Atualmente, o Brasil cobra Imposto Sobre Serviços (ISS), Contribuição para o Programa de Integração Social (PIS) e Contribuição Social sobre o Faturamento (COFINS), sobre serviços digitais, para além de imposto sobre o rendimento das sociedades e retenções na fonte sobre a remessa de lucros para o exterior. Entendemos que a reforma tributária proposta cobraria um Imposto sobre Valor Acrescentado (IVA) sobre os produtos e serviços em toda a economia, independentemente de um produto ou serviço ser entregue fisicamente ou digitalmente. Essa abordagem reflete princípios tributários internacionais de longa data, como neutralidade, eficiência, justiça e simplicidade. Estabelecer um imposto exclusivamente sobre serviços digitais seria redundante e excessivamente oneroso tanto no sistema tributário brasileiro atual, quanto no sistema proposto pela reforma tributária em andamento. Também não refletiria o fato de que toda a economia está se digitalizando. - Ricardo de Holanda Melo Montenegro 12/07/2023 às 09:56Há evidente assimetria tributária que amplifica a concorrência desleal e também disparidade entre a infraestrutura física-tecnológica para atendimento ao consumidor, relacionada as Big Techs e as empresas tradicionais de outros setores econômicos, como os de comunicação social (televisão, rádio) e das telecomunicações.
É possível refletir sobre a criação de um fundo para democracia e cidadania digital, que mitigue o abismo digital da sociedade brasileira frente a outras nações tecnológicas, contemple financiamento e remuneração de direitos autorais, a cultura e a comunicação regional digital, fomente a cybercultura e a alfabetização digital para jovens e idosos.
A ideia revela semelhança ao Fundo de Universalização dos Serviços de Telecomunicações – FUST, todavia, que tenha estratégia bem definida, como exemplo, foco na construção de ilhas de tecnologia, implantadas nas cinco regiões deste país continental, especialmente nas regiões onde há subemprego tecnológico, com a finalidade de ser indutor para o desenvolvimento de soluções de alta complexidade tecnológica, de incentivo à cultura regional digital, medida de desenvolvimento econômico, social e de inclusão tecnológica (digital). - Alex Camacho Castilho 06/07/2023 às 14:141. Atualização da legislação tributária: Uma medida importante é atualizar a legislação tributária existente para abordar as especificidades dos modelos de negócio das plataformas digitais. Isso envolve identificar lacunas na legislação atual e introduzir disposições que permitam a tributação justa e adequada das atividades dessas plataformas. A legislação tributária precisa levar em conta as características digitais das transações e considerar a economia colaborativa, o comércio eletrônico e outros modelos de negócios digitais emergentes.
2. Estabelecimento de critérios claros de tributação: É fundamental estabelecer critérios claros para a tributação das plataformas digitais. Isso pode envolver a definição de critérios como volume de transações, receita gerada ou número de usuários como base para determinar a obrigação tributária das plataformas. Esses critérios devem ser projetados de forma a garantir que as plataformas digitais contribuam de maneira justa e proporcional com o sistema tributário, levando em consideração seu tamanho e impacto no mercado.
3. Cooperação internacional: Dado o caráter global das plataformas digitais, a cooperação internacional é fundamental para lidar com os desafios de tributação. É necessário promover a cooperação entre países para evitar a evasão fiscal e a elisão por parte das plataformas digitais, garantindo que elas paguem impostos nos países onde geram receita. A cooperação internacional pode envolver acordos de intercâmbio de informações, harmonização de normas tributárias e esforços conjuntos para enfrentar os desafios tributários transnacionais.
4. Avaliação de modelos alternativos de tributação: Além dos modelos tradicionais de tributação, é importante considerar a avaliação de modelos alternativos que sejam mais adequados às especificidades dos negócios digitais. Isso pode incluir a análise de modelos como a tributação baseada na presença econômica, na atividade digital ou em transações específicas. Esses modelos podem levar em conta fatores como o valor gerado pelos dados dos usuários, a participação no mercado ou outros elementos relevantes para a tributação justa das plataformas digitais.
5. Transparência na divulgação de informações fiscais: As plataformas digitais devem ser transparentes na divulgação de suas informações fiscais, incluindo suas estruturas de negócios, fluxos de receita e obrigações tributárias. Isso permite que as autoridades fiscais tenham uma visão clara das atividades das plataformas e facilitem a fiscalização e o cumprimento das obrigações tributárias. A transparência também contribui para a construção de confiança e para a prestação de contas das plataformas digitais perante a sociedade. - DiraCom – Direito à Comunicação e Democracia (comentário inserido por: Alexandre Arns Gonzales) 16/07/2023 às 23:34[Contribuição do DiraCom - Direito à Comunicação e Democracia]
De acordo, sobretudo no que diz respeito ao uso de dados pessoais sensíveis para tal perfilamento. - Instituto Vero (comentário inserido por: Victor Durigan) 16/07/2023 às 20:54O perfilamento para uso de propaganda eleitoral deve ser limitado. Uma primeira limitação é a vedação de uso de dados pessoais sensíveis para tal e transparência no uso dos demais dados, em consonância com a LGPD. Além disso, o perfilamento não pode ser utilizado para represar informações ou atingir públicos muito segmentados, permitindo que informações eleitorais sejam omitidas de parcelas da população.
- INTERVOZES (comentário inserido por: ANA MIELKE) 16/07/2023 às 20:00Ao definir as plataformas como serviços de interesse público, ficariam elas proibidas de ofertar impulsionamento de conteúdos tanto para exposição de candidatos quanto para hierarquização de resultados de buscas. Assim como na TV e no rádio, a lógica deveria ser inversa, com a regulação de espaços obrigatórios e proporcionais para exposição de conteúdos políticos, partidários e eleitorais. Neste caso, não faria sentido perfilamento de usuários para uso de propaganda eleitoral.
- Tarcizio Silva 13/07/2023 às 14:49Limitar o perfilamento para uso de propaganda eleitoral é uma medida de mitigação importante. A micro segmentação publicitária possível em plataformas de mídias sociais de grande escala gera poder desproporcional a seus criadores, principais anunciantes e projetos políticos alinhados. Devido à concentração tecnológica e financeira, corporações de big tech como Meta, Alphabet e Bytedance podem desenvolver modelos persuasivos a partir de dados multidimensionais que vão muito além de categorias demográficas e pessoais tradicionais.
Campanhas como a Tracking-Free Ads Coalition consideram que publicidade micro-segmentada e com rastreamento do usuário “permite à indústria publicitária manipular o debate público através de mensagens individualizadas que perseguem as pessoas na internet. A maioria desse ecossistema é controlado por empresas gigantescas de dados que absorvem a receita que poderia ser usada para financiar criação de conteúdo, jornalismo de qualidade e outras indústrias criativas”.
Proposições como a Digital Services Act na União Europeia são exemplos que incluem banimento de publicidade segmentada em categorias de dados pessoais como etnicidade, visões políticas ou orientação sexual. O Brasil deve ter regulação ainda mais restrita devido a possuir níveis mais intensos de desigualdades e conflitos internos; e por questões de soberania, já que é país mais “usuário’ do que “desenvolvedor” de plataformas.
Quase trinta anos após o surgimento da Internet comercial, verifica-se a necessidade de novas formas de se classificar os atores que atuam em suas diversas camadas. Uma das designações amplamente difundida é o termo “plataformas digitais”, adotado nesta consulta.
A regulação das plataformas digitais precisa considerar a diversidade de tipos de serviços e modelos de negócios oferecidos por esses atores, como plataformas de redes sociais, comércio eletrônico, plataformas de notícias, mecanismos de busca, aplicativos de mensagem privada etc. Há uma variedade de dimensões possíveis, como o tipo de serviço oferecido, os mecanismos de remuneração, os padrões de relação com usuários, entre outros.
Buscando a proporcionalidade de medidas legais e regulatórias e a diversidade dos modelos e tamanhos de plataformas digitais, entende-se, a princípio, que essa regulação deve ser assimétrica. Há diversos critérios apontados como possíveis pela literatura e pela regulação internacional para identificar aquelas plataformas que oferecem maior risco à sociedade e, portanto, merecem maior atenção à definição de suas obrigações regulatórias.
As plataformas digitais desempenham funções relevantes na economia, conectando empresas e usuários (profissionais ou consumidores) e criando novas oportunidades de negócios. Contudo, algumas plataformas, de grandes dimensões e com fornecimento de serviços indispensáveis, podem explorar um conjunto de características e estratégias para garantir vantagens competitivas, incorrendo, muitas vezes, em distorções do mercado e abusos de posição dominante. Algumas plataformas gozam de enormes economias de escala, de efeitos de rede – aproveitando sua natureza multilateral -, de integração vertical e das vantagens decorrentes da concentração de dados nessa economia. Pode-se chegar ao controle sobre ecossistemas inteiros, sendo estruturalmente difícil que a posição dessas plataformas seja desafiada, disputada, ou regulada. Essa combinação de estratégias, somada ao enorme poder econômico, tem a potencialidade de resultar em uma série de efeitos negativos sobre a economia, como desequilíbrios graves nas relações comerciais, em detrimento de preços, qualidade, lealdade na concorrência, escolha e inovação no setor digital. Uma diversidade de atores aponta, então, a insuficiência dos instrumentos regulatórios atuais, ex ante e de mecanismos do antitruste, para resolução desses novos problemas. Assim, com vistas ao enfrentamento destes e de outros desafios, faz-se necessário mapear os riscos ofertados pelas atividades das plataformas digitais para a concorrência, consumo, abuso de poder econômico e concentração econômica e de dados, bem como as medidas necessárias para mitigar tais riscos – como solicitaremos que você faça nesta seção.
No contexto da Internet, a soberania digital é um termo em disputa, mas, para a finalidade desta Consulta, refere-se à capacidade de o país proteger e desenvolver sua infraestrutura digital autonomamente e garantir a proteção de dados pessoais e estratégicos de seus cidadãos5. Plataformas desenvolvem estratégias baseadas em infraestruturas para oferecer os mais variados serviços, com capacidade de configurar espaços e condições de interação de acordo com seus interesses. Alguns pesquisadores apontam, por exemplo, que uma série de serviços e mercados têm sofrido um processo de plataformização. As grandes plataformas, assim, emergem como lógica organizacional de mercados e áreas essenciais da vida em sociedade, podendo impactar capacidades estatais de desenvolvimento, atuação em políticas públicas e, em última instância, sua soberania. Um passo essencial para enfrentar esses desafios é mapear os riscos relacionados a ameaças soberania digital e ao desenvolvimento tecnológico, e as medidas necessárias para mitigar tais riscos – como solicitaremos que você faça nesta seção.
As dimensões e alcances das atividades das plataformas envolvem uma série de transformações nas formas e condições do trabalho. Há uma variedade de trabalhos mediados por plataformas que envolvem deslocamento, como transporte de passageiro, limpeza, entregas, dentre outros. Há também o trabalho online, em grande parte mediado ou executado por meio de plataformas, como tradução, design, treinamento de sistemas de IA etc. Existe, ainda, uma grande quantidade de usuários que produzem conteúdos nas plataformas profissionalmente e que dependem fortemente das condições e estrutura dessas empresas (como especialistas em marketing digital e influencers). Nesse sentido, muitos pesquisadores apontam uma série de desafios e desequilíbrios deste novo contexto; assim, com vistas ao enfrentamento destes e de outros desafios, faz-se necessário mapear os riscos ofertados pelas atividades das plataformas digitais para o trabalho decente, bem como as medidas necessárias para mitigar tais riscos – como solicitaremos que você faça nesta seção.
As plataformas tornaram-se parte importante da economia e da vida política e social. Nesse sentido, os modelos de negócio das plataformas e a forma pela qual se estruturam e condicionam o acesso, por meio algoritmos complexos, suscitam uma série de preocupações sociais. As grandes plataformas, especialmente aquelas que prestam serviços atualmente indispensáveis, como mecanismos de busca ou redes sociais, podem ser utilizadas para influenciar a opinião pública, por meio de campanhas de desinformação coordenadas. Pesquisadores têm apontado efeitos negativos do uso das plataformas nos processos democráticos e eleitorais, bem como em segurança e saúde públicas. Observa-se, também, a circulação de conteúdos ilegais e nocivos, como de incitação ao ódio ou conteúdos pedopornográficos. Apontam-se, assim, possibilidades de impactos em diversos direitos fundamentais, como à dignidade humana, à liberdade de expressão, além do direito à informação, à privacidade, à proteção de dados, à não discriminação, incluindo os direitos da criança e a defesa dos consumidores. O debate sobre a construção de um ambiente online seguro e confiável, e que respeite os direitos fundamentais, passa por discutir a regulação de plataformas digitais. Um passo essencial para isso é mapear os riscos decorrentes das atividades das plataformas para a democracia e os direitos humanos, e as medidas necessárias para mitigar tais riscos – como solicitaremos que você faça nesta seção.
Iniciativas em âmbito público e privado, em nível global, reconhecem a necessidade de obrigações de transparência mais rigorosas para grandes plataformas, desfrutando atualmente de um bom nível de consenso entre os diferentes setores da sociedade. O desafio imposto às medidas de mitigação relacionadas à falta de transparência é definir princípios, diretrizes e critérios claros para orientar decisões sobre o que se deve publicizar, para quem, em que contexto e de que forma, além de detalhar medidas e obrigações de transparência específicas para plataformas digitais, respeitando os diversos contextos de atuação.
As plataformas digitais desenvolvem atividades de grande complexidade e transversalidade, de modo que estão sujeitas a diversas regulações e sob diversos entes regulatórios. Há uma gama de desafios e possibilidades de arranjos institucionais e mecanismos de autorregulação para a implementação da regulação de plataformas, os quais podem envolver distintos órgãos do governo, diversas agências reguladoras e autoridades, bem como diálogos com a sociedade civil, conselhos e associações privadas. Surgem, portanto, questões sobre competência, legitimidade e coordenação entre todos estes atores e possíveis novos organismos para plataformas digitais. Assim, com vistas ao enfrentamento destes e outros desafios, faz-se necessário formular os arranjos dessa arquitetura regulatória – como solicitaremos que você faça nesta seção.