Tag: proteção de crianças e adolescentes
Proposta exige que hotéis adotem pulseiras de identificação para crianças
Grupo de trabalho debate atuação de influenciadores mirins e riscos de...
Saiba mais sobre o projeto de combate à exploração de crianças...
Entre outras medidas, o Projeto de Lei 2628/22 prevê uma ferramenta de controle parental que permita aos pais e responsáveis legais a capacidade de gerenciar as configurações de privacidade e a conta da criança ou do adolescente.
Entre as funcionalidades, destacam-se:
- restringir compras e transações financeiras;
- visualizar os perfis de adultos com os quais a criança ou o adolescente se comunicam; e
- visualizar métricas do tempo total de uso do produto ou serviço.
Impedir o uso
Em todos os produtos ou serviços de tecnologia da informação direcionados ou de acesso provável por crianças e adolescentes deverá haver mecanismo que possibilite à família e aos responsáveis prevenir o acesso e o uso inadequado por esse público.
Dados pessoais
O modelo padrão mais protetivo disponível também deverá ser adotado pelos fornecedores quanto à privacidade e à proteção de dados pessoais, justificado pelo melhor interesse da criança e do adolescente, mas levando em conta a autonomia e o desenvolvimento progressivo do indivíduo.

Além disso, os fornecedores deverão “se abster” de realizar o tratamento dos dados pessoais de crianças e adolescentes de maneira que possa causar ou contribuir para violações à privacidade e a outros direitos protegidos desse público.
Faixa etária
As empresas fornecedoras desses produtos e serviços de tecnologia da informação também deverão:
- gerenciar riscos quanto aos impactos das aplicações para a segurança e a saúde de crianças e adolescentes;
- avaliar o conteúdo disponibilizado para crianças e adolescentes de acordo com a faixa etária; e
- oferecer sistemas e processos destinados a impedir que crianças e adolescentes encontrem conteúdo ilegal, nocivo ou danoso e em desacordo com sua classificação etária.
Notificação a autoridades
O Projeto de Lei 2628/22 determina aos fornecedores de produtos ou serviços de tecnologia da informação que comuniquem a autoridades nacionais e internacionais competentes, na forma de regulamento, conteúdos aparentemente relacionados a crimes de exploração sexual, abuso sexual infantil, sequestro e aliciamento detectados em seus produtos ou serviços, direta ou indiretamente.
As empresas deverão reter por seis meses os seguintes dados relacionados ao conteúdo denunciado:
- conteúdo gerado, carregado ou compartilhado por qualquer usuário mencionado no relatório ou metadados relacionados ao referido conteúdo; e
- dados do usuário responsável pelo conteúdo ou metadados a ele relacionados.
Para todos os provedores de aplicações de internet que possuírem mais de 1 milhão de usuários crianças e adolescentes registrados, com conexão de internet em território nacional, o projeto exige a elaboração de relatórios semestrais em língua portuguesa, contendo:
- os canais disponíveis para recebimento de denúncias e os sistemas e processos de apuração;
- a quantidade de denúncias recebidas;
- a quantidade de moderação de conteúdo ou de contas, por tipo;
- as medidas adotadas para identificar contas infantis em redes sociais e atos ilícitos;
- os aprimoramentos técnicos para a proteção de dados pessoais e privacidade das crianças e adolescentes; e
- os aprimoramentos técnicos para aferir consentimento parental.
Pesquisas
Os provedores de aplicações de internet deverão viabilizar, gratuitamente, o acesso a dados necessários à realização de pesquisas sobre os impactos de seus produtos e serviços nos direitos de crianças e adolescentes.
Esse acesso poderá ser por parte de instituições acadêmicas, científicas, tecnológicas, de inovação ou jornalísticas, conforme critérios e requisitos definidos em regulamento.
Monitoramento infantil
Quanto aos produtos ou serviços de monitoramento infantil (principalmente apps), o texto determina que contenham mecanismos e soluções de tecnologia atualizados para garantir a inviolabilidade das imagens, dos sons e das outras informações captadas, armazenadas e transmitidas aos pais ou responsáveis.
Esses aplicativos deverão informar às crianças e aos adolescentes, em linguagem apropriada a sua idade, sobre a realização desse monitoramento por pais ou responsáveis.
Jogos eletrônicos
O projeto originalmente proibia o uso das chamadas caixas de recompensas pelos jogos eletrônicos. No entanto, o texto aprovado é a versão do relator, deputado Jadyel Alencar (Republicanos-PI), que libera a prática com certas regras.
A caixa de recompensas é uma funcionalidade em certos jogos que permite acesso a itens virtuais relacionados ao enredo do jogo sem conhecimento do conteúdo (vantagens aleatórias).
Esse mecanismo tem sido reconhecido por diversos países como uma estratégia de viciar o jogador em permanecer no jogo, mesmo que a compra não seja monetária e sim por meio de pontuações.
Segundo as regras colocadas pelo relator, o jogador deverá obter acesso à recompensa de, no mínimo, um item virtual ou uma vantagem aleatória em cada caixa de recompensa adquirida, proibindo-se as caixas vazias ou que resultem em ausência total de benefício no ambiente de jogo.
O jogador deve ser informado das probabilidades de obtenção dos itens ou vantagens oferecidos antes da aquisição e será proibida a comercialização, troca ou conversão de itens virtuais obtidos em caixa de recompensa por qualquer forma de moeda corrente, crédito financeiro ou vantagem fora do ambiente do jogo.
Os jogos também não poderão conceder vantagens competitivas significativas ou desproporcionais em troca de pagamento e, por padrão, as funcionalidades de interação entre usuários dependerão do consentimento dos pais ou responsáveis legais.
Quanto ao uso compulsivo ou excessivo, devem ser adotadas medidas técnicas e administrativas como limites de compra, mecanismos de alerta e supervisão parental.
Redes sociais
Nas redes sociais, os provedores deverão assegurar que usuários crianças e adolescentes de até 16 anos ou suas contas estejam vinculados a usuário ou conta de um de seus responsáveis legais.
Se os serviços desses aplicativos de rede social forem impróprios ou inadequados para crianças e adolescentes, o provedor deverá informar de forma destacada a todos os usuários sobre isso.
Terão ainda de monitorar e restringir, de acordo com suas capacidades técnicas, a exibição de conteúdos que tenham como objetivo evidente atrair esse público.
Para evitar o acesso indevido de crianças e adolescentes, terão de aprimorar continuamente seus mecanismos de verificação de idade para identificar contas operadas por elas.
Uma das formas de verificação possível em caso de suspeita é a solicitação aos responsáveis que confirmem sua identificação quando houver indícios fundados de que as contas estão sendo operadas por crianças.
Se houver indícios de que a conta é operada por criança ou adolescente menor de 16 anos, os provedores deverão suspender o acesso do usuário, garantindo ao responsável legal recurso e método de comprovação da idade do usuário.
Entretanto, se não for possível a esses provedores de rede social cumprir essas normas, eles deverão impedir que as configurações de supervisão parental da conta sejam alteradas para um nível menor de proteção que a configuração padrão exigida.
Publicidade
Outra medida de proteção de crianças e adolescentes prevista no projeto de lei é a proibição de traçar perfis para direcionar publicidade a essa faixa etária. Será vedado ainda utilizar análise emocional, realidade aumentada, realidade estendida e realidade virtual para esse fim.
O perfilamento é definido como qualquer forma de tratamento de dados pessoais, automatizada ou não, para avaliar certos aspectos de uma pessoa natural com o objetivo de classificá-la em grupo ou perfil para fazer inferências sobre seu comportamento, situação econômica, saúde, preferências pessoais, interesses, desejos de consumo, localização geográfica, deslocamentos, posições políticas ou outras características assemelhadas.
O perfil comportamental de crianças e adolescentes para fins de direcionamento de publicidade também será proibido, ainda que a partir de dados obtidos nos processos de verificação de idade ou de dados grupais e coletivos.
Penalidades
Sem prejuízo de outras sanções cíveis, criminais ou administrativas, quem descumprir a lei poderá sofrer penalidades que vão de advertência a multa simples ou suspensão e proibição de exercício das atividades.
A advertência implicará prazo para adoção de medidas corretivas de até 30 dias. Já a multa será de até 10% do faturamento do grupo econômico no Brasil no seu último exercício.
Se indisponível esse dado, a multa será de R$ 10,00 até R$ 1 mil por usuário cadastrado do provedor sancionado, limitada, no total, a R$ 50 milhões por infração. Os valores citados serão reajustados anualmente pelo Índice Nacional de Preços ao Consumidor Amplo (IPCA).
Os valores recolhidos irão para o Fundo Nacional para a Criança e o Adolescente para uso necessariamente em políticas e projetos que tenham como objetivo a proteção de crianças e adolescentes.
A gradação da sanção levará em conta a gravidade da infração, a reincidência, a capacidade econômica do infrator, a finalidade social do provedor de aplicações de internet e o impacto sobre a coletividade.
Empresa estrangeira responderá solidariamente pelo pagamento da multa por sua filial, sucursal, escritório ou estabelecimento situado no País.
As penalidades mais graves, de suspensão ou proibição de atividades, somente poderão ser aplicadas pelo Poder Judiciário.
Projeto aprovado proíbe provedores de monetizar conteúdo que viole direitos da...

Aprovado na Câmara dos Deputados, o projeto sobre proteção de crianças e adolescentes em ambientes digitais (PL 2628/22) proíbe os provedores de aplicações de internet de monetizar ou impulsionar conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva ou em contexto próprio do universo sexual adulto.
A fim de atender ao princípio da proteção integral, o texto prevê que esses fornecedores deverão permitir aos usuários acesso a mecanismos de notificação sobre conteúdo que viole direitos de crianças e adolescentes, exceto conteúdos jornalísticos e submetidos a controle editorial.
Assim que forem comunicados do caráter ofensivo de uma publicação, independentemente de ordem judicial, os provedores deverão retirar o conteúdo que viole esses direitos.
No entanto, a notificação poderá ser apresentada apenas pela vítima, por seus representantes, pelo Ministério Público ou por entidades representativas de defesa dos direitos de crianças e adolescentes.
Segundo o projeto, os conteúdos considerados prejudiciais a crianças e adolescentes são:
- exploração e abuso sexual;
- violência física, intimidação sistemática (bullying) virtual e assédio a crianças e adolescentes;
- indução ou instigação, por meio de instruções e orientações, a práticas ou comportamentos que levem a danos à saúde física ou mental, tais como violência física ou assédio psicológico a outras crianças e adolescentes, uso de substâncias que causem dependência química ou psicológica, autodiagnóstico e automedicação, automutilação e suicídio;
- promoção e comercialização de jogos de azar (incluídas bets e loterias), produtos de tabaco, bebidas alcoólicas, narcóticos ou produtos de comercialização proibida para crianças e adolescentes;
- práticas publicitárias predatórias, injustas ou enganosas, ou que possam causar outros danos a crianças e adolescentes;
- conteúdo pornográfico.
Contestação de retirada
A notificação deverá conter elementos suficientes para permitir a identificação específica do autor e do material apontado como violador desses direitos, proibida a denúncia anônima.
Para fazer a denúncia, o público deverá ter acesso fácil ao mecanismo de encaminhamento dessa notificação.
No entanto, o relator do projeto, deputado Jadyel Alencar (Republicanos-PI), incluiu no texto procedimentos para a contestação da decisão de retirada de conteúdo. Dessa forma, quem postou o conteúdo deverá ser notificado da retirada, com dados sobre o motivo e fundamentação, e informação sobre possibilidade de recurso segundo prazos definidos.
Uso abusivo
Outra novidade sobre as notificações é que os provedores de aplicativos deverão criar mecanismos para identificar o uso abusivo do instrumento de denúncia, informando ao usuário sobre quais hipóteses será considerado uso indevido e sanções aplicáveis.
Os provedores deverão definir critérios técnicos e objetivos de identificação desse abuso, informar o usuário sobre a instauração de procedimento de apuração de abuso de notificação e possíveis sanções, com prazos para recurso e resposta a esse recurso.
Entre as sanções previstas, aplicáveis de forma proporcional e necessária segundo a gravidade da conduta, a suspensão temporária da conta, o seu cancelamento em casos de reincidência ou abuso grave e a comunicação às autoridades competentes se houver indícios de infração penal ou violação de direitos.
Pais e responsáveis
Apesar de a obrigação de retirar o conteúdo recair sobre os fornecedores dos aplicativos, o PL 2628/22 deixa claro que isso não exime os pais e responsáveis de atuarem para impedir a exposição de crianças e adolescentes a essas situações, assim como qualquer um que se beneficiar financeiramente da produção ou distribuição pública de qualquer representação visual desse público.
Conteúdo impróprio
Os fornecedores de produtos e serviços de tecnologia da informação que disponibilizarem conteúdo, produto ou serviço impróprios, inadequados ou proibidos para menores de 18 anos deverão adotar medidas eficazes para impedir o acesso por crianças e adolescentes no âmbito de seus serviços e produtos.
Entre esses conteúdos estão material pornográfico e outros que sejam vedados pela legislação, assim como os classificados como não recomendados para a faixa etária correspondente.
Para isso, deverão adotar mecanismos confiáveis de verificação de idade de cada usuário, vedada a autodeclaração.
Somente para conteúdo pornográfico é que o provedor deverá impedir a criação de contas ou perfis por crianças e adolescentes.

No âmbito da Lei Geral de Proteção de Dados (LGPD), decisão recente do Supremo Tribunal Federal (STF) confirmou jurisprudência em relação a provedores de aplicações de internet, termo usado originalmente no projeto, como os provedores de serviços de e-mail; os provedores de aplicações de realização de reuniões fechadas por vídeo ou voz; e os provedores de serviços de mensageria instantânea (Whatsapp, por exemplo) exclusivamente quanto às comunicações interpessoais resguardadas pelo sigilo das comunicações.
Verificação de idade
A fim de padronizar a adoção de mecanismos de aferição de idade de quem acessa os aplicativos, o texto aprovado prevê que o poder público poderá atuar como regulador, certificador ou promotor de soluções nesse sentido.
Aos provedores de lojas de aplicações de internet (como App Store, Play Store ou Google Store) e aos provedores de sistemas operacionais (como Android ou IOS), o projeto determina que adotem medidas tecnicamente seguras e auditáveis para verificar a idade e permitir que pais ou responsáveis configurem mecanismos de supervisão parental.
Deverão ainda viabilizar interface de programação de aplicações (APIs) para cruzar dados sobre a idade do usuário. As APIs são uma forma de “comunicação” entre aplicações de internet para processar dados necessários a uma interação do usuário com o serviço.
Já a autorização para download de aplicativos por adolescentes dependerá de consentimento livre e informado dos pais ou responsáveis legais, segundo termos da legislação vigente. Mesmo respeitada sua autonomia progressiva, fica proibido presumir autorização na hipótese de ausência de manifestação dos pais ou responsáveis.
Os dados coletados para a verificação de idade de crianças e adolescentes poderão ser utilizados unicamente para esta finalidade.
Com participação social por meio de consultas públicas, o poder público poderá atuar como regulador, certificador ou promotor de soluções técnicas de verificação de idade.
Uma autoridade administrativa autônoma a ser criada por lei deverá editar os regulamentos e fiscalizar o cumprimento das regras.
Controle parental
Para viabilizar o controle parental do acesso aos aplicativos por parte de crianças e adolescentes, os fornecedores deverão tornar disponível configurações e ferramentas acessíveis e fáceis de usar que apoiem a supervisão parental.
Outras ferramentas deverão permitir a limitação do tempo de uso do produto ou serviço e uma funcionalidade deve avisar claramente quando as ferramentas de controle parental estiverem em vigor e quais configurações ou controles foram aplicados.
Em todo caso, a configuração padrão das ferramentas de controle parental deve adotar o maior nível de proteção disponível, assegurando, no mínimo:
- restrição à comunicação com crianças e adolescentes por usuários não autorizados;
- limitação de recursos para aumentar, sustentar ou estender artificialmente o uso do produto ou serviço pela criança ou adolescente, como reprodução automática de mídia, recompensas pelo tempo de uso, notificações e outros recursos que possam resultar em uso compulsivo do produto ou serviço;
- emprego de interfaces para imediata visualização e limitação do tempo de uso do produto ou serviço;
- controle de sistemas de recomendação personalizados, inclusive com opção de desativá-los;
- restringir o compartilhamento da geolocalização e fornecer aviso sobre seu rastreamento;
- promover educação digital midiática quanto ao uso seguro de produtos e serviços de tecnologia da informação; e
- revisão regular de ferramentas de inteligência artificial com participação de especialistas com base em critérios técnicos para assegurar a segurança de uso por crianças e adolescentes.
Informações
Os fornecedores desses produtos e serviços deverão ainda tornar disponível a pais e responsáveis, com acesso independente da compra do produto, informações sobre os riscos e as medidas de segurança adotadas para crianças e adolescentes, incluindo a privacidade e a proteção de dados.
Quando o tratamento de dados de crianças e adolescentes ocorrer para fins não estritamente necessários à operação do produto ou serviço, o controlador deverá mapear os riscos e realizar esforços para diminuí-los, além de fazer relatório de impacto na proteção de dados pessoais.
Motta destaca união da Câmara para aprovar projeto sobre proteção a...

O presidente da Câmara dos Deputados, Hugo Motta (Republicanos-PB), afirmou que a votação de regras para proteção de crianças e adolescentes em ambientes digitais (PL 2628/22) não é uma pauta da esquerda ou da direita, mas sim do Brasil. "O que queremos é trazer proteção e garantia de não ter problemas como adultização infantil, erotização, pedofilia no ambiente digital", disse.
Motta classificou a aprovação do projeto como um "brilhante momento de união em defesa de uma pauta muito importante para o País". "Não tenho dúvida que nossas crianças e nossos adolescentes irão reconhecer o trabalho do Parlamento em buscar um ambiente seguro em nossas redes sociais", afirmou.
Segundo o presidente, o fato de quase 80 projetos terem sido apresentados depois de o influenciador Felca ter denunciado a adultização e exploração de crianças nas redes sociais mostrou o interesse da Câmara em discutir o tema. "Esta pauta está acima da radicalização e da polarização política. Ela traz a convergência para a Casa e está acima das questões que dividem o Parlamento", destacou Motta.
Segundo ele, a votação da proposta não pode configurar que a Câmara queira censurar qualquer opinião ou ter órgãos censores das redes.
O projeto foi aprovado no Plenário da Câmara e seguirá para nova votação no Senado.
Grupo de trabalho
A proteção de crianças e adolescentes em ambiente digital continuará em debate na Câmara dos Deputados. Hugo Motta criou nesta quarta-feira (20) um grupo de trabalho para estudar e propor novas soluções legislativas sobre o tema. O grupo terá 30 dias para atuar e terá dois membros de cada um dos partidos na Câmara.





