O governo do Reino Unido tem anunciou (ainda) mais adições ao seu plano expansivo e controverso para regular o conteúdo online - também conhecido como Lei de Segurança Online.
Ele afirma que o último pacote de medidas a ser adicionado ao projeto tem como objetivo proteger os usuários da web contra trolls anônimos.
O projeto de lei tem objetivos muito mais amplos como um todo, compreendendo um regime abrangente de moderação de conteúdo direcionado a conteúdos explicitamente ilegais, mas também a conteúdos “legais, mas prejudiciais” – com o objetivo alegado de proteger as crianças de uma série de danos on-line, de cyberbullying e pró-suicídio. conteúdo à exposição à pornografia.
Os críticos, entretanto, dizem que a legislação matará a liberdade de expressão e isolará o Reino Unido, criando uma rede fragmentada na Grã-Bretanha, ao mesmo tempo que acumula grandes riscos e custos legais na realização de negócios digitais no Reino Unido. (A menos que você faça parte do clube de empresas de 'tecnologia de segurança' que se oferecem para vender serviços para ajudar as plataformas em sua conformidade, é claro.)
Nos últimos meses, duas comissões parlamentares examinaram o projecto de legislação. Um pediu um foco mais nítido em conteúdo ilegal, enquanto outro alertou que a abordagem do governo é ao mesmo tempo um risco para a expressão online e é pouco provável que seja suficientemente robusto para abordar questões de segurança – por isso é justo dizer que os ministros estão sob pressão para fazer revisões.
Conseqüentemente, o projeto de lei continua a mudar de forma ou, bem, a crescer em escopo.
Outras adições recentes (substanciais) ao projecto incluem uma requisito para sites de conteúdo adulto usarem tecnologias de verificação de idade; e uma expansão massiva do regime de responsabilidade, com uma abrangência mais ampla lista de conteúdo criminoso sendo adicionado à face da conta.
As últimas mudanças, que o Departamento de Digital, Cultura, Mídia e Esporte (DCMS) afirma que se aplicarão apenas às maiores empresas de tecnologia, significam que as plataformas serão obrigadas a fornecer aos usuários ferramentas para limitar a quantidade de conteúdo (potencialmente) prejudicial, mas tecnicamente legal. eles poderiam estar expostos.
Os defensores da segurança online associam frequentemente a propagação de abusos direccionados, como o discurso de ódio racista ou o cyberbullying, ao anonimato das contas, embora seja menos claro em que provas se baseiam - para além de relatos anedóticos de contas individuais anónimas que são abusivas.
No entanto, é igualmente fácil encontrar exemplos de conteúdo abusivo distribuído por contas identificadas e verificadas. Não menos importante, a própria secretária de Estado digital de língua afiada, Nadine Dorries, cuja tweets atacando um jornalista da LBC recentemente levou a isso momento estranho, peguei você numa audiência da comissão parlamentar.
A questão é: exemplos isolados – por mais destacados que sejam – não dizem muito sobre problemas sistêmicos.
Entretanto, uma decisão recente do Tribunal Europeu dos Direitos Humanos — à qual o Reino Unido continua vinculado — reafirmou a importância do anonimato online como veículo para “o livre fluxo de opiniões, ideias e informações”, com o tribunal demonstrando claramente a visão de que o anonimato é um componente chave da liberdade de expressão.
Muito claramente, então, os legisladores do Reino Unido precisam de agir com cuidado para que as reivindicações do governo de que a legislação que transforma o Reino Unido no “lugar mais seguro para estar online” – ao mesmo tempo que protege a liberdade de expressão – não acabem por ser destruídas.
Dado que a trollagem na Internet é um problema sistémico que é especialmente problemático em certas plataformas de grande alcance, convencionais e financiadas por publicidade, onde coisas realmente vis podem ser amplificadas massivamente, pode ser mais instrutivo para os legisladores considerarem os incentivos financeiros ligados aos quais o conteúdo se espalha. - expresso por meio de algoritmos de classificação/surgimento de conteúdo 'baseados em dados' (como o uso pelo Facebook da polarização de “classificação baseada em engajamento”, como denunciada pela denunciante Frances Haugen).
No entanto, a abordagem do Reino Unido para combater a trollagem online segue um rumo diferente.
O governo está se concentrando em forçar as plataformas a fornecer aos usuários opções para limitar sua própria exposição – apesar do DCMS também reconhecer o papel abusivo dos algoritmos na amplificação de conteúdo prejudicial (seu comunicado de imprensa aponta que “muito” conteúdo que é expressamente proibido nos T&Cs das redes sociais é “muitas vezes” permitido permanecer ativo e “promovido ativamente para as pessoas através de algoritmos”; e a própria Dorries critica “algoritmos desonestos”).
A solução escolhida pelos ministros para a amplificação algorítmica problemática não é pressionar pela aplicação do regime de proteção de dados existente no Reino Unido contra adtech de perfil de pessoas – algo que os defensores da privacidade e dos direitos digitais têm exigido há literalmente anos – o que poderia certamente limitar o quão intrusivamente (e potencialmente abusivamente) os utilizadores individuais poderiam ser alvo de plataformas baseadas em dados.
Em vez disso, o governo quer que as pessoas entreguem mais dados pessoais a esses (normalmente) gigantes da plataforma adtech, para que possam criar novas ferramentas para ajudar os usuários a se protegerem! (Também relevante: o governo está simultaneamente visando reduzir o nível de proteção de privacidade doméstica para os britânicos como uma das suas 'oportunidades Brexit'… então, er… 😬)
O DCMS afirma que as últimas adições ao projeto de lei tornarão um requisito para que as maiores plataformas (as chamadas empresas de “categoria um”) ofereçam maneiras para os usuários verificarem suas identidades e controlarem quem pode interagir com eles – como selecionando uma opção para receba apenas mensagens diretas e respostas de contas verificadas.
“A responsabilidade recairá sobre as plataformas para decidir quais métodos usar para cumprir este dever de verificação de identidade, mas elas devem dar aos usuários a opção de aceitar ou não”, escreve em um comunicado de imprensa anunciando as medidas extras.
Comentando em comunicado, Dorries acrescentou: “As empresas de tecnologia têm a responsabilidade de impedir que trolls anônimos poluam suas plataformas.
“Ouvimos apelos para reforçarmos as nossas novas leis de segurança online e estamos a anunciar novas medidas para colocar maior poder nas mãos dos próprios utilizadores das redes sociais.
“As pessoas agora terão mais controle sobre quem pode contatá-las e serão capazes de deter a onda de ódio que lhes é transmitida por algoritmos desonestos.”
O Twitter já oferece aos usuários verificados a capacidade de ver um feed de respostas apenas de outros usuários verificados. Mas a proposta do Reino Unido parece destinada a ir mais longe – exigindo que todas as principais plataformas adicionem ou expandam tais recursos, tornando-os disponíveis a todos os utilizadores e oferecendo um processo de verificação para aqueles que estão dispostos a provar uma identificação em troca de serem capazes de maximizar o seu alcance. .
O DCMS disse que a lei em si não estipulará métodos de verificação específicos – em vez disso, o regulador (Ofcom) oferecerá “orientação”.
“Quando se trata de verificação de identidades, algumas plataformas podem optar por fornecer aos usuários a opção de verificar sua foto de perfil para garantir que seja uma imagem verdadeira. Ou eles poderiam usar a autenticação de dois fatores, em que uma plataforma envia uma solicitação ao número de celular de um usuário para verificação. Alternativamente, a verificação poderia incluir pessoas que usam um documento de identidade emitido pelo governo, como um passaporte, para criar ou atualizar uma conta”, sugere o governo.
Ofcom, o órgão de supervisão responsável pela aplicação da Lei de Segurança Online, estabelecerá orientações sobre como as empresas podem cumprir o novo “dever de verificação do utilizador” e as “opções de verificação que as empresas podem utilizar”, acrescenta.
“Ao desenvolver esta orientação, o Ofcom deve garantir que as possíveis medidas de verificação sejam acessíveis aos usuários vulneráveis e consultar o Comissário de Informação, bem como os usuários adultos vulneráveis e especialistas técnicos”, observa também o DCMS, com um pequeno aceno ao enorme tópico de privacidade.
Os grupos de direitos digitais darão pelo menos um sinal de alívio pelo facto de o Reino Unido não estar a pressionar por uma proibição total do anonimato, como têm insistido alguns defensores da segurança online.
Quando se trata do complicado tema da trollagem online, em vez de perseguir o discurso abusivo em si, a estratégia do Reino Unido depende de colocar potenciais limites à liberdade de alcance nas principais plataformas.
“Proibir totalmente o anonimato online afetaria negativamente aqueles que têm experiências online positivas ou o usam para sua segurança pessoal, como vítimas de violência doméstica, ativistas que vivem em países autoritários ou jovens que exploram sua sexualidade”, escreve o DCMS, antes de prosseguir para argumentar o novo O dever “proporcionará um melhor equilíbrio entre capacitar e proteger os adultos – especialmente os vulneráveis – ao mesmo tempo que salvaguarda a liberdade de expressão online, porque não exigirá a eliminação de qualquer liberdade de expressão legal”.
“Embora isso não impeça trolls anônimos de postar conteúdo abusivo – desde que seja legal e não viole os termos e condições da plataforma – isso impedirá que as vítimas sejam expostas a ele e lhes dará mais controle sobre sua experiência online”, também sugere.
Questionado sobre o equilíbrio do governo aqui, Neil Brown, advogado de internet, telecomunicações e tecnologia da Jurídico decodificado, não estava convencido da consistência da sua abordagem com os direitos humanos.
“Não acredito que esta proposta seja consistente com o direito fundamental de ‘receber e transmitir informações e ideias sem interferência da autoridade pública’, conforme consagrado no Artigo 10 da Lei dos Direitos Humanos de 1998”, disse ele ao TechCrunch. “Em nenhum lugar está escrito que o direito de alguém transmitir informações se aplica apenas se alguém tiver verificado a sua identidade de acordo com um padrão exigido pelo governo.
“Embora fosse legal para uma plataforma optar por implementar tal abordagem, obrigar as plataformas a implementar essas medidas parece-me de legalidade questionável.”
De acordo com a proposta do governo, aqueles que quiserem maximizar a sua visibilidade/alcance online teriam de entregar um documento de identificação, ou de outra forma provar a sua identidade às principais plataformas - e Brown também destacou que isso poderia criar um 'sistema de dois níveis' de expressão online que pode (digamos) servir o indivíduo extrovertido e/ou desagradável, ao mesmo tempo que diminui a visibilidade daqueles usuários mais cautelosos/avessos ao risco ou de outra forma vulneráveis que são justificadamente cautelosos com a autoidentificação (e, provavelmente, muito menos propensos a sejam trolls de qualquer maneira).
“Embora as propostas não cheguem a exigir que todos os utilizadores forneçam mais dados pessoais aos sites de redes sociais, o resultado é que qualquer pessoa que não queira, ou não seja capaz, de se verificar se tornará um utilizador de segunda classe”, sugeriu. “Parece que os sites serão incentivados, ou obrigados, a permitir que os usuários bloqueiem em massa pessoas não verificadas.
“Aqueles que estão dispostos a espalhar bile ou desinformação, ou a assediar, sob os seus próprios nomes, provavelmente não serão afetados, já que a etapa adicional de mostrar a identidade provavelmente não será uma barreira para eles.”
O TechCrunch entende que a proposta do governo significaria que os usuários de plataformas geradas por usuários no escopo que não usam seu nome real como identidade de conta pública (ou seja, porque preferem usar um apelido ou outro apelido) ainda seriam capazes de compartilhe opiniões (legais) sem limites sobre quem veria suas coisas - fornecido eles verificaram (em particular) sua identidade na plataforma em questão.
Brown foi um pouco mais positivo sobre esse elemento de continuar a permitir o compartilhamento público pseudonimizado.
Mas ele também alertou que muitas pessoas ainda podem ser muito cautelosas para confiar sua identidade real aos bancos de dados abrangentes das plataformas. (O passeio de todos os tipos de blogueiros anônimos virais ao longo dos anos destaca as motivações para o vazamento de identidades protegidas.)
“Isso é um pouco melhor do que uma política de ‘nomes reais’ – onde seu nome verificado é tornado público – mas apenas marginalmente, porque você ainda precisa entregar documentos de identidade ‘reais’ a um site”, disse Brown, acrescentando: “Eu suspeito que as pessoas que permanecem sob pseudônimos para sua própria proteção serão, com razão, cautelosas com a criação desses novos e massivos conjuntos de dados, que provavelmente serão atraentes tanto para hackers quanto para funcionários desonestos.”
Controles de usuário para filtragem de conteúdo
Em uma segunda nova obrigação adicionada ao projeto de lei, o DCMS disse que também exigirá que as plataformas de categoria um forneçam aos usuários ferramentas que lhes dêem maior controle sobre o que estão expostos no serviço.
“O projeto de lei já forçará as empresas abrangidas pelo âmbito a remover conteúdos ilegais, como imagens de abuso sexual infantil, promoção do suicídio, crimes de ódio e incitação ao terrorismo. Mas há uma lista crescente de conteúdos e comportamentos tóxicos nas redes sociais que ficam abaixo do limiar de uma ofensa criminal, mas que ainda causam danos significativos”, escreve o governo.
“Isso inclui abusos racistas, promoção de automutilação e distúrbios alimentares e perigosa desinformação antivacinas. Muito disto já é expressamente proibido nos termos e condições das redes sociais, mas muitas vezes é permitido permanecer e é ativamente promovido para as pessoas através de algoritmos.”
“De acordo com um segundo novo dever, as empresas da 'categoria um' terão que disponibilizar ferramentas para que seus usuários adultos escolham se desejam ser expostos a qualquer conteúdo legal, mas prejudicial, quando for tolerado em uma plataforma”, acrescenta DCMS.
“Essas ferramentas podem incluir novas configurações e funções que impedem os usuários de receber recomendações sobre determinados tópicos ou colocar telas de confidencialidade sobre esse conteúdo.”
O seu comunicado de imprensa dá o exemplo de “conteúdo sobre a discussão da recuperação de lesões autoprovocadas” como algo que pode ser “tolerado num serviço de categoria um, mas que um determinado utilizador pode não querer ver”.
Brown foi mais positivo sobre este plano de exigir que as principais plataformas oferecessem um sistema de filtro de conteúdo controlado pelo usuário - com a ressalva de que seria necessário genuinamente ser controlado pelo usuário.
Ele também levantou preocupações sobre a funcionalidade.
“Acolho com satisfação a ideia do sistema de arquivamento de conteúdo, para que as pessoas possam ter um certo grau de controle sobre o que veem quando acessam um site de mídia social. No entanto, isso só funciona se os usuários puderem escolher o que vai para suas listas de bloqueio pessoais. E não tenho certeza de como isso funcionaria na prática, pois duvido que a classificação automatizada de conteúdo seja suficientemente sofisticada”, disse-nos.
“Quando o governo se refere a 'qualquer conteúdo legal mas prejudicial', posso optar por bloquear conteúdo com uma tendência política específica, por exemplo, que exponha uma ideologia que considero prejudicial? Ou isso é antidemocrático (embora seja minha escolha fazê-lo)?
“Posso exigir o bloqueio de todo conteúdo a favor da vacinação contra a COVID-19, se considerar isso prejudicial? (Eu não.)
“E os comentários abusivos ou ofensivos de um político? Ou será um sistema muito mais básico, essencialmente permitindo que os usuários escolham bloquear nudez, palavrões e tudo o que uma plataforma determine para retratar automutilação ou racismo.”
“Se for deixado às plataformas a definição de quais são os 'determinados tópicos' - ou, pior, ao governo - pode ser mais fácil de conseguir, tecnicamente. No entanto, pergunto-me se os fornecedores recorrerão ao bloqueio excessivo, numa tentativa de garantir que as pessoas não vejam coisas que pediram para serem suprimidas.”
Um problema constante na avaliação da Lei de Segurança Online é que grandes quantidades de detalhes específicos simplesmente ainda não estão claros, dado que o governo pretende promover tantos detalhes através de legislação secundária. E, novamente hoje, observou que mais detalhes sobre as novas funções serão definidos nos próximos Códigos de Prática estabelecidos pelo Ofcom.
Assim, sem muito mais especificidades práticas, não é realmente possível compreender adequadamente os impactos práticos, tais como a forma como — literalmente — as plataformas podem ser capazes de ou tentar implementar estes mandatos. O que nos resta é, principalmente, uma interpretação do governo.
Mas, pensando nisso, como as plataformas podem geralmente abordar a obrigação de filtrar tópicos de “conteúdo legal, mas prejudicial”?
Um cenário - supondo que as próprias plataformas decidam onde traçar a linha de 'dano' - é, como Brown prevê, que elas aproveitem a oportunidade para oferecer um feed massivamente 'bloqueado' para aqueles que optam por excluir 'prejudiciais, mas legais ' contente; em grande parte para reduzir o risco legal e o custo operacional (NB: a automação é super barata e fácil se você não precisa se preocupar com nuances ou qualidade; basta bloquear nada você não tem 100% de certeza de que é 100% incontroverso!).
Mas eles também poderiam usar o bloqueio excessivo como uma tática de manipulação - com o objetivo final de desencorajar as pessoas de ativar um nível tão massivo de censura e/ou incentivá-las a retornar, voluntariamente, ao feed não filtrado onde os algoritmos de conteúdo polarizador da plataforma tenha um espectro de conteúdo mais completo para chamar a atenção e gerar receita publicitária… Etapa 3: Lucro.
O problema é que as plataformas teriam uma negação plausível neste cenário – uma vez que poderiam simplesmente argumentar que o próprio usuário optou por ver coisas prejudiciais! (Ou pelo menos não cancelaram porque desligaram o filtro ou nunca o usaram.) Também conhecido como: 'Não posso culpar o governo da IA!'
Quaisquer danos amplificados por algoritmos baseados em dados ficariam subitamente fora de perigo. E os danos online se tornariam culpa do usuário por não ligarem a tela de sensibilidade de alta tecnologia disponível para se protegerem. Responsabilidade desviada.
O que, francamente, parece o tipo de supervisão regulatória que um gigante da adtech como o Facebook poderia alegremente apoiar.
Ainda assim, os gigantes das plataformas enfrentam muitos riscos e encargos decorrentes do pacote completo de propostas que lhes chega da Dorries & co.
O secretário de Estado também não fez segredo de quão alegre ela seria para prender pessoas como Mark Zuckerberg e Nick Clegg.
Além de ser obrigado a remover proativamente conteúdo explicitamente ilegal, como terrorismo e CSAM - sob ameaça de multas pesadas e/ou responsabilidade criminal para executivos nomeados - o projeto de lei foi recentemente ampliado para exigir remoções proativas de uma gama muito mais ampla de conteúdos, relacionados a conteúdo on-line. tráfico de drogas e armas; tráfico de pessoas; pornografia de vingança; fraude; promoção do suicídio; e incitar ou controlar a prostituição para fins lucrativos.
Portanto, as plataformas precisarão procurar e remover todas essas coisas, ativamente e antecipadamente, em vez de agir após o fato nos relatórios dos usuários, como estão acostumadas (ou não agir muito, conforme o caso). O que realmente altera seu negócio de conteúdo como de costume.
DCMS também anunciou recentemente acrescentaria também novas infrações criminais de comunicação ao projeto de lei – afirmando que pretendia reforçar as proteções contra “comportamentos online prejudiciais”, como o comportamento coercitivo e controlador por parte de agressores domésticos; ameaças de violação, morte e violência física; e partilhar deliberadamente desinformação perigosa sobre tratamentos fraudulentos da COVID-19 – alargando ainda mais o âmbito do conteúdo que as plataformas devem estar preparadas e atentas.
Portanto, dado o escopo cada vez maior do regime de varredura de conteúdo que está chegando às plataformas - combinado com a relutância dos gigantes da tecnologia em fornecer recursos adequados à moderação de conteúdo humano (uma vez que isso destruiria seus lucros) - pode na verdade ser muito mais fácil para Zuck & co para mudar para um feed único e super vanilla.
Faça fotos de gatos e de bebês do começo ao fim - e espere que os olhos não rolem e os lucros não esvaziem, mas o Ofcom fique longe ... ou algo assim.
- &
- Sobre
- Acesso
- Conta
- Aja
- Ad
- Adição
- Adicional
- endereço
- verificação de idade
- algorítmico
- algoritmos
- Todos os Produtos
- já
- Apesar
- amplificando
- Anunciando
- Anonimato
- Outro
- abordagem
- artigo
- Autenticação
- Automatizado
- Automação
- disponível
- Disponível para todos
- Bebê
- Banimento
- antes
- ser
- O maior
- Projeto de lei
- Bloquear
- corpo
- negócio
- Censura
- carregar
- criança
- Crianças
- reivindicações
- classificação
- clube
- vinda
- comentários
- Comunicações
- Empresas
- atraente
- compliance
- componente
- conteúdo
- moderação de conteúdo
- continua
- poderia
- países
- Tribunal de
- Covid-19
- crio
- Criar
- Crimes
- Criminal
- Cultura
- Cyberbullying
- dados,
- protecção de dados
- bases de dados
- lidar
- Demanda
- Apesar de
- detalhe
- em desenvolvimento
- diferente
- digital
- direitos digitais
- desinformação
- INSTITUCIONAIS
- down
- droga
- colaboradores
- especialmente
- Europa
- exemplo
- exchange
- Expandir
- expansão
- expansão
- vasta experiência
- Experiências
- especialistas
- Rosto
- feira
- Funcionalidades
- financeiro
- Primeiro nome
- Fixar
- fluxo
- Foco
- focado
- fraude
- Gratuito
- Freedom
- cheio
- funções
- meta
- vai
- Governo
- agarrar
- Cresça:
- Crescente
- hackers
- discurso de ódio
- ajudar
- SUA PARTICIPAÇÃO FAZ A DIFERENÇA
- Alta
- Como funciona o dobrador de carta de canal
- HTTPS
- enorme
- direitos humanos
- idéia
- Dados de identificação:
- Verificação de Identidade
- Ilegal
- executar
- importância
- incluir
- Individual
- INFORMAÇÕES
- Internet
- emitem
- IT
- Chave
- grande
- mais recente
- Escritórios de
- legisladores
- Leis
- vazar
- levou
- Legal
- Legislação
- Nível
- responsabilidade
- Line
- LINK
- Lista
- listas
- Corrente principal
- principal
- Fazendo
- marca
- marcar zuckerberg
- medidas
- Mídia
- Desinformação
- Móvel Esteira
- mês
- mais
- nomes
- Notas
- oferecer
- oferecendo treinamento para distância
- online
- Opiniões
- Oportunidade
- Opção
- Opções
- ordem
- Outros
- de outra forma
- passaporte
- Pessoas
- pessoal
- dados pessoais
- físico
- fotografia
- tubo
- plataforma
- Plataformas
- Abundância
- Privacidade
- Pornô
- Pornografia
- possível
- poder
- imprensa
- Comunicados à CMVM
- pressão
- política de privacidade
- Problema
- problemas
- processo
- Perfil
- Lucro
- lucros
- promoção
- proposta
- proteger
- proteção
- fornecer
- público
- qualidade
- questão
- racismo
- alcance
- receber
- redução
- reguladores
- liberar
- alívio
- Relatórios
- requerer
- requeridos
- recurso
- Risco
- Rolo
- decisão
- Segurança
- Dito
- digitalização
- exploração
- Peneira
- secundário
- Aproveitar
- vender
- serviço
- Serviços
- conjunto
- Partilhar
- Baixo
- periodo
- Locais
- So
- Redes Sociais
- meios de comunicação social
- algo
- sofisticado
- Spin
- Desporto
- propagação
- Estado
- Declaração
- ficar
- Estratégia
- substancial
- Suicídio
- Interruptor
- .
- tecnologia
- TechCrunch
- Dados Técnicos:
- Terrorismo
- a lei
- ameaças
- Através da
- hoje
- ferramentas
- Temas
- tocha
- transformando
- Confiança
- Uk
- Governo do Reino Unido
- Atualizar
- us
- usar
- usuários
- veículo
- Verificação
- contas verificadas
- Ver
- visibilidade
- Vulnerável
- Onda
- web
- Site
- sites
- O Quê
- se
- QUEM
- sem
- Atividades:
- trabalho
- seria
- anos