El gobierno del Reino Unido tiene anunció (todavía) más adiciones a su plan expansivo y controvertido para regular el contenido en línea, también conocido como el Proyecto de ley de seguridad en línea.
Dice que el último paquete de medidas que se agregará al borrador tiene como objetivo proteger a los usuarios de la web del troleo anónimo.
El proyecto de ley tiene objetivos mucho más amplios en su conjunto, que incluyen un amplio régimen de moderación de contenido dirigido a contenido explícitamente ilegal pero también a cosas "legales pero dañinas", con el objetivo de proteger a los niños de una variedad de daños en línea, desde ciberacoso y pro-suicidio. contenido a la exposición a la pornografía.
Mientras tanto, los críticos dicen que la legislación matará la libertad de expresión y aislará al Reino Unido, creando una gran red fragmentada en Gran Bretaña, al mismo tiempo que acumulará un gran riesgo legal y costos para hacer negocios digitales en el Reino Unido. (A menos que sea parte del club de empresas de "tecnología de seguridad" que ofrecen vender servicios para ayudar a las plataformas con su cumplimiento, por supuesto).
En los últimos meses, dos comités parlamentarios han analizado el proyecto de ley. uno pidió un enfoque más nítido en el contenido ilegal, mientras que otro advirtió que el enfoque del gobierno es a la vez un riesgo para la expresión en línea y es poco probable que sea lo suficientemente sólido como para abordar las preocupaciones de seguridad, por lo que es justo decir que los ministros están bajo presión para hacer revisiones.
Por lo tanto, el proyecto de ley continúa cambiando de forma o, bueno, creciendo en alcance.
Otras adiciones recientes (sustanciales) al borrador incluyen una requisito para que los sitios web con contenido para adultos utilicen tecnologías de verificación de edad; y una expansión masiva del régimen de responsabilidad, con una mayor lista de contenido criminal siendo añadido a la cara de la factura.
Los últimos cambios, que según el Departamento de Digital, Cultura, Medios y Deporte (DCMS, por sus siglas en inglés) solo se aplicarán a las empresas tecnológicas más grandes, significa que las plataformas deberán proporcionar a los usuarios herramientas para limitar la cantidad de contenido (potencialmente) dañino pero técnicamente legal. podrían estar expuestos.
Los defensores de la seguridad en línea vinculan con frecuencia la propagación de abusos dirigidos, como el discurso de odio racista o el ciberacoso, con el anonimato de las cuentas, aunque no está tan claro en qué evidencia se basan, más allá de los informes anecdóticos de cuentas anónimas individuales que son abusivas.
Sin embargo, es igualmente fácil encontrar ejemplos de contenido abusivo distribuido por cuentas nombradas y verificadas. No menos importante, la propia secretaria de estado digital de lengua afilada, Nadine Dorries, cuya tuits azotando a un periodista de LBC recientemente condujo a esto momento incómodo en una audiencia del comité parlamentario.
El punto es: los ejemplos individuales, por muy destacados que sean, en realidad no le dicen mucho sobre los problemas sistémicos.
Mientras tanto, un fallo reciente del Tribunal Europeo de Derechos Humanos, al que el Reino Unido sigue sujeto, reafirmó la importancia del anonimato en línea como un vehículo para “el libre flujo de opiniones, ideas e información”, y el tribunal demostró claramente que el anonimato es un componente clave de la libertad de expresión.
Claramente, entonces, los legisladores del Reino Unido deben andar con cuidado si los reclamos del gobierno por la legislación que transforma al Reino Unido en 'el lugar más seguro para navegar en línea', al mismo tiempo que protege la libertad de expresión, no van a terminar destrozados.
Dado que el troleo en Internet es un problema sistémico que es especialmente problemático en ciertas plataformas financiadas por publicidad de alto alcance, convencionales, donde las cosas realmente viles pueden amplificarse masivamente, podría ser más instructivo para los legisladores considerar los incentivos financieros vinculados a los contenidos que se difunden. — expresado a través de algoritmos de clasificación/emergencia de contenido 'basados en datos' (como el uso de Facebook de la polarización "clasificación basada en el compromiso", como llamado por la denunciante Frances Haugen).
Sin embargo, el enfoque del Reino Unido para abordar el troleo en línea toma un rumbo diferente.
El gobierno se está enfocando en obligar a las plataformas a brindarles a los usuarios opciones para limitar su propia exposición, a pesar de que DCMS también reconoce el papel abusivo de los algoritmos en la amplificación de contenido dañino (su comunicado de prensa señala que "gran parte" del contenido está expresamente prohibido en los términos y condiciones de las redes sociales). "con demasiada frecuencia" se le permite quedarse despierto y "promocionarse activamente entre las personas a través de algoritmos", y la propia Dorries critica los "algoritmos deshonestos").
La solución elegida por los ministros para la amplificación algorítmica problemática es no presionar para que se aplique el régimen de protección de datos existente en el Reino Unido. contra la tecnología publicitaria de perfiles de personas - algo que los defensores de la privacidad y los derechos digitales han estado pidiendo literalmente durante años - lo que sin duda podría limitar la intrusión (y potencialmente abusiva) de los usuarios individuales que podrían ser atacados por las plataformas basadas en datos.
Más bien, el gobierno quiere que las personas entreguen más de sus datos personales a estos (típicamente) gigantes de plataformas adtech para que puedan crear nuevas herramientas para ayudar a los usuarios a protegerse. (También relevante: El gobierno es simultáneamente contemplando reducir el nivel de protección de la privacidad doméstica para los británicos como una de sus 'oportunidades Brexit'... entonces, er... 😬)
DCMS dice que las últimas adiciones al proyecto de ley harán que sea un requisito para las plataformas más grandes (las llamadas empresas de "categoría uno") ofrecer formas para que los usuarios verifiquen sus identidades y controlen quién puede interactuar con ellos, como al seleccionar una opción para solo recibe mensajes directos y respuestas de cuentas verificadas.
“Recaerá en las plataformas la responsabilidad de decidir qué métodos usar para cumplir con este deber de verificación de identidad, pero deben dar a los usuarios la opción de participar o no”, escribe en un comunicado de prensa que anuncia las medidas adicionales.
Al comentar en un comunicado, Dorries agregó: “Las empresas tecnológicas tienen la responsabilidad de evitar que los trolls anónimos contaminen sus plataformas.
“Hemos escuchado los llamados para que fortalezcamos nuestras nuevas leyes de seguridad en línea y estamos anunciando nuevas medidas para poner más poder en manos de los propios usuarios de las redes sociales.
“La gente ahora tendrá más control sobre quién puede contactarlos y podrá detener la ola de odio que les brindan los algoritmos deshonestos”.
Twitter ya ofrece a los usuarios verificados la posibilidad de ver un feed de respuestas solo de otros usuarios verificados. Pero la propuesta del Reino Unido parece ir más allá: exigir que todas las plataformas principales agreguen o amplíen dichas funciones, poniéndolas a disposición de todos los usuarios y ofreciendo un proceso de verificación para aquellos que estén dispuestos a demostrar una identificación a cambio de poder maximizar su alcance. .
DCMS dijo que la ley en sí no estipulará métodos de verificación específicos, sino que el regulador (Ofcom) ofrecerá "orientación".
“Cuando se trata de verificar identidades, algunas plataformas pueden optar por brindarles a los usuarios la opción de verificar su foto de perfil para asegurarse de que sea una verdadera semejanza. O podrían usar la autenticación de dos factores donde una plataforma envía un aviso al número de teléfono móvil de un usuario para que lo verifique. Alternativamente, la verificación podría incluir personas que usan una identificación emitida por el gobierno, como un pasaporte, para crear o actualizar una cuenta”, sugiere el gobierno.
Ofcom, el organismo de supervisión que estará a cargo de hacer cumplir el proyecto de ley de seguridad en línea, establecerá una guía sobre cómo las empresas pueden cumplir con el nuevo "deber de verificación del usuario" y las "opciones de verificación que las empresas podrían usar", agrega.
“Al desarrollar esta guía, Ofcom debe asegurarse de que las posibles medidas de verificación sean accesibles para los usuarios vulnerables y consultar con el Comisionado de Información, así como con los usuarios adultos vulnerables y los expertos técnicos”, señala también DCMS, con un pequeño guiño al tema masivo de privacidad.
Los grupos de derechos digitales al menos darán una señal de alivio de que el Reino Unido no esté presionando por una prohibición total del anonimato, como han estado instando algunos activistas de seguridad en línea.
Cuando se trata del tema complicado del troleo en línea, en lugar de perseguir el discurso abusivo en sí mismo, la estrategia del Reino Unido depende de poner límites potenciales a la libertad de alcance en las plataformas principales.
“Prohibir por completo el anonimato en línea afectaría negativamente a quienes tienen experiencias positivas en línea o las usan para su seguridad personal, como las víctimas de abuso doméstico, los activistas que viven en países autoritarios o los jóvenes que exploran su sexualidad”, escribe DCMS, antes de continuar argumentando el nuevo El deber “proporcionará un mejor equilibrio entre empoderar y proteger a los adultos, en particular a los vulnerables, al tiempo que salvaguarda la libertad de expresión en línea porque no requerirá que se elimine ninguna libertad de expresión legal”.
“Si bien esto no evitará que los trolls anónimos publiquen contenido abusivo en primer lugar, siempre que sea legal y no contravenga los términos y condiciones de la plataforma, evitará que las víctimas estén expuestas y les dará más control sobre su experiencia en línea”, dijo. también sugiere.
Cuando se le pidió su opinión sobre el acto de equilibrio del gobierno aquí, Neil Brown, abogado de internet, telecomunicaciones y tecnología de legal decodificado, no estaba convencido de la coherencia de su enfoque con los derechos humanos.
"Soy escéptico de que esta propuesta sea consistente con el derecho fundamental a 'recibir y difundir información e ideas sin interferencia de la autoridad pública', tal como está consagrado en el Artículo 10 de la Ley de Derechos Humanos de 1998", dijo a TechCrunch. “En ninguna parte dice que el derecho de uno a impartir información se aplica solo si uno ha verificado su identidad según un estándar exigido por el gobierno.
“Si bien sería legal que una plataforma decidiera implementar tal enfoque, obligar a las plataformas a implementar estas medidas me parece de legalidad cuestionable”.
Según la propuesta del gobierno, aquellos que quieran maximizar su visibilidad/alcance en línea tendrían que entregar una identificación o demostrar su identidad a las principales plataformas, y Brown también señaló que eso podría crear un "sistema de dos niveles" de expresión en línea que podría (digamos) servir al individuo extrovertido y/o desagradable, al tiempo que degrada la visibilidad de aquellos usuarios más cautelosos/adversos al riesgo o vulnerables de otro modo que desconfían justificadamente de la autoidentificación (y, probablemente, es mucho menos probable que lo hagan). ser trolls de todos modos).
“Aunque las propuestas no llegan a exigir que todos los usuarios entreguen más detalles personales a los sitios de redes sociales, el resultado es que cualquiera que no quiera o no pueda verificarse a sí mismo se convertirá en un usuario de segunda clase”, sugirió. “Parece que se alentará o exigirá a los sitios que permitan a los usuarios bloquear masivamente a personas no verificadas.
“Aquellos que están dispuestos a difundir bilis o desinformación, o a acosar, bajo sus propios nombres es poco probable que se vean afectados, ya que es poco probable que el paso adicional de mostrar una identificación sea una barrera para ellos”.
TechCrunch entiende que la propuesta del gobierno significaría que los usuarios de plataformas generadas por usuarios dentro del alcance que no usan su nombre real como su identidad de cuenta pública (es decir, porque prefieren usar un apodo u otro apodo) aún podrían compartir vistas (legales) sin límites sobre quién vería sus cosas: previsto habían verificado (en privado) su identidad con la plataforma en cuestión.
Brown fue un poco más positivo sobre este elemento de continuar permitiendo el intercambio público seudónimo.
Pero también advirtió que muchas personas aún pueden ser demasiado cautelosas para confiar su identificación real a las bases de datos generales de las plataformas. (Los excursión de todo tipo de blogueros anónimos virales a lo largo de los años destaca las motivaciones para que se filtren las identidades protegidas).
"Esto es marginalmente mejor que una política de 'nombres reales', donde su nombre verificado se hace público, pero solo marginalmente, porque aún necesita entregar documentos de identidad 'reales' a un sitio web", dijo Brown, y agregó: "Yo Sospecho que las personas que siguen usando seudónimos para su propia protección desconfiarán con razón de la creación de estos conjuntos de datos nuevos y masivos, que probablemente sean atractivos tanto para los piratas informáticos como para los empleados deshonestos”.
Controles de usuario para filtrado de contenido
En un segundo deber nuevo que se agrega al proyecto de ley, DCMS dijo que también requerirá que las plataformas de categoría uno brinden a los usuarios herramientas que les brinden un mayor control sobre lo que están expuestos en el servicio.
“El proyecto de ley ya obligará a las empresas incluidas en el alcance a eliminar contenido ilegal, como imágenes de abuso sexual infantil, la promoción del suicidio, los delitos de odio y la incitación al terrorismo. Pero hay una lista creciente de contenido y comportamiento tóxico en las redes sociales que cae por debajo del umbral de un delito penal pero que aún causa un daño significativo”, escribe el gobierno.
“Esto incluye el abuso racista, la promoción de las autolesiones y los trastornos alimentarios, y la peligrosa desinformación contra las vacunas. Gran parte de esto ya está expresamente prohibido en los términos y condiciones de las redes sociales, pero con demasiada frecuencia se permite permanecer activo y se promueve activamente entre las personas a través de algoritmos”.
“Bajo un segundo deber nuevo, las empresas de 'categoría uno' tendrán que poner a disposición herramientas para que sus usuarios adultos elijan si quieren estar expuestos a cualquier contenido legal pero dañino donde sea tolerado en una plataforma”, agrega DCMS.
“Estas herramientas podrían incluir nuevas configuraciones y funciones que impidan que los usuarios reciban recomendaciones sobre ciertos temas o coloquen pantallas de sensibilidad sobre ese contenido”.
Su comunicado de prensa da el ejemplo de "contenido sobre la discusión de la recuperación de autolesiones" como algo que puede ser "tolerado en un servicio de categoría uno, pero que un usuario en particular puede no querer ver".
Brown se mostró más positivo acerca de este plan para exigir que las principales plataformas ofrezcan un sistema de filtro de contenido controlado por el usuario, con la advertencia de que tendría que verdaderamente ser controlado por el usuario.
También planteó preocupaciones sobre la viabilidad.
“Agradezco la idea del sistema de archivo de contenido, para que las personas puedan tener cierto grado de control sobre lo que ven cuando acceden a un sitio de redes sociales. Sin embargo, esto solo funciona si los usuarios pueden elegir lo que va en sus propias listas de bloqueo personales. Y no estoy seguro de cómo funcionaría eso en la práctica, ya que dudo que la clasificación automática de contenido sea lo suficientemente sofisticada”, nos dijo.
“Cuando el gobierno se refiere a 'cualquier contenido legal pero dañino', ¿puedo optar por bloquear el contenido con una inclinación política particular, por ejemplo, que expone una ideología que considero dañina? ¿O es eso antidemocrático (aunque es mi elección hacerlo)?
“¿Podría exigir el bloqueo de todo el contenido que esté a favor de las vacunas contra el COVID-19, si lo considero perjudicial? (Yo no.)
“¿Qué pasa con los comentarios abusivos u ofensivos de un político? ¿O va a ser un sistema mucho más básico, esencialmente permitiendo a los usuarios elegir bloquear la desnudez, las blasfemias y cualquier cosa que una plataforma determine para representar autolesiones o racismo?
“Si se va a dejar que las plataformas definan cuáles son los 'ciertos temas', o, peor aún, el gobierno, podría ser más fácil de lograr técnicamente. Sin embargo, me pregunto si los proveedores recurrirán al bloqueo excesivo, en un intento de garantizar que las personas no vean las cosas que han pedido que se eliminen”.
Un problema constante con la evaluación del proyecto de ley de seguridad en línea es que una gran cantidad de detalles específicos simplemente aún no están claros, dado que el gobierno tiene la intención de impulsar tantos detalles a través de la legislación secundaria. Y, nuevamente hoy, señaló que se establecerán más detalles de los nuevos deberes en los próximos códigos de práctica establecidos por Ofcom.
Por lo tanto, sin muchos más detalles prácticos, no es realmente posible comprender adecuadamente los impactos prácticos, por ejemplo, cómo, literalmente, las plataformas pueden implementar o intentar implementar estos mandatos. Lo que nos queda es, en su mayoría, el giro del gobierno.
Pero a partir de ese giro, ¿cómo podrían las plataformas en general abordar un mandato para filtrar temas de "contenido legal pero dañino"?
Un escenario, suponiendo que las propias plataformas decidan dónde trazar la línea de 'daño', es, como predice Brown, que aprovechen la oportunidad para ofrecer un feed masivamente 'sobrebloqueado' de vainilla para aquellos que optan por excluir 'dañino pero legal ' contenido; en gran parte para reducir su riesgo legal y costo operativo (Nota: la automatización es súper barata y fácil si no tiene que preocuparse por los matices o la calidad; simplemente bloquee cualquier cosa ¡no estás 100% seguro es 100% no controvertido!).
Pero también podrían usar el overblocking como una táctica de manipulación, con el objetivo final de disuadir a las personas de activar un nivel tan masivo de censura y/o empujarlas a regresar, voluntariamente, a la fuente no filtrada donde los algoritmos de contenido polarizador de la plataforma. tenga un espectro de contenido más completo para llamar la atención y generar ingresos publicitarios... Paso 3: Beneficio.
El truco es que las plataformas tendrían una negación plausible en este escenario, ¡ya que simplemente podrían argumentar que el propio usuario optó por ver cosas dañinas! (O al menos no optó por no participar porque apagaron el filtro o nunca lo usaron). Aka: '¡No puedo culpar al gobierno de IA!'
Cualquier daño amplificado algorítmicamente basado en datos estaría repentinamente fuera de peligro. Y el daño en línea se convertiría culpa del usuario por no encender la pantalla sensible de alta tecnología disponible para protegerse. Responsabilidad desviada.
Lo cual, francamente, suena como el tipo de supervisión regulatoria que un gigante de la tecnología publicitaria como Facebook podría respaldar alegremente.
Aún así, los gigantes de la plataforma enfrentan muchos riesgos y cargas por el paquete completo de propuestas que les llega de parte de Dorries & co.
El secretario de Estado también ha no hizo ningún secreto de lo alegre ella seria para encerrar a personas como Mark Zuckerberg y Nick Clegg.
Además de estar obligado a eliminar de manera proactiva contenido explícitamente ilegal como el terrorismo y el MASI, bajo la amenaza de multas masivas y/o responsabilidad penal para los ejecutivos designados, el proyecto de ley se amplió recientemente para exigir la eliminación proactiva de una gama mucho más amplia de contenido, relacionado con tráfico de drogas y armas; tráfico de humanos; pornografía de venganza; fraude; promover el suicidio; e incitar o controlar la prostitución con fines lucrativos.
Por lo tanto, las plataformas deberán buscar y eliminar todo ese material, de forma activa y directa, en lugar de actuar a posteriori según los informes de los usuarios como han estado acostumbrados (o no actuar mucho, según sea el caso). Lo que realmente altera su negocio de contenido como de costumbre.
DCMS también anunció recientemente también agregaría nuevos delitos de comunicaciones criminales al proyecto de ley, diciendo que quería fortalecer las protecciones contra los "comportamientos dañinos en línea", como el comportamiento coercitivo y controlador de los abusadores domésticos; amenazas de violar, matar e infligir violencia física; y compartir deliberadamente desinformación peligrosa sobre tratamientos falsos de COVID-19, ampliando aún más el alcance del contenido que las plataformas deben estar preparadas y al acecho.
Entonces, dado el alcance cada vez mayor del régimen de escaneo de contenido que se avecina para las plataformas, combinado con la falta de voluntad de los gigantes tecnológicos para financiar adecuadamente la moderación del contenido humano (ya que eso quemaría sus ganancias), en realidad podría ser mucho más fácil para Zuck. & co para cambiar a un solo alimento súper vainilla.
Haga fotos de gatos y fotos de bebés hasta el final, y espere que los globos oculares no se desvanezcan y las ganancias no se escurran, pero Ofcom se mantiene alejada... o algo así.
- &
- Sobre
- de la máquina
- Mi Cuenta
- Actúe
- Ad
- adición
- Adicionales
- dirección
- Verificación de edad
- algorítmico
- algoritmos
- Todos
- ya haya utilizado
- Aunque
- amplificando
- Anunciando
- anonimato
- Otra
- enfoque
- artículo
- Autenticación
- Confirmación de Viaje
- Automatización
- Hoy Disponibles
- Disponible para todos
- Bebé
- Prohibición
- antes
- "Ser"
- Mayor
- Bill
- Bloquear
- cuerpo
- Censura
- CHARGE
- sus hijos
- Niños
- reclamaciones
- clasificación
- club
- viniendo
- comentarios
- Comunicaciónes
- Empresas
- irresistible
- compliance
- componente
- contenido
- moderación de contenido
- continúa
- podría
- países
- CORTE
- COVID-19
- Para crear
- Creamos
- Crímenes
- Abogados de
- Cultura
- Cyberbullying
- datos
- protección de datos
- bases de datos
- tratar
- Demanda
- A pesar de las
- detalle
- el desarrollo
- una experiencia diferente
- digital
- derechos digitales
- desinformación
- documentos
- DE INSCRIPCIÓN
- droga
- personas
- especialmente
- Europea
- ejemplo
- Intercambio
- Expandir
- en expansión
- expansión
- experience
- Experiencias
- expertos
- Cara
- feria
- Caracteristicas
- financiero
- Nombre
- Fijar
- de tus señales
- Focus
- centrado
- fraude
- Gratuito
- Freedom
- ser completados
- funciones
- objetivo
- va
- Gobierno
- agarrar
- Crecer
- Creciendo
- los piratas informáticos
- el discurso del odio
- ayuda
- esta página
- Alta
- Cómo
- HTTPS
- enorme
- derechos humanos
- idea
- Identidad
- Verificación de identidad
- ilegal
- implementar
- importancia
- incluir
- INSTRUMENTO individual
- información
- Internet
- IT
- Clave
- large
- más reciente
- de derecho criminal
- legisladores
- leyes
- fuga
- LED
- Legal
- Legislación
- Nivel
- fiscal
- línea
- LINK
- Lista
- Listas
- Corriente principal
- gran
- Realizar
- marca
- Mark Zuckerberg
- medidas
- Medios
- Desinformación
- Móvil
- meses
- más,
- nombres
- Notas
- LANZAMIENTO
- que ofrece
- en línea
- Opiniones
- Oportunidad
- Optión
- Opciones
- solicite
- Otro
- de otra manera
- pasaporte
- Personas
- con
- datos personales
- los libros físicos
- imagen
- tubo
- plataforma
- Plataformas
- Mucho
- política
- Pornografía
- pornografía
- posible
- industria
- prensa
- Comunicado de prensa
- presión
- política de privacidad
- Problema
- problemas
- Mi Perfil
- Profit
- beneficios.
- promociones y
- propuesta
- proteger
- Protección
- proporcionar
- público
- calidad
- pregunta
- racismo
- distancia
- recepción
- la reducción de
- regulador
- ,
- alivio
- Informes
- exigir
- Requisitos
- Recurso
- Riesgo
- Rodar
- fallo
- Safety
- Said
- escanear
- exploración
- Pantalla
- secundario
- Confiscar
- venta
- de coches
- Servicios
- set
- Compartir
- En Corto
- importante
- Sitios Web
- So
- Social
- redes sociales
- algo
- sofisticado
- Girar
- Deportes
- propagación
- Estado
- Posicionamiento
- quedarse
- Estrategia
- sustancial
- Suicidio
- Switch
- te
- tecnología
- TechCrunch
- Técnico
- Terrorismo
- la Ley
- amenazas
- A través de esta formación, el personal docente y administrativo de escuelas y universidades estará preparado para manejar los recursos disponibles que derivan de la diversidad cultural de sus estudiantes. Además, un mejor y mayor entendimiento sobre estas diferencias y similitudes culturales permitirá alcanzar los objetivos de inclusión previstos.
- hoy
- Temas
- antorcha
- transformadora
- Confía en
- Uk
- Gobierno del Reino Unido
- Actualizar
- us
- utilizan el
- usuarios
- vehículo
- Verificación
- cuentas verificadas
- Ver
- la visibilidad
- Vulnerable
- Trenzado
- web
- Página web
- sitios web
- ¿
- sean
- QUIENES
- sin
- Actividades:
- funciona
- se
- años