Il governo del Regno Unito lo ha fatto ha annunciato (ancora) ulteriori aggiunte al suo piano espansivo e controverso per regolamentare i contenuti online, ovvero il Bolletta di sicurezza online.
Dice che l'ultimo pacchetto di misure da aggiungere alla bozza ha lo scopo di proteggere gli utenti web dal trolling anonimo.
Il disegno di legge ha obiettivi molto più ampi nel suo insieme, che comprendono un ampio regime di moderazione dei contenuti mirato a contenuti esplicitamente illegali ma anche a cose "legali ma dannose" - con un obiettivo dichiarato di proteggere i bambini da una serie di danni online, dal cyberbullismo e dal suicidio contenuto all'esposizione alla pornografia.
I critici, nel frattempo, affermano che la legislazione ucciderà la libertà di parola e isolerà il Regno Unito, creando una scheggia in Gran Bretagna, accumulando anche gravi rischi legali e costi per fare affari digitali nel Regno Unito. (A meno che tu non faccia parte del club delle aziende di "tecnologia della sicurezza" che offrono di vendere servizi per aiutare le piattaforme con la loro conformità, ovviamente.)
Nei mesi scorsi due commissioni parlamentari hanno vagliato la proposta di legge. Uno richiesto una maggiore attenzione ai contenuti illegali, mentre un altro ha avvertito che l'approccio del governo è entrambi un rischio per l'espressione online ed è improbabile che sia abbastanza robusto da affrontare i problemi di sicurezza, quindi è giusto dire che i ministri sono sotto pressione per apportare revisioni.
Quindi il disegno di legge continua a cambiare forma o, beh, a crescere di portata.
Altre aggiunte recenti (sostanziali) alla bozza includono a requisito per i siti Web di contenuti per adulti di utilizzare tecnologie di verifica dell'età; e una massiccia espansione del regime di responsabilità, con un più ampio elenco di contenuti criminali essere aggiunto alla faccia del disegno di legge.
Le ultime modifiche, che secondo il Dipartimento per il digitale, la cultura, i media e lo sport (DCMS) si applicheranno solo alle più grandi aziende tecnologiche, significano che le piattaforme dovranno fornire agli utenti strumenti per limitare la quantità di contenuti (potenzialmente) dannosi ma tecnicamente legali potrebbero essere esposti.
Gli attivisti sulla sicurezza online spesso collegano la diffusione di abusi mirati come l'incitamento all'odio razzista o il cyberbullismo all'anonimato dell'account, sebbene sia meno chiaro su quali prove stiano attingendo, al di là delle segnalazioni aneddotiche di singoli account anonimi che sono abusivi.
Eppure è altrettanto facile trovare esempi di contenuti offensivi distribuiti da account nominati e verificati. Non ultima la segretaria di stato per il digitale dalla lingua tagliente, Nadine Dorries, di cui tweet che frustano un giornalista di LBC recentemente ha portato a questo momento imbarazzante all'udienza di una commissione parlamentare.
Il punto è: singoli esempi, per quanto di alto profilo, in realtà non ti dicono molto sui problemi sistemici.
Nel frattempo, una recente sentenza della Corte europea dei diritti dell'uomo - a cui il Regno Unito rimane vincolato - ha ribadito l'importanza dell'anonimato online come veicolo per "il libero flusso di opinioni, idee e informazioni", con la corte che ha chiaramente dimostrato che l'anonimato è una componente chiave della libertà di espressione.
Molto chiaramente, quindi, i legislatori del Regno Unito devono procedere con cautela se le rivendicazioni del governo per la legislazione che trasforma il Regno Unito nel "posto più sicuro dove andare online" - proteggendo allo stesso tempo la libertà di parola - non devono finire a pezzi.
Dato che il trolling su Internet è un problema sistemico che è particolarmente problematico su alcune piattaforme ad alta portata, tradizionali e finanziate dalla pubblicità, dove cose veramente vili possono essere amplificate in modo massiccio, potrebbe essere più istruttivo per i legislatori considerare gli incentivi finanziari legati a quali contenuti si diffondono — espresso attraverso algoritmi di classificazione/surfacing dei contenuti "basati sui dati" (come l'uso da parte di Facebook del "ranking basato sull'engagement" polarizzante, come chiamato dall'informatore Frances Haugen).
Tuttavia, l'approccio del Regno Unito alla lotta alla pesca a traina online assume una direzione diversa.
Il governo si sta concentrando sul costringere le piattaforme a fornire agli utenti opzioni per limitare la propria esposizione, nonostante il DCMS riconosca anche il ruolo abusivo degli algoritmi nell'amplificare i contenuti dannosi (il suo comunicato stampa sottolinea che "molti" contenuti espressamente vietati nei T&C dei social network è "troppo spesso" autorizzata a rimanere sveglia e "promossa attivamente alle persone tramite algoritmi"; e la stessa Dorries critica gli "algoritmi canaglia").
La soluzione scelta dai ministri per l'amplificazione algoritmica problematica non è quella di fare pressione per l'applicazione dell'attuale regime di protezione dei dati del Regno Unito contro la profilazione delle persone adtech - qualcosa che gli attivisti per la privacy e i diritti digitali chiedono letteralmente da anni - che potrebbe certamente limitare il modo in cui i singoli utenti intrusivi (e potenzialmente abusivi) potrebbero essere presi di mira dalle piattaforme basate sui dati.
Piuttosto, il governo vuole che le persone consegnino più dati personali a questi (tipicamente) giganti delle piattaforme adtech in modo che possano creare nuovi strumenti per aiutare gli utenti a proteggersi! (Anche rilevante: il governo è simultaneamente cercando di ridurre il livello di protezione della privacy domestica per i britannici come una delle sue "opportunità Brexit"... quindi, ehm... 😬)
DCMS afferma che le ultime aggiunte al disegno di legge renderanno un requisito per le piattaforme più grandi (le cosiddette aziende di "categoria uno") offrire agli utenti modi per verificare la propria identità e controllare chi può interagire con loro, ad esempio selezionando un'opzione per ricevere solo DM e risposte da account verificati.
"Spetterà alle piattaforme decidere quali metodi utilizzare per adempiere a questo dovere di verifica dell'identità, ma devono dare agli utenti la possibilità di aderire o meno", scrive in un comunicato stampa che annuncia le misure aggiuntive.
Commentando in una dichiarazione, Dorries ha aggiunto: “Le aziende tecnologiche hanno la responsabilità di fermare i troll anonimi che inquinano le loro piattaforme.
“Abbiamo ascoltato le richieste di rafforzare le nostre nuove leggi sulla sicurezza online e stiamo annunciando nuove misure per conferire maggiore potere agli stessi utenti dei social media.
"Le persone ora avranno un maggiore controllo su chi può contattarle e saranno in grado di fermare l'ondata di odio che gli viene offerta da algoritmi canaglia".
Twitter offre già agli utenti verificati la possibilità di vedere un feed di risposte solo da altri utenti verificati. Ma la proposta del Regno Unito sembra destinata ad andare oltre, richiedendo a tutte le principali piattaforme di aggiungere o espandere tali funzionalità, rendendole disponibili a tutti gli utenti e offrendo un processo di verifica per coloro che sono disposti a dimostrare un documento d'identità in cambio della possibilità di massimizzare la propria portata. .
DCMS ha affermato che la legge stessa non stabilirà metodi di verifica specifici, piuttosto l'autorità di regolamentazione (Ofcom) offrirà una "guida".
“Quando si tratta di verificare le identità, alcune piattaforme possono scegliere di fornire agli utenti un'opzione per verificare la loro immagine del profilo per assicurarsi che sia una vera somiglianza. Oppure potrebbero utilizzare l'autenticazione a due fattori in cui una piattaforma invia una richiesta al numero di cellulare di un utente affinché possa verificare. In alternativa, la verifica potrebbe includere persone che utilizzano un documento d'identità rilasciato dal governo come un passaporto per creare o aggiornare un account", suggerisce il governo.
Ofcom, l'organo di controllo che sarà incaricato di far rispettare la legge sulla sicurezza online, definirà le linee guida su come le aziende possono adempiere al nuovo "dovere di verifica degli utenti" e le "opzioni di verifica che le aziende potrebbero utilizzare", aggiunge.
"Nello sviluppare questa guida, Ofcom deve garantire che le possibili misure di verifica siano accessibili agli utenti vulnerabili e consultare il Commissario per le informazioni, nonché gli utenti adulti vulnerabili e gli esperti tecnici", osserva anche DCMS, con un piccolo cenno all'enorme argomento di intimità.
I gruppi per i diritti digitali daranno almeno un segno di sollievo per il fatto che il Regno Unito non stia spingendo per un divieto totale dell'anonimato, come hanno sollecitato alcuni attivisti per la sicurezza online.
Quando si tratta del delicato argomento del trolling online, piuttosto che seguire i discorsi offensivi in sé, la strategia del Regno Unito si basa sul porre potenziali limiti alla libertà di accesso sulle piattaforme tradizionali.
"Vietare completamente l'anonimato online avrebbe un impatto negativo su coloro che hanno esperienze online positive o lo usano per la propria sicurezza personale come le vittime di abusi domestici, gli attivisti che vivono in paesi autoritari o i giovani che esplorano la propria sessualità", scrive il DCMS, prima di continuare a discutere il nuovo duty "fornirà un migliore equilibrio tra l'emancipazione e la protezione degli adulti, in particolare i vulnerabili, salvaguardando la libertà di espressione online perché non richiederà la rimozione di alcuna libertà di parola legale".
"Sebbene ciò non impedirà in primo luogo ai troll anonimi di pubblicare contenuti offensivi, a condizione che siano legali e non contravvengano ai termini e alle condizioni della piattaforma, impedirà alle vittime di esserne esposte e darà loro un maggiore controllo sulla loro esperienza online". suggerisce anche.
Neil Brown, un avvocato specializzato in Internet, telecomunicazioni e tecnologia presso Legale decodificato, non era convinto della coerenza del suo approccio con i diritti umani.
"Sono scettico sul fatto che questa proposta sia coerente con il diritto fondamentale 'di ricevere e diffondere informazioni e idee senza interferenze da parte dell'autorità pubblica', come sancito dall'articolo 10 della legge sui diritti umani del 1998", ha detto a TechCrunch. “Da nessuna parte si dice che il proprio diritto a fornire informazioni si applica solo se si è verificata la propria identità secondo uno standard imposto dal governo.
"Mentre sarebbe lecito per una piattaforma scegliere di implementare un tale approccio, convincere le piattaforme ad attuare queste misure mi sembra di dubbia legalità".
Secondo la proposta del governo, coloro che vogliono massimizzare la propria visibilità/portata online dovrebbero consegnare un documento d'identità o dimostrare in altro modo la propria identità alle principali piattaforme, e Brown ha anche sottolineato che ciò potrebbe creare un "sistema a due livelli" di espressione online che potrebbe (diciamo) servire l'individuo estroverso e/o odioso, riducendo al contempo la visibilità di quegli utenti più cauti/avversi al rischio o altrimenti vulnerabili che sono giustamente diffidenti nei confronti dell'autoidentificazione (e, probabilmente, molto meno propensi a essere comunque dei troll).
"Anche se le proposte si fermano prima di richiedere a tutti gli utenti di fornire più dettagli personali ai siti di social media, il risultato è che chiunque non voglia o non sia in grado di verificare se stesso diventerà un utente di seconda classe", ha suggerito. “Sembra che i siti saranno incoraggiati, o richiesti, a consentire agli utenti di bloccare in massa le persone non verificate.
"È improbabile che coloro che sono disposti a diffondere bile o disinformazione, o a molestare, sotto il proprio nome vengano colpiti, poiché è improbabile che il passaggio aggiuntivo di mostrare un documento d'identità sia un ostacolo per loro".
TechCrunch comprende che la proposta del governo significherebbe che gli utenti di piattaforme generate dagli utenti che non utilizzano il loro vero nome come identità dell'account pubblico (ovvero perché preferiscono utilizzare un soprannome o un altro moniker) sarebbero comunque in grado di condividere opinioni (legali) senza limiti su chi vedrebbe le loro cose — purché avevano (privatamente) verificato la propria identità con la piattaforma in questione.
Brown è stato un po' più positivo su questo elemento di continuare a consentire la condivisione pubblica pseudonimizzata.
Ma ha anche avvertito che molte persone potrebbero essere ancora troppo caute per affidare il loro vero ID ai database catch-all delle piattaforme. (Il gita di ogni sorta blogger anonimi virali nel corso degli anni mette in luce le motivazioni per la fuga di identità protette.)
"Questo è leggermente migliore di una politica sui 'nomi reali' - in cui il tuo nome verificato è reso pubblico - ma solo marginalmente, perché devi comunque consegnare documenti di identità 'reali' a un sito web", ha detto Brown, aggiungendo: "Io sospetto che le persone che rimangono pseudonime per la propria protezione saranno giustamente diffidenti nei confronti della creazione di questi nuovi, massicci set di dati, che potrebbero essere attraenti sia per gli hacker che per i dipendenti disonesti.
Controlli utente per il filtraggio dei contenuti
In un secondo nuovo obbligo aggiunto al disegno di legge, DCMS ha affermato che richiederà anche alle piattaforme di prima categoria di fornire agli utenti strumenti che diano loro un maggiore controllo su ciò a cui sono esposti sul servizio.
“Il disegno di legge obbligherà già le aziende interessate a rimuovere contenuti illegali come immagini di abusi sessuali su minori, promozione del suicidio, crimini d'odio e incitamento al terrorismo. Ma c'è un elenco crescente di contenuti e comportamenti tossici sui social media che scendono al di sotto della soglia di un reato ma che causano comunque danni significativi", scrive il governo.
“Ciò include l'abuso razzista, la promozione dell'autolesionismo e dei disturbi alimentari e la pericolosa disinformazione anti-vaccino. Gran parte di questo è già espressamente vietato nei termini e condizioni dei social network, ma troppo spesso è consentito rimanere attivo e viene promosso attivamente alle persone tramite algoritmi”.
"In base a un secondo nuovo obbligo, le aziende di 'categoria uno' dovranno mettere a disposizione dei propri utenti adulti strumenti per scegliere se vogliono essere esposti a qualsiasi contenuto legale ma dannoso laddove sia tollerato su una piattaforma", aggiunge DCMS.
"Questi strumenti potrebbero includere nuove impostazioni e funzioni che impediscono agli utenti di ricevere consigli su determinati argomenti o posizionare schermate di sensibilità su quel contenuto".
Il suo comunicato stampa fornisce l'esempio di "contenuto sulla discussione del recupero da autolesionismo" come qualcosa che può essere "tollerato su un servizio di prima categoria ma che un particolare utente potrebbe non voler vedere".
Brown è stato più positivo su questo piano per richiedere alle principali piattaforme di offrire un sistema di filtro dei contenuti controllato dall'utente, con l'avvertenza che sarebbe necessario sinceramente essere controllato dall'utente.
Ha anche sollevato preoccupazioni sulla lavorabilità.
“Accolgo con favore l'idea del sistema di content filer, in modo che le persone possano avere un certo controllo su ciò che vedono quando accedono a un sito di social media. Tuttavia, questo funziona solo se gli utenti possono scegliere cosa inserire nei propri elenchi di blocco personali. E non sono sicuro di come funzionerebbe in pratica, poiché dubito che la classificazione automatizzata dei contenuti sia sufficientemente sofisticata ", ci ha detto.
“Quando il governo fa riferimento a 'qualsiasi contenuto legale ma dannoso', posso scegliere di bloccare il contenuto con una particolare inclinazione politica, ad esempio, che espone un'ideologia che considero dannosa? O è antidemocratico (anche se è una mia scelta farlo)?
“Potrei chiedere di bloccare tutti i contenuti a favore delle vaccinazioni contro il COVID-19, se lo considero dannoso? (Io non.)
“E i commenti offensivi o offensivi di un politico? O sarà un sistema molto più basilare, che essenzialmente consentirà agli utenti di scegliere di bloccare nudità, volgarità e qualunque cosa una piattaforma determini per rappresentare l'autolesionismo o il razzismo.
“Se si deve lasciare alle piattaforme di definire quali sono i 'certi argomenti' – o, peggio, al governo – potrebbe essere più facile da realizzare, tecnicamente. Tuttavia, mi chiedo se i provider ricorrono all'overblocking, nel tentativo di garantire che le persone non vedano le cose che hanno chiesto di sopprimere".
Un problema in corso con la valutazione della legge sulla sicurezza online è che enormi quantità di dettagli specifici semplicemente non sono ancora chiari, dato che il governo intende far passare così tanti dettagli attraverso la legislazione secondaria. E, sempre oggi, ha rilevato che ulteriori dettagli sui nuovi doveri saranno definiti nei prossimi Codes of Practice predisposti da Ofcom.
Quindi, senza molte più specifiche pratiche, non è davvero possibile comprendere correttamente gli impatti pratici, ad esempio come - letteralmente - le piattaforme potrebbero essere in grado o provare a implementare questi mandati. Quello che ci rimane è, principalmente, la manovra del governo.
Ma sputando fuori da quella rotazione, in che modo le piattaforme potrebbero generalmente avvicinarsi a un mandato per filtrare gli argomenti di "contenuto legale ma dannoso"?
Uno scenario - supponendo che le piattaforme stesse riescano a decidere dove tracciare la linea del "danno" - è, come prevede Brown, che colgano l'opportunità di offrire un feed massicciamente vanigliato "overblocked" per coloro che scelgono di escludere "dannosi ma legali" ' contenuto; in gran parte per ridurre il rischio legale e i costi operativi (NB: l'automazione è super economica e facile se non devi preoccuparti di sfumature o qualità; basta bloccare nulla non sei sicuro al 100% è al 100% non controverso!).
Ma potrebbero anche utilizzare l'overblocking come tattica manipolativa, con l'obiettivo finale di scoraggiare le persone dall'attivare un livello così massiccio di censura e/o spingerle a tornare, volontariamente, al feed non filtrato in cui gli algoritmi di contenuti polarizzanti della piattaforma avere uno spettro di contenuti più completo per attirare l'attenzione e aumentare le entrate pubblicitarie... Passaggio 3: profitto.
Il kicker è che le piattaforme avrebbero una plausibile negabilità in questo scenario, dal momento che potrebbero semplicemente sostenere che l'utente stesso ha scelto di vedere cose dannose! (O almeno non hanno rinunciato poiché hanno disattivato il filtro o non l'hanno mai usato.) Aka: "Non posso incolpare il governo delle IA!"
Qualsiasi danno amplificato algoritmicamente basato sui dati sarebbe improvvisamente fuori dai guai. E il danno online diventerebbe colpa dell'utente per non aver acceso lo schermo di sensibilità ad alta tecnologia disponibile per proteggersi. Responsabilità deviata.
Il che, francamente, suona come il tipo di controllo normativo che un gigante adtech come Facebook potrebbe allegramente accettare.
Tuttavia, i giganti delle piattaforme affrontano molti rischi e oneri a causa del pacchetto completo di proposte provenienti da Dorries & co.
Anche il segretario di stato ha non ha fatto segreti di quanto allegro lei lo sarebbe per rinchiudere artisti del calibro di Mark Zuckerberg e Nick Clegg.
Oltre a essere richiesto di rimuovere in modo proattivo contenuti esplicitamente illegali come terrorismo e CSAM - sotto la minaccia di ingenti multe e/o responsabilità penale per i dirigenti nominati - il disegno di legge è stato recentemente ampliato per imporre la rimozione proattiva di una gamma molto più ampia di contenuti, relativi all'online spaccio di droga e armi; traffico di esseri umani; porno vendetta; frode; promuovere il suicidio; e incitamento o controllo della prostituzione a scopo di lucro.
Quindi le piattaforme dovranno scansionare e rimuovere tutta quella roba, attivamente e in anticipo, piuttosto che agire dopo il fatto sui rapporti degli utenti come sono stati abituati (o non agire molto, a seconda dei casi). Il che sconvolge davvero il loro business dei contenuti come al solito.
anche DCM ha recentemente annunciato aggiungerebbe al disegno di legge anche nuovi reati di comunicazione penale, affermando di voler rafforzare le protezioni da "comportamenti online dannosi" come comportamenti coercitivi e di controllo da parte di autori di abusi domestici; minacce di stupro, uccisione e violenza fisica; e condividendo deliberatamente una pericolosa disinformazione sui trattamenti falsi per il COVID-19, ampliando ulteriormente la portata dei contenuti che le piattaforme devono essere preparate e alla ricerca.
Quindi, data la portata in continua espansione del regime di scansione dei contenuti in arrivo per le piattaforme - combinata con la riluttanza dei giganti della tecnologia a fornire risorse adeguate alla moderazione dei contenuti umani (dal momento che ciò brucerebbe i loro profitti) - potrebbe effettivamente essere molto più facile per Zuck & co per passare a un singolo feed super vanilla.
Crea foto di gatti e foto di bambini fino in fondo - e spera che i bulbi oculari non rotolino via e che i profitti non si esauriscano, ma Ofcom sta lontano ... o qualcosa del genere.
- &
- Chi siamo
- accesso
- Il mio account
- Legge
- Ad
- aggiunta
- aggiuntivo
- indirizzo
- Verifica dell'età
- algoritmica
- Algoritmi
- Tutti
- già
- Sebbene il
- amplificazione
- annunciando
- anonimia
- Un altro
- approccio
- articolo
- Autenticazione
- Automatizzata
- Automazione
- disponibile
- Disponibile a tutti
- Neonato
- Bandire
- prima
- essendo
- Maggiore
- Conto
- Bloccare
- stile di vita
- affari
- Censura
- carica
- bambino
- Bambini
- classificazione
- club
- arrivo
- Commenti
- Comunicazioni
- Aziende
- avvincente
- conformità
- componente
- contenuto
- moderazione dei contenuti
- continua
- potuto
- paesi
- Corte
- COVID-19
- creare
- Creazione
- crimini
- Azione Penale
- Cultura
- Cyberbullismo
- dati
- protezione dati
- banche dati
- trattare
- Richiesta
- Nonostante
- dettaglio
- in via di sviluppo
- diverso
- digitale
- diritti digitali
- Le disinformazioni sanitarie
- documenti
- giù
- droga
- dipendenti
- particolarmente
- europeo
- esempio
- exchange
- Espandere
- espansione
- espansione
- esperienza
- Esperienze
- esperti
- Faccia
- fiera
- Caratteristiche
- finanziario
- Nome
- Fissare
- flusso
- Focus
- concentrato
- frode
- Gratis
- La libertà
- pieno
- funzioni
- scopo
- andando
- Enti Pubblici
- afferrare
- Crescere
- Crescita
- hacker
- incitamento all'odio
- Aiuto
- qui
- Alta
- Come
- HTTPS
- Enorme
- diritti umani
- idea
- Identità
- Verifica dell'identità
- Illegale
- realizzare
- importanza
- includere
- individuale
- informazioni
- Internet
- problema
- IT
- Le
- grandi
- con i più recenti
- Legge
- legislatori
- Legislazione
- perdita
- Guidato
- Legale
- Legislazione
- Livello
- responsabilità
- linea
- LINK
- Lista
- elenchi
- corrente principale
- maggiore
- Fare
- marchio
- segna zuckerberg
- analisi
- Media
- Disinformazione
- Mobile
- mese
- Scopri di più
- nomi
- Note
- offrire
- offerta
- online
- Opinioni
- Opportunità
- Opzione
- Opzioni
- minimo
- Altro
- altrimenti
- passaporto
- Persone
- cronologia
- dati personali
- Fisico
- immagine
- tubo
- piattaforma
- Piattaforme
- Abbondanza
- politica
- Porno
- Pornografia
- possibile
- energia
- stampa
- Comunicati Stampa
- pressione
- Privacy
- Problema
- problemi
- processi
- Profilo
- Profitto
- profitti
- promozione
- proposta
- protegge
- protezione
- fornire
- la percezione
- qualità
- domanda
- razzismo
- gamma
- ricevere
- riducendo
- normativo
- rilasciare
- sollievo
- Report
- richiedere
- necessario
- risorsa
- Rischio
- Rotolo
- sentenza
- Sicurezza
- Suddetto
- scansione
- scansione
- allo
- secondario
- sequestrare
- venda
- servizio
- Servizi
- set
- Condividi
- Corti
- significativa
- Siti
- So
- Social
- Social Media
- qualcosa
- sofisticato
- Spin
- Gli Sport
- diffondere
- Regione / Stato
- dichiarazione
- soggiorno
- Strategia
- sostanziale
- Suicidio
- Interruttore
- sistema
- Tech
- TechCrunch
- Consulenza
- Terrorismo
- la legge
- minacce
- Attraverso
- oggi
- strumenti
- Argomenti
- torcia
- trasformazione
- Affidati ad
- Uk
- Governo britannico
- Aggiornanento
- us
- uso
- utenti
- veicolo
- Convalida
- conti verificati
- Visualizza
- visibilità
- Vulnerabile
- Wave
- sito web
- Sito web
- siti web
- Che
- se
- OMS
- senza
- Lavora
- lavori
- sarebbe
- anni