Articolo scovato sul settimanale “LE POINT” qui in Francia, articolo che parla delle nuove regole internet legate ai dati privati di ogni cittadino di un qualsiasi paese, cittadino che dopo le debite ricerche per un qualsiasi oggetto che si desidera acquistare, si trova inondato di pubblicità a proposito della ricerca fatta due secondi prima, oppure una marea di Fake News, o anche liste di prodotti non proprio “regolari”, tutto “normale” ma non troppo…
A partire dal 25 agosto scorso tutto questo “dovrebbe” essere la normalità, poi come sempre c’é sempre qualcuno che fa il furbo…
Parola di webmaster!!!!
| Héloïse Pons| 09/08/2023 | LE POINT >>> ARTICOLO ORIGINALE
Le Digital Services Act (DSA) entrera en vigueur à cette date pour les « très grandes plateformes ». Voici les contours de ce règlement et ses implications pour les millions d’utilisateurs européens.
C’est une nouvelle ère pour la régulation du numérique en Europe. Les grandes plateformes du Web ont jusqu’au 25 août prochain pour se conformer au DSA (Digital Services Act), ce nouveau règlement européen sur les services numériques, qui compte responsabiliser les plateformes quant aux contenus haineux, « fake news » et produits illicites proposés sur Internet. L’idée : faire respecter en ligne le même savoir-vivre qui prévaut dans la vie réelle.
Publiée en octobre 2022, cette loi s’appliquera à tous les acteurs du Web à compter du 17 février 2024, sauf pour les « très grandes plateformes » que la Commission européenne contraindra dès cet été. Parmi les 19 acteurs concernés, Thierry Breton, le commissaire européen au Numérique, désigne les très attendus Facebook, Google, Twitter, TikTok, Instagram, Snapchat ou encore Amazon, mais aussi des entreprises plus surprenantes comme Zalando, qui a d’ailleurs décidé d’attaquer la Commission européenne pour sa présence dans cette liste.
Mais, concrètement, qu’est-ce qui va changer pour les plateformes, les moteurs de recherche et leurs millions d’utilisateurs européens ? « Avec le DSA, on ne se contente plus seulement de laisser la balle dans leur camp, répond Jean Cattan, secrétaire général du Conseil national du numérique. Les acteurs du Web sont tenus de montrer qu’ils sont en conformité avec les règles européennes et, donc, qu’ils préviennent de risques comme la dissémination de contenus illégaux, l’atteinte aux droits fondamentaux et la sécurité publique. »
Un maître mot, la transparence
Outre certaines mesures comme l’interdiction de la publicité ciblée pour les utilisateurs mineurs ou en fonction de la religion, des préférences sexuelles, des informations de santé ou des convictions politiques, le leitmotiv de cette réglementation consiste à demander des efforts de transparence aux plateformes.
En matière de modération par exemple, les géants du Web devront s’assurer que les méthodes qu’ils appliquent sont les plus performantes pour leur modèle. « Qu’ils optent pour une modération algorithmique opérée par intelligence artificielle, un service de modérateurs humains ou une modération communautaire à la manière de Wikipédia, ils devront rendre des comptes à la Commission européenne, justifier leur choix et prouver qu’il est efficace. »
Autre grande nouveauté : les plateformes devront être en mesure d’expliquer le fonctionnement de leur système de recommandation et, même, de proposer systématiquement une méthode de recommandation alternative, non fondée sur le profilage de l’utilisateur, mais un flux chronologique sans contenus personnalisés, par exemple. Pour s’assurer que ces règles sont bien respectées, ces acteurs devront publier des rapports de transparence et des audits annuels seront réalisés par des acteurs indépendants.
Les plateformes ne pourront plus raconter ce qu’elles veulent, on aura les moyens pour le vérifier.Jean Cattan, secrétaire général au Conseil national du numérique.none
« Avec le DSA, un nouveau rapport de force se construit : les autorités publiques sont maintenant armées pour répondre à l’argumentaire des plateformes, observe le secrétaire général du Conseil national du numérique. Un arsenal, une boîte à outils leur permet de vérifier l’exactitude des assertions de ces acteurs. »
Parmi ces outils, une capacité d’intervention bien plus importante que par le passé. « Ça change totalement la donne, insiste Jean Cattan. La Commission européenne peut collecter bien plus d’informations auprès des acteurs à réguler. Et si un réseau social ne répond pas à ses questions, elle peut décider d’envoyer la police judiciaire ou des agents de la Commission pour réaliser des inspections sur le terrain. C’est la pratique des “dawn raids”, ces raids à l’aube avec lesquels elle est familière dans le milieu financier par exemple. Les plateformes ne pourront plus raconter ce qu’elles veulent, on aura les moyens pour le vérifier. »
Des citoyens acteurs de la régulation
Pour participer à l’effort de détection et de résolution des « risques systémiques » des très grandes plateformes du Web, le DSA invite à « penser et agir collectif », ajoute Jean Cattan. Pour cela, il s’appuiera sur des « signaleurs de confiance » – associations ou entreprises qui doivent postuler pour recevoir le statut – pour envoyer des signalements quand des contenus ne respectent pas la loi et obligera les plateformes à les traiter de manière prioritaire. À LIRE AUSSIFranck Louvrier : « Il faut fermer momentanément Snapchat et TikTok »
Les citoyens sont également invités à devenir davantage acteurs de la régulation des plateformes. Si la France possède déjà des outils comme la plateforme de signalement Pharos, le DSA prévoit de « faciliter le travail du signalant en lui assurant un parcours optimal, précise le secrétaire général du Conseil national du numérique. Les outils, aujourd’hui, ne donnent pas entière satisfaction car ils ne sont pas assez accessibles, donc les gens ont perdu confiance en ce levier. »
À partir du 25 août, les grandes plateformes devront répondre systématiquement aux utilisateurs et les informer de la mesure prise face à leur signalement. Ces derniers pourront ainsi contester la mesure prise si elle ne leur convient pas devant une autorité extrajudiciaire pour demander une indemnisation.
« On sort de trente ans d’autorégulation »
Mais ce qui, pour Jean Cattan, caractérise la principale avancée du Digital Services Act, c’est son article 40. « Les grandes plateformes sont tenues de prendre toutes les dispositions nécessaires pour permettre à des chercheurs agréés d’accéder aux données dont ils ont besoin pour mener des études et mettre en lumière les risques liés à la diffusion de contenus illicites, explique-t-il. Concrètement, ça veut dire qu’un consortium entre Sciences Po et le CNRS pourrait décider de mener une enquête pour savoir si Twitter publie plus de contenus d’extrême droite que d’autres opinions politiques, par exemple. Cet article peut avoir un impact colossal : on sort de trente ans d’autorégulation des plateformes et d’ignorance du public sur leur fonctionnement, et cette implication du champ de la recherche va permettre d’avoir une connaissance plus fine des réseaux sociaux, mais aussi de déconstruire certains mythes. »
Si un système de sanctions sévères – jusqu’à 6 % du revenu ou du chiffre annuel de la société – est prévu en cas de non-respect du DSA, Jean Cattan trouve cela relativement « inefficace » et croit davantage aux outils de régulation inédits prévus par la loi.
Le compte à rebours est lancé et les mastodontes d’Internet ont maintenant moins de vingt jours pour entrer dans les clous, mais Thierry Breton a confié être assez inquiet. « Lors des entretiens que j’ai eus avec les PDG des plateformes pour m’assurer qu’elles seront prêtes pour l’entrée en vigueur des obligations du DSA, j’ai pu constater qu’il y a encore du travail à faire, surtout en ce qui concerne les ressources consacrées à la modération des contenus », expliquait au Point le commissaire européen au numérique.
Une crainte confirmée par un rapport de l’Arcom (ex-CSA) publié en juillet dernier, qui jugeait insuffisants les efforts réalisés par les plateformes jusqu’alors en matière de lutte contre la haine en ligne.
CI HANNO SCRITTO