Préserver nos libertés numériques : Digital Services Act

Nous pouvons améliorer le Digital Services Act pour garantir un équilibre essentiel entre la lutte contre la désinformation en ligne et la préservation de la démocratie et de la liberté d'expression.

Préserver nos libertés numériques : Digital Services Act

Dans l'arène du numérique, une bataille d'importance se déroule, opposant Elon Musk, la Commission européenne et les enjeux de nos libertés fondamentales. Nous verrons les risques potentiels d'ingérence étrangère et de censure partisane avant de préconiser des améliorations à apporter au Digital Services Act et d'autres contre-mesures.

Le Digital Services Act (DSA)


Le 5 juillet 2022, le Parlement européen a adopté le Digital Services Act (DSA), un texte législatif signé ultérieurement par le Conseil et le Parlement européen le 19 octobre 2022. Ce règlement est conçu pour réduire la diffusion de contenus illégaux sur les plateformes en ligne tout en instaurant un niveau accru de transparence dans leurs interactions avec les utilisateurs. En étroite relation avec la législation sur les marchés numériques (Digital Markets Act, DMA), le DSA a été élaboré par deux membres clés de la Commission von der Leyen : Margrethe Vestager, vice-présidente chargée de promouvoir une Europe adaptée à l'ère numérique, et Thierry Breton, commissaire européen du Marché intérieur. Le DSA s'applique aux "fournisseurs de services intermédiaires en ligne," englobant les hébergeurs, les réseaux sociaux, les moteurs de recherche, les plateformes de voyage et d'hébergement, ainsi que les sites marchands. Il touche les plateformes en ligne et les moteurs de recherche ayant plus de 45 millions d'utilisateurs dans l'Union européenne depuis le 25 août 2023, tandis qu'il sera étendu aux autres plateformes et intermédiaires en ligne opérant sur le marché européen à partir du 17 février 2024.


Le DSA introduit de nouvelles obligations pour ces plateformes, notamment :

  • Informer les utilisateurs de tout changement significatif dans leurs conditions générales.
  • Rédiger des conditions générales de manière simple, compréhensible, accessible et sans ambiguïté, y compris les mécanismes de recours et de réparation.
  • Établir des rapports de transparence concernant leurs systèmes internes de traitement des réclamations et leurs activités de modération des contenus.
  • Avertir et suspendre la fourniture de services aux utilisateurs diffusant fréquemment des contenus manifestement illégaux.
  • Prendre des mesures appropriées pour garantir la protection de la vie privée, de la sûreté et de la sécurité des mineurs.

Les objectifs principaux du DSA comprennent :

  • Encourager le développement des PME et des services numériques innovants sur le marché intérieur.
  • Lutter contre la diffusion de contenus illégaux et de désinformation en ligne.
  • Préserver les droits fondamentaux, notamment la liberté d'expression, le principe de non-discrimination et la protection des consommateurs.
  • Contrer les contenus potentiellement nuisibles pour la sécurité publique et les processus démocratiques et électoraux.
  • Interdire la publicité ciblée envers les mineurs.
  • Combattre le cyberharcèlement.

Quelles sont les sanctions en cas de violation ?


Les plateformes en ligne risquent des amendes allant jusqu'à 6 % de leur chiffre d'affaires mondial annuel de l'année précédente en cas de violation du DSA. En cas de manquements graves et répétés, une restriction temporaire de l'accès au service peut également être imposée.
De plus, une astreinte concernant seulement les très grandes plateformes peut aussi être prononcée par les Etats membres de l’Union Européenne. Celle-ci peu représenter au maximum 5 % des revenus ou du chiffre d’affaires mondial quotidiens moyens de la plateforme en question au cours de l’exercice précédent, par jour d'astreinte, à compter de la date mentionnée dans la décision visée.


Le scandale NewsGuard


Ce qui a particulièrement retenu l'attention dans le cadre du DSA, c'est la collaboration entre l'Union européenne et NewsGuard, une entreprise américaine spécialisée dans l'évaluation de la fiabilité des médias. Cette coopération a soulevé des questions et suscité une vive controverse.
NewsGuard, fondée en 2018, se présente comme une start-up américaine ayant pour mission officielle de lutter contre la désinformation en ligne en aidant les utilisateurs à évaluer la fiabilité des sources d'information. Toutefois, l'entreprise a été critiquée en raison de ses liens présumés avec ce que l'on appelle "l'État profond" américain. Ces liens sont devenus évidents, notamment grâce à la composition de son comité consultatif, qui compte d'anciens hauts responsables de la CIA, de la NSA et de l'OTAN, entre autres.
La mission de NewsGuard au sein de l'Union européenne a été de mettre en œuvre le règlement de censure du DSA, conçu pour surveiller les contenus en ligne et les réseaux sociaux. Cette collaboration a suscité de vives inquiétudes quant aux liens entre l'Union européenne et l'État profond américain, ainsi qu'à la question de la censure en ligne et de ses implications pour nos libertés fondamentales.
L'entrepreneur et PDG d'entreprises telles que Tesla et SpaceX, Elon Musk, a récemment attiré l'attention sur l'affaire NewsGuard en remettant en question la fiabilité de cette entreprise. Il a qualifié le modérateur de contenu de NewsGuard d'escroquerie et a demandé sa dissolution immédiate. Les allégations contre NewsGuard prétendent que l'entreprise américaine supprime systématiquement tout contenu qui ne correspond pas à ses positions politiques.

Elon Musk a également mis en cause l'Union européenne pour sa présumée collaboration avec NewsGuard. Les tensions se sont intensifiées à mesure que cette affaire complexe a continué de se développer.
Le 19 octobre, Mike Benz, un ancien responsable de l'administration Trump, a déclaré dans un message sur les médias sociaux que NewsGuard était au cœur d'un complot visant à faire faillite les médias alternatifs, en insinuant que l'entreprise travaillait avec l'Union européenne sur une nouvelle loi sur la désinformation. Selon ses affirmations, le modèle commercial de NewsGuard prévoit des services de conformité à la désinformation pour promouvoir les lois de censure.

La controverse s'est accentuée avec l'introduction du "Code de bonnes pratiques = 2022 sur la désinformation" de l'UE, qui appelle les entreprises technologiques et les sociétés de publicité à étouffer financièrement les éditeurs identifiés comme diffusant des contenus considérés comme contraires au discours officiel.
En réponse à ces développements, Elon Musk a interpellé Thierry Breton, le commissaire européen chargé du marché intérieur de l'Union européenne, en lui demandant des explications concernant cette situation. La pression sur Elon Musk s'est intensifiée en raison de son rôle à la tête de la plateforme Twitter, désormais appelée X.
Ces tensions entre Elon Musk et l'Union européenne ne sont pas nouvelles. Depuis qu'Elon Musk a pris la direction de Twitter (X) en octobre de l'année précédente, Thierry Breton a clairement indiqué que la plateforme doit se conformer aux règles de l'Union européenne pour pouvoir y opérer. Il a même suggéré d'augmenter le nombre de modérateurs de contenus sur la plateforme dans l'UE.

En décembre, de nouvelles tensions ont éclaté entre X et l'UE lorsque la plateforme en ligne a suspendu plusieurs journalistes pour avoir prétendument violé sa nouvelle politique en matière de divulgation d'informations personnelles (doxxing). Cette suspension a été qualifiée de préoccupant par Vera Jourova, vice présidente de la Commission européenne.
En février de la même année, l'UE a critiqué X pour ne pas prendre au sérieux sa lutte contre la désinformation, soulignant que la plateforme avait fourni un rapport incomplet sur sa conformité aux règles de l'UE en matière de censure.

L'UE a noté que X accusait un retard par rapport à des plateformes telles que Google, Meta et TikTok en matière de modération de la désinformation au cours des six derniers mois.
Elon Musk a réagi à ces reproches en publiant des « memes » (images à caractère humoristique) se moquant de l'empressement apparent des autres entreprises technologiques à se conformer aux lois de l'UE en matière de censure.

Plus récemment, Thierry Breton a accusé X de ne pas bloquer les messages relatifs au conflit entre Israël et le Hamas, en affirmant que des groupes diffusaient des informations erronées et des contenus violents et terroristes sur la plateforme. La PDG de X, Linda Yaccarino, a répondu en affirmant que la plateforme avait supprimé des centaines de comptes associés au Hamas et retiré des milliers de messages après l'attaque du groupe terroriste contre Israël.

En outre, une enquête menée par Epoch Times a révélé que NewsGuard avait fait preuve de partialité en vérifiant les faits des éditeurs. À plusieurs reprises, l'entreprise a exercé des pressions sur des éditeurs pour avoir publié des articles sur des sujets tels que les vaccins Covid-19, les restrictions en cas de pandémie, le changement climatique et le Forum économique mondial, lorsqu'ils ne correspondaient pas aux opinions de l'establishment politique de gauche.
Il est important de noter que la plupart des sites mal notés par NewsGuard tendent à pencher politiquement à droite. Par exemple, la plateforme éducatives conservatrice PragerU s'est vue apposer un label rouge par NewsGuard, avec des demandes de conformité à ses positions sur des questions telles que les politiques de confinement Covid-19 et la fiabilité des vaccins Covid-19.

NewsGuard a également bénéficié d'un financement de l'administration Biden, avec le ministère de la Défense allouant 749 387 dollars en 2021 pour soutenir le projet intitulé "empreintes digitales de la désinformation" de cette organisation. Ce projet a pour objectif de traquer les campagnes de désinformation (ou plutôt les campagnes d’information contraires à la doxa) en utilisant à la fois l'intelligence humaine et l'intelligence artificielle (IA). Il offre une perspective continuellement mise à jour de l'univers de l'information numérique et constitue un puissant outil pour surveiller les récits non validés qui émergent et se propagent en ligne. Dans un rapport publié en mars 2022, le Media Research Center (MRC) a mis en lumière le fait que NewsGuard avait attribué des notes parfaites aux médias qui avaient tenté de minimiser l'importance de l'affaire relative au sulfureux ordinateur portable d'Hunter Biden. Cela contraste avec la façon dont d'autres médias de gauche, notamment Politico, The Washington Post, Axios et USA Today, avaient diffamé l'affaire publiée par le New York Post, insinuant qu'elle faisait peut-être partie d'une campagne de désinformation en 2020.

Le New York Times, quant à lui, a finalement authentifié les courriels liés à cette affaire, les associant à une enquête fédérale en cours. Malgré ces développements, NewsGuard a attribué des notes parfaites de 100/100 pour la "crédibilité" de ces médias, suscitant des inquiétudes quant à l'impartialité de leurs évaluations.

En mai de l'année précédente, le représentant Jim Banks du Parti républicain de l'Indiana a rédigé une lettre adressée au commandant du US Cyber Command concernant la subvention de 749 387 dollars attribuée à NewsGuard. Il a exprimé des préoccupations concernant le programme "Misinformation Fingerprints," qui permet à l'intelligence artificielle et aux logiciels d'apprentissage automatique de surveiller et de supprimer des articles et des histoires médiatiques que NewsGuard considère comme étant faux et peu fiables. La lettre soulignait que « NewsGuard a un parti pris partisan extrême », notamment parmi son personnel, avec 20 cadres et conseillers ayant contribué financièrement à des candidats démocrates depuis 2015. Jim Banks a considéré que le soutien financier du ministère de la Défense à une telle "suppression partisane du discours politique" constituait un abus inacceptable et contraire aux intérêts des contribuables américains.

En résumé, le lien complexe entre l'Union européenne, Elon Musk et NewsGuard reste un sujet controversé dans le domaine de la réglementation numérique et de la liberté d'expression. Cette saga est loin d'arriver à sa conclusion et va continuer à susciter de vives discussions.

Quels dangers pour nos libertés fondamentales ?


Cette controverse autour de NewsGuard et son implication dans la réglementation de la désinformation en ligne en partenariat avec l'Union européenne ont soulevé des questions importantes sur la transparence, l'indépendance des décisions en matière de censure et les implications pour nos libertés fondamentales d'expression et de débat. Les dangers résident principalement dans la possibilité d'une censure partisane, où la réglementation de la désinformation pourrait être utilisée pour restreindre la diversité des opinions et étouffer les voix dissidentes.

Voici quelques raisons pour lesquelles cela pourrait être problématique :

💡
Censure partisane : Si des organismes comme NewsGuard sont chargés d'évaluer la crédibilité des sources d'information, il existe un risque réel de partialité politique. Cela signifie que des médias ou des opinions qui ne correspondent pas à l'orientation politique prédominante pourraient être ciblés et désavantagés.
💡
Le manque de transparence : le manque de transparence dans les décisions de censure et dans les relations entre les organes de réglementation et les entités privées, telles que NewsGuard, peut entraîner des abus et desdiscriminations à l'encontre de certaines voix ou idées.
💡
Consolidation du pouvoir : la centralisation du pouvoir entre les mains d'entités privées pour évaluer la fiabilité des médias en ligne peut être dangereuse, car cela limite la diversité et l'indépendance des évaluateurs. Cela pourrait conduire à un monopole de l'opinion sur ce qui est considéré comme de l'information crédible.

Nos contre-mesures et propositions

Face au risque potentiel d'ingérence étrangère et aux dangers qui pèsent sur nos libertés fondamentales, il est impératif de prendre des mesures pour garantir la transparence, l'intégrité et l'indépendance des processus de réglementation numérique. Dans cette perspective, nous préconisons avant toute chose la mise en place d'une enquête indépendante.


I- La nécessité d’une enquête indépendante

💡
Mener une enquête impartiale pour examiner les relations entre la Commission européenne, NewsGuard, et d'autres entités privées impliquées dans la réglementation de la désinformation est essentiel pour assurer une gouvernance transparente et indépendante dans le domaine de la réglementation numérique. Cette enquête devrait être menée par des experts indépendants et impartiaux, détachés de toutes les parties prenantes impliquées et bénéficier d'un accès complet aux informations et aux documents pertinents. Elle devrait examiner en détail les accords, les financements et les collaborations entre la Commission européenne et NewsGuard, ainsi que toute autre entité privée jouant un rôle dans le processus de réglementation.
L'enquête devrait également évaluer si les décisions prises par la Commission européenne dans le cadre du Digital Services Act (DSA) sont influencées par des intérêts privés ou politiques, et si elles respectent les principes de liberté d'expression et de pluralisme médiatique. Cette évaluation devrait être basée sur des critères objectifs et des indicateurs de performance clairement définis.
Enfin, l'enquête devrait être menée de manière transparente, avec des rapports publics réguliers sur ses constatations et ses recommandations. Cela garantirait la confiance du public dans le processus d'enquête et contribuerait à une meilleure compréhension de la manière dont les décisions de réglementation sont prises dans le domaine de la désinformation en ligne. Une telle enquête permettrait de rétablir la confiance dans le processus et d'assurer que les décisions futures soient prises dans l'intérêt public plutôt que dans celui d'entités privées ou politiques.

II-La saisine d’une enquête parlementaire

💡
L'initiation d'une enquête aussi cruciale que celle qui examinerait les relations entre la Commission européenne, NewsGuard et d'autres acteurs impliqués dans la réglementation de la désinformation en ligne nécessiterait une série d'étapes et une implication claire de divers acteurs. Tout d'abord, un groupe de députés européens motivé pourrait rédiger une proposition officielle, démontrant la
nécessité de cette enquête pour la protection de la démocratie et des droits fondamentaux. Pour que cette initiative soit couronnée de succès, il serait essentiel d'obtenir le soutien d'autres membres du Parlement européen partageant des préoccupations similaires. Ce groupe de députés devrait plaider pour que la proposition soit inscrite à l'ordre du jour du Parlement et soumise à un vote. La proposition serait ensuite soumise à la Conférence des Présidents, où les présidents des groupes politiques détermineraient sa validité et sa pertinence.
Pour mobiliser un soutien significatif au sein du Parlement européen et garantir l'adoption de la proposition, des efforts de campagne et de sensibilisation seraient essentiels. Il serait impératif de mener une campagne d'information efficace tout en cherchant à obtenir le soutien de collègues parlementaires. Il faudrait également obtenir l'appui des groupes politiques pour éviter le rejet de la proposition par une majorité politique. Dans cette démarche, les organisations non gouvernementales (ONG) et les groupes de la société civile, dédiés à la défense de la liberté d'expression et de la démocratie, tel que l’European Center for Law and Justice (ECLJ), pourraient jouer un rôle actif en plaidant en faveur d'une enquête impartiale et en exhortant les législateurs à prendre des mesures.
Une fois que la proposition serait acceptée, la commission d'enquête serait constituée. Il serait impératif de garantir que les membres de cette commission soient impartiaux, experts dans le domaine de la désinformation en ligne, et détachés de toutes les parties prenantes impliquées. Cette commission serait alors chargée de mener l'enquête de manière approfondie, en examinant minutieusement les accords, les financements et les collaborations entre la Commission européenne, NewsGuard et d'autres acteurs. Tout au long du processus d'enquête, la transparence serait essentielle. Des rapports réguliers seraient publiés pour informer le public des progrès de l'enquête, et des audiences publiques pourraient être organisées pour entendre des témoins et des experts. En fin de compte, les conclusions et les recommandations de l'enquête seraient présentées au Parlement européen pour une évaluation et une action ultérieure.
L'initiation de cette enquête serait une démarche audacieuse visant à garantir la transparence, l'indépendance et la protection des droits fondamentaux dans le domaine de la réglementation numérique. Elle nécessiterait un engagement déterminé de la part des députés européens et une volonté politique de faire progresser cette question essentielle pour la démocratie européenne.

Quels pourraient être les implications en cas d’ingérence avérée ?
Si cette enquête révélait des preuves d'ingérence de l'état profond américain via NewsGuard dans les relations avec la Commission européenne, cela soulèverait des questions graves sur la souveraineté et l'indépendance des décisions européennes en matière de réglementation numérique.
Dans un tel scénario, plusieurs mesures pourraient être envisagées :

  • Des Sanctions Diplomatiques et Commerciales
💡
Les États membres de l'Union européenne pourraient envisager des sanctions diplomatiques et commerciales contre les acteurs responsables de cette ingérence. Cela pourrait inclure des mesures telles que des restrictions commerciales, des sanctions financières ou des expulsions diplomatiques.
  • La révision des Accords et des Relations
💡
L'Union européenne pourrait réviser ses accords et ses relations avec les États Unis, en particulier dans les domaines de la coopération en matière de sécurité et de renseignement. Cette révision pourrait viser à protéger la souveraineté européenne et à garantir que les décisions prises au sein de l'UE ne sont pas influencées par des acteurs extérieurs.
  • Un renforcement des Règles de Transparence
💡
L'Union européenne pourrait mettre en place des règles plus strictes en matière de transparence et d'intégrité pour prévenir de futures ingérences. Cela pourrait inclure des obligations de divulgation accrue des liens entre les acteurs privés et publics dans le domaine de la réglementation numérique.

Un réexamen des Accords d'Échange d'Informations

💡
L'UE pourrait revoir ses accords d'échange d'informations avec les États-Unis, en particulier en ce qui concerne les données personnelles et la cybersécurité. Cette démarche viserait à protéger la confidentialité des citoyens européens.

Un renforcement de la Souveraineté Numérique

💡
L'Union européenne pourrait accélérer ses efforts pour renforcer sa souveraineté numérique en développant des alternatives aux acteurs internationaux controversés. Cela pourrait inclure le soutien à des entreprises européennes dans le domaine de la technologie et de la réglementation de la désinformation.

Il est important de noter que toute mesure spécifique dépendrait des preuves et des circonstances entourant cette ingérence présumée. L'Union européenne agirait en conformité avec ses propres lois et règlements, ainsi que les normes internationales, pour préserver son intégrité et son indépendance dans le domaine de la réglementation numérique.

II- Des axes d’amélioration au Digital Services Act


Une enquête parlementaire visant à examiner les relations entre la Commission européenne, NewsGuard, et d'autres acteurs impliqués dans la réglementation de la désinformation pourrait, dans ses conclusions, préconiser diverses recommandations, dont certaines pourraient être directement liées au Digital Services Act.
Les conclusions de l'enquête pourraient tout d'abord traiter des relations entre la Commission européenne et des entités privées, y compris NewsGuard, pour garantir la transparence, l'indépendance et la gouvernance appropriée dans le domaine de la réglementation numérique. Cela pourrait inclure des recommandations pour renforcer la transparence et la responsabilité dans les relations entre ces acteurs.

Cependant, les conclusions de l'enquête pourraient également aborder des questions liées directement au DSA. Si l'enquête révélait que les décisions de la Commission européenne concernant le DSA étaient influencées par des intérêts privés ou politiques, les recommandations pourraient viser à garantir que le DSA préserve véritablement les droits fondamentaux.


Voici les axes d’améliorations que nous préconiserions pour que le Digital Services Act préserve les droits fondamentaux des citoyens, tout en évitant toute censure partisane :

Une transparence accrue


Dans le contexte du Digital Services Act (DSA) qui impose aux plateformes en ligne la responsabilité de la modération des sources d'information, la transparence accrue dans l'évaluation de la fiabilité des médias en ligne revêt une importance cruciale, surtout lorsque des préoccupations de censure partisane telles que celles associées à NewsGuard sont présentes.
Tout d'abord, exiger des entités chargées d'évaluer la fiabilité des médias en ligne qu'elles rendent publiques leurs méthodologies d'évaluation et leurs critères de notation est essentiel pour garantir que les plateformes de médias sociaux puissent comprendre et mettre en œuvre efficacement les procédures de modération. Dans un contexte où des préoccupations de partialité ont été soulevées concernant des entités telles que NewsGuard, la publication des méthodologies d'évaluation serait d'autant plus essentielle pour clarifier les processus utilisés pour déterminer la fiabilité d'une source d'information, y compris comment les informations sont collectées, analysées et notées.

Cela éviterait tout arbitraire dans le processus de modération tout en garantissant que les sources d'information ne sont pas injustement censurées.
De plus, la divulgation des critères de notation serait cruciale pour garantir que la modération des sources d'information est effectuée de manière objective et impartiale, en particulier lorsque des allégations de partialité sont présentes. Les entités d'évaluation devraient expliquer comment elles déterminent les notes attribuées aux médias, en s'assurant que ces critères sont objectifs et basés sur des normes claires. La publication de ces critères offrirait aux plateformes une compréhension détaillée de la base sur laquelle elles peuvent modérer les contenus, tout en permettant au public de juger si les évaluations sont équitables, notamment dans les cas où des préoccupations de partialitén sont soulevées.
En fin de compte, cette mesure contribuerait à renforcer la crédibilité des entités d'évaluation de la fiabilité des médias en ligne, favorisant la confiance du public dans le processus de modération mis en place par les plateformes. Elle garantirait que le processus de modération des sources d'information est transparent, objectif et moins sujet à des influences partisanes, favorisant ainsi une réglementation plus équilibrée et équitable de la désinformation en ligne, en tenant compte des cas où des allégations de censure partisane ont été soulevées.

Participation des utilisateurs


Pour garantir une plus grande implication des utilisateurs dans le processus de modération des plateformes en ligne, le DSA pourrait envisager de mettre en place des mécanismes de consultation régulière. Cette consultation pourrait concerner plusieurs aspects essentiels, notamment les règles de modération et les changements importants dans les conditions d'utilisation.

En ce qui concerne les règles de modération, le DSA pourrait exiger que les plateformes consultent leurs utilisateurs lors de l'élaboration ou de la révision de ces règles. Cette consultation pourrait se faire par le biais de sondages en ligne, de forums de discussion ou d'autres méthodes de participation citoyenne. Les utilisateurs auraient ainsi l'occasion d'exprimer leur avis sur les types de contenus qui devraient être autorisés ou interdits.
De plus, pour assurer une plus grande transparence et démocratie dans le processus de modération, les plateformes pourraient également solliciter l'avis de leurs utilisateurs avant d'apporter des modifications importantes à leurs conditions d'utilisation. Cette consultation préalable permettrait de prendre en compte les préoccupations et les suggestions des utilisateurs.
En ce qui concerne l'évaluation des sources d'information, une autre mesure = envisageable serait de permettre aux utilisateurs de participer à cette évaluation. Les utilisateurs pourraient noter et commenter les sources d'informations, signalant ainsi les sources fiables et dénonçant les sources problématiques. Ces notations contribueraient à la création de classements de sources d'information en fonction de leur crédibilité et de leur fiabilité.
Cette approche participative favoriserait la responsabilisation des sources d’information envers le public et encouragerait la diversité des voix et des opinions dans l'évaluation de ces sources d’information en ligne. En réalité, l'engagement citoyen renforcerait la confiance dans le processus de réglementation de la désinformation en impliquant directement ceux qu'il vise à protéger : les citoyens.

Des mécanismes d’appel et recours pour garantir la liberté d’expression et lutter contre la censure partisane.

Un axe crucial d'amélioration pour protéger la liberté d'expression dans le cadre du Digital Services Act (DSA) serait la mise en place de mécanismes d'appel et de recours plus robustes. Il est essentiel d'établir un système transparent et efficace qui permette aux utilisateurs de contester les décisions de modération prises par les plateformes en ligne, qui pourraient être partisanes. Ces mécanismes d'appel devraient garantir une procédure équitable et accessible pour les utilisateurs dont le contenu a été retiré ou signalé. Ils devraient également exiger des plateformes de fournir des explications détaillées sur la raison du retrait d'un contenu ou de son signalement. En donnant aux utilisateurs la possibilité de faire appel de manière transparente et équitable, le DSA peut protéger efficacement la liberté d'expression tout en luttant contre la désinformation. Cela aiderait à prévenir la censure partisane, les abus potentiels et à garantir que les droits fondamentaux des citoyens soient préservés dans l'environnement numérique en constante évolution.

Protection de la vie privée


Des dispositions spécifiques pourraient être incluses pour renforcer la protection de la vie privée des utilisateurs. Les plateformes en ligne collectent souvent des données personnelles pour diverses raisons, y compris pour la modération de contenu, la personnalisation de l'expérience de l'utilisateur, la publicité ciblée, etc.
Il est important de noter que le Règlement général sur la protection des données (RGPD) de l'Union européenne traite déjà des principes de collecte, de traitement et de stockage des données personnelles, y compris ceux liés à la vie privée des utilisateurs. Cependant, dans le contexte de la modération de contenu en ligne, il peut être nécessaire d'apporter des améliorations spécifiques pour répondre aux défis uniques auxquels sont confrontées les plateformes en ligne.

Tout d'abord, le DSA pourrait exiger que les plateformes en ligne simplifient considérablement le processus permettant aux utilisateurs de demander la suppression de leurs données personnelles. Il devrait être facile et intuitif pour les utilisateurs de retirer leur consentement à la collecte et au traitement de leurs données, en particulier dans le contexte de la modération de contenu. Les plateformes devraient également garantir que cette option est clairement accessible depuis les paramètres de compte ou la page de confidentialité de l'utilisateur, sans devoir naviguer à travers des options complexes.
De plus, une mesure importante pour la protection de la vie privée serait de rendre le choix par défaut, lorsqu'il s'agit de la collecte de données personnelles ou de l'utilisation de cookies dans le cadre de la modération de contenu, celui de l'utilisation strictement nécessaire. En d'autres termes, les utilisateurs devraient être automatiquement inscrits pour le niveau minimal de collecte de données nécessaire au fonctionnement du service de modération, et ils ne devraient pas être automatiquement inscrits pour la collecte de données supplémentaires à des fins publicitaires, de profilage ou de ciblage. Cette approche garantirait que le consentement actif des utilisateurs soit obtenu pour toute utilisation de données au-delà du strict nécessaire, renforçant ainsi leur vie privée dans le contexte spécifique de la modération de contenu en ligne.


Protection des mineurs renforcée


Pour renforcer la protection des mineurs dans le cadre du Digital Services Act (DSA), il serait envisageable d'exiger que les plateformes en ligne mettent en place des mécanismes de contrôle parental plus efficaces. Ces mécanismes pourraient inclure des options permettant aux parents ou aux tuteurs légaux de définir des paramètres de sécurité personnalisés pour les comptes de leurs enfants.

Par exemple, ils pourraient déterminer les heures d'utilisation autorisées, restreindre l'accès à certains types de contenu inapproprié pour l'âge, et surveiller l'activité en ligne de leurs enfants.
Ces mécanismes devraient être conviviaux et faciles à configurer, afin de garantir que les parents puissent les utiliser efficacement.
En outre, les plateformes en ligne pourraient être tenues de signaler de manière proactive aux parents ou aux tuteurs légaux les activités potentiellement dangereuses ou inappropriées de leurs enfants sur la plateforme. Cette notification pourrait inclure des informations sur les interactions en ligne, les contenus consultés ou les comportements préoccupants. En fournissant aux parents ces informations essentielles, les plateformes les aideraient à mieux protéger leurs enfants tout en préservant leur vie privée.
L'intégration de mécanismes de contrôle parental plus avancés et une communication proactive avec les parents contribueraient à réduire l'accès des mineurs à des contenus inappropriés et potentiellement nocifs, tout en responsabilisant les parents dans le rôle de protection de leurs enfants dans l'environnement numérique.


La lutte contre la désinformation en ligne est importante, mais elle doit être menée avec prudence pour éviter de compromettre nos libertés fondamentales. Un équilibre entre la protection contre la désinformation, la garantie de la liberté d'expression et la prévention des risques d'ingérence étrangères ainsi que de la censure partisane est essentiel pour préserver la démocratie et l'échange ouvert d'idées, en particulier dans un contexte de conflits de 5ème génération et deguerre de l'information.