Plus tôt cette année, Google a blogué sur la façon dont il prévoyait de soutenir la réglementation intelligente et l’innovation politique cette année et maintenant, la société a approfondi la réglementation intelligente dans son dernier article de blog sur les politiques publiques. La société estime que la lutte contre le contenu illégal est un défi majeur et il est important de déterminer un cadre juridique pour le combattre d’une manière qui ne menace pas les valeurs sociales telles que la liberté d’expression, l’innovation et la diversité.

Le géant de la recherche affirme que la lutte contre le contenu illégal est une tâche complexe et bien que la société ait versé des millions de dollars pour le combattre efficacement, elle ne peut pas être résolue totalement. Cependant, par Google, il peut être géré et l’entreprise affine constamment ses pratiques pour y faire face. Une chose soulignée dans le billet de blog est le contexte, qui peut varier selon le point de vue du public et qui ressemble à une zone grise. Ainsi, même s’il s’agit d’un processus relativement simple pour soumettre des avis de retrait, la société décide uniquement du contenu à extraire après s’être assuré que le processus de suppression n’est pas utilisé à mauvais escient.

Google estime qu’un cadre réglementaire intelligent est nécessaire pour adopter une approche appropriée à l’égard du contenu illégal. L’entreprise respecte quatre principes clés qui, selon elle, sont des éléments importants d’un cadre réglementaire efficace. Premièrement, l’entreprise considère le contenu illégal comme un défi de société, auquel les entreprises, les utilisateurs et la société civile doivent s’attaquer ensemble. Ainsi, par exemple, si un contenu signalé n’est pas entièrement illégal, une assistance juridique pourrait être demandée pour déterminer une ligne de conduite appropriée.

Deuxièmement, l’article de blog souligne l’importance de l’état de droit et insiste sur la nécessité de clarifier ce que les plateformes peuvent faire pour s’acquitter de leurs responsabilités juridiques. En outre, une protection juridique est également recherchée pour les pratiques du bon samaritain telles que la suppression volontaire de contenus illégaux par les plateformes. Le troisième principe inclus dans le cadre réglementaire de l’entreprise dit que les lois régissant le contenu illégal ne doivent pas être rigides et spécifiques, et évoluer en fonction des technologies changeantes. Ces lois devraient se concentrer sur les problèmes sous-jacents au lieu d’imposer des correctifs. Enfin, l’entreprise souligne l’importance de l’équité et de la transparence tout en soulignant que l’équité est une notion fluide.

Google reçoit chaque jour une pléthore de demandes de suppression, dont certaines concernent la suppression de contenu légitime. Compte tenu de ce dilemme, la société a fait part de ses préoccupations concernant d’éventuelles lois susceptibles de ne pas adopter une approche équilibrée en matière de suppression de contenu. La société s’est engagée à poursuivre un débat avec les autorités de surveillance, les gouvernements, l’industrie et la société civile pour contribuer au développement de l’écosystème d’outils et d’institutions pour résoudre le problème.

La suppression du contenu illégal et offensant est actuellement un sujet brûlant dans l’industrie. Au début de ce mois, Google a dû payer une amende à la Russie pour ne pas avoir exclu les ressources bloquées de ses résultats de recherche. Cependant, Google n’est pas la seule entreprise tenue pour responsable de la régulation du contenu, car il s’agit d’un problème à l’échelle de l’industrie. Twitter et Facebook se sont également engagés à prendre des mesures pour lutter contre la désinformation et les fausses nouvelles. Il existe un appel accru à une réglementation gouvernementale pour le contenu des informations et il reste à voir si les gros bonnets technologiques et les agences gouvernementales sont en mesure de trouver un terrain d’entente pour lutter contre la désinformation. Les entreprises technologiques se sont apparemment améliorées en matière d’autoréglementation avec le temps, car un récent rapport sur le code de conduite de la Commission européenne (CE) a révélé que les plateformes de médias sociaux examinent 40% du contenu signalé dans les 24 heures et en suppriment 28%.

Laisser un commentaire