Annexe VI
Étiquetage et filtrage :
possibilités, dangers, et perspectives [
1].

François Archimbaud



Introduction.

Les dispositifs de contrôle parental des contenus prévus par la loi du 30 juillet 1996 résultent du seul article de l' « amendement Fillon » non censuré par le Conseil constitutionnel, mais l'annulation des deux autres articles de l'amendement a ôté toute possibilité de sanction pénale pour les contrevenants.

Ces dispositifs étant d'origine américaine, leur utilisation en France est souvent difficile (logiciels en anglais, critères inadaptés à notre culture).

Par ailleurs, les dispositifs de filtrage et d'étiquetage posent plusieurs problèmes, qu'il convient d'examiner sérieusement, afin d'éviter tout choix hâtif, qui pourrait se révéler plus porteur de danger supplémentaire que de remède.

Systèmes d'étiquetage et de filtrage.

On distingue deux types de filtrage : la solution PICS, conçue pour être utilisée de manière universelle et collective (par l'intermédiaire de proxies), et les logiciels propriétaires conçus pour une utilisation individuelle (logiciels commerciaux ou intégrés dans des navigateurs Web).

Ces systèmes ne nous semblent pas offrir aujourd'hui des garanties suffisantes :

1. Pour un filtrage efficace des contenus préjudiciables aux mineurs.

2. Pour le respect du libre choix de l'utilisateur et la protection des données personnelles.

3. Pour le respect de l'aspect multiculturel d'Internet.

4. Pour la préservation de la richesse de ses contenus.

PICS :

L'utilisation de PICS est fondée sur l'étiquetage d'une part et le filtrage d'autre part.

Si l'étiquetage est réalisé par des gouvernements ou des organismes publics, cela revient à rétablir une censure d'État a priori qui n'est plus de mise pour aucun autre moyen d'expression. S'il est réalisé par des services d'évaluation déclarés indépendants, la procédure n'est viable que si suffisamment d'organismes de ce type existent pour assurer une réelle pluralité d'opinion, or le travail à effectuer est si lourd financièrement et techniquement (coût de la main d'oeuvre nécessaire à l'évaluation des sites, et serveurs capables de recevoir des millions de demandes par jour) qu'on assistera à une concentration aussi forte que celle qui existe pour les moteurs de recherche. Enfin, les minorités linguistiques et culturelles devront se soumettre aux critères des organismes dominants, c'est-à-dire essentiellement américains (cf. critères installés par défaut sur Internet Explorer de Microsoft ou sur le Navigator de Netscape). La troisième possibilité d'étiquetage est réalisée par auto-évaluation. Dans ce cas, l'auto-évaluation selon des critères imposés est une démarche contraire à la création artistique et à l'expression individuelle. Elle est inefficace si aucune sanction n'est prévue pour ceux qui auto-évaluent mal leurs sites, et liberticide si cette auto évaluation devient obligatoire sous peine de poursuites légales. Par ailleurs, pour certains éditeurs de contenu dont les sites comportent des centaines de pages qui évoluent sans cesse, elle représentera un investissement matériel trop lourd pour leur viabilité. Enfin, l'auto-évaluation ne peut vraiment s'imposer que si le vocabulaire d'évaluation se standardise au niveau mondial, d'où risque une nouvelle fois de se retrouver avec un Internet nivelé par la culture dominante. On notera pour finir que certains types de contenus ne peuvent pas par nature être étiquetés de manière pertinente : médias d'information, contenus artistiques, sites personnels, forum, IRC, etc.

Le filtrage présente un danger d'utilisation totalitaire : techniquement, PICS permet l'utilisation de proxies au niveau des points d'accès nationaux ou au niveau des différents fournisseurs d'accès, et le recours à un filtrage massif et généralisé s'éloignerait de façon radicale de la conception d'un Internet ouvert, et plus généralement de la liberté d'expression dans un pays démocratique où la loi s'applique a posteriori (lorsqu'il y a violation de cette loi) et non a priori. Le deuxième danger concerne le risque de constitution de fichiers de données personnelles : PICS, au même titre que les autres systèmes de filtrage, permet des atteintes dangereuses à l'égard de la vie privée en facilitant le fichage des informations personnelles et l'établissement de profils d'utilisateurs. Le risque inhérent à de tels fichiers est facile à imaginer : utilisation commerciale non sollicitée (marketing direct, recrutement), délation et chantage (envers les visiteurs de certains sites ou envers les fournisseurs de contenu eux-mêmes), fichage des employés au sein des entreprises.

Deux arguments principaux s'opposent de surcroît à une réelle efficacité de PICS, aujourd'hui et dans le futur :

Le premier argument est que la masse d'information est trop importante pour être classifiée. En effet, le ralentissement causé par l'interrogation de bases de données gigantesques avant d'accéder à un site ne facilitera pas la démocratisation d'un réseau déjà à la limite de l'engorgement. Le nombre de sites présents sur Internet ne cessant de croître à une vitesse phénoménale, la possibilité d'évaluer un nombre significatif de sites ne sera donc jamais effective. Le principal bureau d'évaluation actuel, fortement soutenu par l'industrie et les pouvoirs publics américains, RSACi, n'a pu évaluer à ce jour qu'environ 50000 sites sur les millions qui existent déjà, malgré un encouragement pressant à l'auto-évaluation des fournisseurs de contenu. La mise à jour de l'évaluation de sites - dont l'évolution rapide est favorisée par la nature du réseau - agrandit les risques d'erreurs et de bavures dans le travail de classification. Face à cette situation il ne reste à l'utilisateur de PICS qu'à empêcher l'accès à tous les sites non évalués (presque tous les sites français - même institutionnels - à l'heure actuelle) ou au contraire à laisser l'accès libre à tous les sites non évalués. Dans les deux cas, PICS devient un instrument inefficace.

Le deuxième argument est le risque d'alignement sur les valeurs morales américaines. Pour arriver à un nombre significatif de sites évalués, il faut recourir à l'auto-évaluation. Même si les acteurs acceptent en masse cette auto-évaluation, il leur sera impossible de classifier leurs contenus en adoptant des vocabulaires adaptés aux innombrables bureaux d'évaluation nécessaires pour refléter la diversité morale et culturelle des utilisateurs. Pour rester accessibles à la majorité des utilisateurs, les fournisseurs de contenu seront obligés de s'aligner sur les critères proposés par les plus grands bureaux de classement, essentiellement et pour longtemps américains, au détriment de critères adaptés à notre spécificité culturelle. La mise en place d'un bureau de classification français suffisamment efficace et influent pour être adopté par l'ensemble des utilisateurs francophones est à peu près aussi réaliste aujourd'hui que d'espérer remplacer Microsoft par une start-up française.

Logiciels propriétaires :

Quoique n'offrant pas encore les garanties de transparence nécessaires, ils offrent un moyen relativement efficace de filtrage de contenus préjudiciables aux mineurs. Proposant des solutions individuelles et pouvant s'adapter facilement aux désirs des utilisateurs, ces logiciels ne mettent pas en péril la diversité culturelle et la liberté d'expression qui caractérisent Internet.

Listes noires et listes blanches.

Le principe de l'utilisation de listes noires ou de listes blanches réside aujourd'hui dans l'utilisation de listings privés : il est difficile de déterminer la pertinence des listes dressées.

Les listes noires ne permettent pas d'assurer la transparence des listes ni de connaître la philosophie sous-jacente à leur constitution. Des bavures se sont déjà produites pour des sites consacrés au SIDA ou à la condition féminine. De plus, l'étiquette infamante ainsi accolée à certains sites sur des critères opaques et l'impossibilité de recours légal pour ces sites constituent un danger de censure privée auquel il est nécessaire d'opposer des garde-fous. Enfin, les listes noires sont d'une efficacité toute relative, liée à la difficulté de maintenir des listes à jour.

Les listes blanches constituent en revanche un système souple et transparent, actuellement le plus satisfaisant pour un utilisateur individuel souhaitant protéger des enfants d'un accès à des contenus préjudiciables à leur égard. Il n'a pas vocation à l'universalité mais convient bien également à une utilisation à l'école et dans l'entreprise. Les sites étant sélectionnés pour leur qualité, ces listes pourront être publiées et éviteront les mises à l'index camouflées permises par PICS ou le système de listes noires. La mise à jour des listes blanches est facilitée par l'intérêt que les créateurs de sites auront à se signaler spontanément aux éditeurs de listes blanches, puisqu'il s'agira d'une classification positive et non d'une mise à l'index. Enfin, c'est le système le plus efficace et le mieux adapté aux besoins français, puisque l'établissement de listes blanches pour empêcher l'accès à des contenus préjudiciables pour la jeunesse est de loin plus réaliste que l'adoption du système PICS ou l'utilisation de listes noires. Ne nécessitant pas une évaluation exhaustive des contenus immenses et sans cesse renouvelés présents sur le réseau (et en majorité anglo-saxons), il convient bien au travail que pourraient effectuer des organisations françaises pour promouvoir des contenus francophones à haute valeur ajoutée.

Possibilités de blocage d'accès.

Les possibilités de blocage d'accès à un site ou à un forum sont le plus souvent des leurres. On peut toujours contourner le blocage d'un site Web en accédant à un site miroir (cas du livre du Dr Gubler) ou d'un forum par l'accès à un autre serveur de News. Certains logiciels permettent le filtrage sur des mots interdits donnés par l'utilisateur ou bien filtrent systématiquement tous les fichiers binaires. Un autre type de filtrage commence à faire son apparition : le filtrage d'images de nus basé sur des techniques de calcul de ressemblance entre photos. On peut craindre que des images artistiques ou médicales soient ainsi assimilées à des images pornographiques. Toutefois, aucun de ces systèmes ne permet de classer un tant soit peu sérieusement des contenus complexes (cf. base de données sur le cinéma intégrant certains films érotiques ou site de lutte contre l'exploitation des enfants, etc.). Seule une censure des points d'accès au niveau d'un État (intranet du type Singapour, non envisageable pour une démocratie) peut permettre un filtrage presque à 100 % efficace sur des sites répertoriés. Ces techniques aveugles conduisent donc à une censure malhabile, dangereuse, et n'ont plus aucun rapport avec le filtrage nécessaire de contenus préjudiciables aux mineurs.

Perspectives pour le filtrage.

Il ne faudrait pas que les investissements considérables (financiers et politiques) drainés par PICS mènent à accorder une confiance aveugle dans une technique qui pose plus de problèmes qu'elle n'en résout.

Nous recommandons d'abord l'adoption volontaire par les fournisseurs de contenus de mesures simples et disponibles qui permettent de se passer de systèmes techniques lourds et coûteux à mettre en oeuvre : message d'avertissement sur la page d'accueil prévenant que le site contient des éléments susceptibles de heurter certaines sensibilités, déclarations sur l'honneur de majorité, systèmes gratuits ou payants d'identification.

Toute solution globale de filtrage de contenus devrait offrir les garanties minimales suivantes :

Nous préconisons l'encouragement d'organismes (institutions, associations), ou d'initiatives individuelles) favorisant la mise en place de structures de recommandation plutôt que de classification, sur une base de « discrimination positive » (cf. les listes blanches).

Ces organismes identifiés pourront proposer leurs recommandations, du type listes blanches, à tous les utilisateurs désirant un guide pour accéder au foisonnement et à la richesse des contenus accessibles sur Internet, sans pour autant mettre en péril la liberté de choix, et la liberté d'expression dans le respect de la loi, de l'ensemble des utilisateurs du réseau.

Enfin, la meilleure des préventions nous semble demeurer l'éducation des enfants par leurs parents et par l'école, éducation qu'aucun système de filtrage, aussi performant soit-il, ne saurait remplacer.

Notes

1 Ce document s'appuie, entre autres, sur une étude réalisée par Jean-Michel André (AUI) et François Archimbaud.

Annexe 5

Retour au sommaire

Annexe 7

octobre 1997 - webmestre@iris.sgdg.org