2.3.5 Sistemas de filtrado

Europa reaccionó ante el fenómeno Internet con un talante mucho más liberal que Estados Unidos. La Comisión Europea aprobó en octubre de 1996 dos documentos fundamentales, el Libro Verde sobre la Protección de los Menores y la Dignidad Humana en los Servicios Audiovisuales y de Información y la Comunicación sobre Contenido Ilegal y Perjudicial en Internet. En el Libro Verde se establece:

En primer lugar, el acceso a determinados tipos de material puede ser prohibido para todos, independientemente de la edad de la audiencia potencial o el medio utilizado. Aquí es posible, al margen de las diferencias en las legislaciones nacionales, identificar una categoría general de material que viola la dignidad humana, consistiendo principalmente en pornografía infantil, violencia extrema gratuita e incitación al odio, discriminación y violencia racial o de otro tipo.

En segundo lugar, el acceso a determinados materiales que pueden afectar al desarrollo físico y mental de los menores está permitido sólo a los adultos. [...] El objetivo está limitado, por lo tanto, a evitar que los menores encuentren, por accidente o por otras razones, materiales que pueden afectar a su desarrollo físico y/o mental.

Estos temas se confunden a veces por una u otra razón, pero es esencial mantener la distinción entre estas diferentes cuestiones: son objetivos diferentes que plantean problemas diferentes y exigen soluciones diferentes. Claramente, las medidas necesarias para imponer una prohibición total son diferentes de las que se necesitan para restringir el acceso de los menores o para evitar el acceso casual de los adultos.

La Comisión Europea ha optado por sistemas basados en la autorregulación, que incluyan instancias representativas de los suministradores y usuarios de los servicios de Internet, y por otra parte, suministro a los usuarios de mecanismos de filtro.. Un ejemplo de ella es la norma PICS.

Es muy difícil para los proveedores de contenido controlar todo lo que pasa en sus páginas: Internet crece de forma exponencial, hasta el punto que intentar controlar toda la información que se genera a diario es económicamente inviable. Por ello, la única forma de evitar contenidos inadecuados es mediante sistemas de filtro. El mejor análisis que pueden encontrar en Internet sobre sistemas de filtro fue publicado por Javier Villate en la página Web de Fronteras Electrónicas, con el título «Libertad de expresión en Internet, retos y amenazas»[12], de donde he extraído la información que a continuación reproduzco.

PICS (Plataforma para la Selección de Contenido en Internet) es un sistema de clasificación y etiquetado del contenido desarrollado por el Consorcio World Wide Web, organismo encargado de establecer los estándares de la Web. «Un sistema de clasificación es una serie de categorías y niveles dentro de aquellas, las cuales pueden utilizarse para clasificar contenidos».

En esencia, PICS funciona mediante la inserción de etiquetas electrónicas en los documentos web, textuales o icónicos, las cuales no son visibles por el lector. Estas etiquetas expresan, o pretenden expresar, el contenido del documento en cuestión. Por ejemplo, puede ser clasificado como «contenido sexual», «violencia», «racismo», etc., y subcategorías como «diálogos sugerentes», «actividad sexual explícita», «sexo con desnudos integrales», etc.

Para que PICS funcione se requieren dos elementos: los sistemas de clasificación y el software de filtrado del contenido, que deberá interpretar las especificaciones PICS.

En la actualidad, hay tres sistemas de clasificación PICS.

RSACi (Recreational Software Advisory Council on the Internet). Es el más extendido y clasifica los materiales en función del grado de sexo, violencia, desnudos y lenguaje soez. En septiembre de 1997, RSACi afirmaba haber clasificado unos 43.000 sitios de Internet.

SafeSurf. Este sistema incluye categorías como edad, palabrotas, temas heterosexuales, temas homosexuales, desnudos, violencia, sexo-violencia-y-palabrotas, intolerancia, apología del uso de drogas, otros temas para adultos y juego, con nueve subcategorías para cada una de ellas.

Net Shepherd. Clasifica los sitios en base a criterios de madurez (general, niños, adolescentes, jóvenes, adultos y objetable) y niveles de calidad (de una a cinco estrellas). Net Shepherd afirma haber clasificado unos 300.000 sitios.

SafeSurf y RSACi requieren que los creadores de páginas web autoclasifiquen sus contenidos, mientras que Net Shepherd encarga la clasificación de los sitios a terceras partes.

Otro método para bloquear el acceso a contenidos de la Web es el software de filtrado autónomo. Es decir, la utilización de un programa informático autosuficiente que no requiere de la utilización de sistemas de clasificación independientes. Este sistema presenta todavía más problemas que los sistemas de clasificación basados en PICS.

Con el software de filtrado autónomo, los padres, por ejemplo, pueden controlar que sus hijos sólo se conecten a la Red a determinadas horas y accedan a determinados contenidos, todo ello protegido mediante contraseña. Por supuesto, esto dará resultado si los padres saben, por lo menos, tanto o más que sus hijos sobre el programa en cuestión o bien ejercen una vigilancia estrecha de las actividades de sus retoños. Tengo la sospecha de que ambas cosas no se dan con demasiada frecuencia.

Este tipo de software de filtrado bloquea los contenidos de la Web utilizando diferentes sistemas. Los podemos reducir a dos: mediante listas de sitios considerados inaceptables o mediante búsquedas de palabras clave.

El problema de los sistemas de filtrado, es su imperfección: no hay software ni hardware que sustituya la responsabilidad paterna. Es lo que puso de manifiesto David Casacuberta, presidente de Fronteras Electrónicas, en su comparecencia ante el Senado,[2]  cuyos puntos esenciales resumiré, en lo relativo a software de filtrado, resumo a continuación:

  1. Son sistemas fáciles de desconectar por un menor. Son sencillos, hay una contraseña que es muy fácil de descubrir, de manera que muchos menores son capaces de desbloquear programas sin que sus padres lo sepan

  2. Dificultad de etiquetar. Hay contenidos que son muy fáciles de etiquetar -es muy fácil decir que el consumo pornográfico es pornografía, una película violenta es una película violenta-, pero consideren, por ejemplo, una página de información sobre sida para adolescentes. ¿Diríamos que eso es pornografía? ¿Impediríamos que nuestros hijos accedieran? ¿Preferiríamos entonces que cogieran el sida, por ejemplo, porque en esa página se habla de temas sexualmente explícitos? Pensemos en una página de una organización de derechos humanos -como ha sucedido- que describe las torturas realizadas por los militares durante la dictadura argentina; las páginas categorizan eso como pornografía fetichista. Mientras no tengamos sistemas de inteligencia artificial que realmente entiendan lo que hay en la página, simplemente buscar ciertas palabras, como «pechos», conduce a resultados totalmente catastróficos. Los programas de filtrado impiden el acceso a grupos de discusión de apoyo a mujeres que han tenido una operación de masectomía porque aparece la palabra pechos; evidentemente, se habla de cáncer de pecho y, por lo tanto, a esas páginas no se puede acceder, los sistemas las filtran e impiden el acceso porque es como si fuera pornografía. Otro problema: la mayoría de las páginas de astronomía aparecen vetadas en los programas de astronomía para aficionados, se impide el acceso. ¿Por qué? Porque aparece la expresión «ojo desnudo»; el buscador encuentra la palabra desnudo, la asocia a pornográfica y no se tiene acceso a la página. Resultado: nuestros hijos no pueden saber nada de astronomía porque es pornografía.

  3. Problemas idiomáticos. Un problema obvio es que estos sistemas funcionan mal en otro sentido. Por ejemplo, a una página de pornografía en indonesio tendría acceso perfectamente porque no hay ninguna palabra detectora y las fotos no se pueden reconocer todavía; de manera que no entrarían a las páginas de pornografía en inglés o en español, pero a las de cualquier otra lengua que no esté metida allí tendrían acceso fácilmente.

  4. Se trata de sistemas cerrados. El usuario, el padre, no sabe qué está controlado y qué no está controlado, qué está censurado y qué no está censurado. Los padres no pueden decidir qué pueden ver sus hijos y qué no, porque no saben qué páginas hay allí que no se pueden ver. ¿Por qué se hace esto, por qué estas páginas son cerradas? Por criterios económicos. Las empresas consideran que esa información es comercialmente útil, si la competencia la tuviera podrían copiarle su programa y, por lo tanto, son cerradas, están cifradas, no se tiene acceso.

Decidir a qué información puede acceder, y a cuál no, un menor, es algo que sólo es responsabilidad de sus padres y profesores. No podemos dejar en manos de una máquina esa decisión. Yo tuve la inmensa suerte que jamás me impidieron el acceso a las bibliotecas de mi familia. No les diré a qué tierna edad me topé con las obras del Marqués de Sade. Lo que sí puedo asegurarles es que antes de encontrarlas, tuve que leer muchas otras cosas.

Encontrar pornografía en Internet es relativamente fácil. Encontrar pornografía especial es muy difícil: hay que ir a buscarla. Por otra parte, no seamos hipócritas: uno de los principales motores del negocio en Internet es el sexo. Las páginas más visitadas son las de contenido erótico, pese a que representan una minoría con respecto a las páginas no pornográficas, de simple información. Internet es un reflejo de lo que somos: si queremos que nuestros hijos sean mejores que nosotros, no es en la Red donde tenemos que cambiar las cosas.