La seguridad de los menores en Internet: entre las acciones contra las grandes plataformas tecnológicas y las iniciativas regulatorias

0

La salud mental de los niños y jóvenes usuarios de Internet, especialmente de redes sociales, es un tema más que serio. La necesidad de buscar mecanismos que protejan a los menores es ya una cuestión prioritaria, siendo responsabilidad de todos: progenitores, reguladores, plataformas y sociedad. La manera en que se arbitre esa protección deberá equilibrar la libertad y privacidad del tráfico en línea con la seguridad y el bienestar emocional de los menores. En este momento, la balanza se inclina entre las acciones legales interpuestas por decenas de estados en EEUU, contra una de las grandes plataformas en línea como es Meta, y la iniciativa legislativa en ese país con apoyo bipartidista, encaminada a establecer medidas concretas que garanticen un uso más seguro y saludable de Internet a los menores.

El Congreso de los EEUU aprobó en 1998 la Children’s Online Privacy Protection Act (COPPA), siendo la Federal Trade Commission (FTC) una de las autoridades competentes para hacerla cumplir a través de programas y recomendaciones, como es el COPPA Safe Harbor Program. Por su lado, la COPPA Rule entró en vigor el 21 de abril de 2000 y fue modificada posteriormente en 2013 después de todo un proceso de comentarios públicos, que se plasmaron en modificaciones para definir responsabilidades de plataformas y operadores a consecuencia del continuo avance tecnológico.

En términos generales, la COPPA impone ciertos requisitos a los operadores de sitios web o servicios en línea dirigidos a niños menores de 13 años o a los que tengan conocimiento real de que están recopilando información personal de un menor de 13 años. Entre otras cosas, la norma exige a los operadores que notifiquen a los padres y obtengan su consentimiento verificable antes de recopilar, utilizar o revelar información personal de niños menores de 13 años. La norma también exige a los operadores que mantengan segura la información que recopilan de los niños y les prohíbe condicionar la participación de los niños en actividades a la recopilación de más información personal de la razonablemente necesaria para su participación en dichas actividades.

Ahora, desde una Comisión del Senado de EEUU, se han trabajado dos propuestas con el propósito de reforzar las medidas de control de uso de Internet por parte de menores:

  • Una propuesta (senadores Blackburn R–Tennessee y Blumenthal D-Connecticut) fundamentada en los cambios drásticos que en el uso de Internet se han sucedido en los últimos 25 años. La propuesta, conocida como Kids Online Safety Act (KOSA por sus siglas en inglés) va encaminada a reforzar la responsabilidad de las plataformas de redes sociales ante posibles efectos dañinos para los menores de 13 años y exige el consentimiento verificable de sus padres o representantes.
  • La otra propuesta (senadores Edward J. Markey D-Massachusetts y Bill Cassidy R-Louisiana) conocida como Children’s Online Privacy Protection Act 2.0 (COPPA 2.0), está fundamentada en el crecimiento exponencial de los sitios web de redes sociales desde COPPA de 1998 y en consecuencia aumenta la necesidad de afrontar los desafíos a la privacidad en línea para menores.

La reacción ante estas propuestas no se ha hecho esperar, con posturas en ambos sentidos. Por un lado, la necesidad prioritaria de proteger a los menores ante los peligros del uso no controlado de Internet y por otro, aunque se reconozca la bondad de las propuestas, el miedo ante una limitación a la libertad de información y de expresión. Incluso, algunos entienden que estas iniciativas legislativas pueden considerarse como una auténtica censura de contenidos para los menores que quedarían sometidos a un excesivo control parental y un sistema de verificación de edad peligroso.

Estas iniciativas federales conviven con las leyes aprobadas en distintos estados, como son Arkansas, Texas, Utah, California y Luisiana. Las grandes tecnológicas, por su parte, se han organizado para hacer frente a las iniciativas legislativas federales y las ya aprobadas en distintos estados (frenando incluso la entrada en vigor de alguna de ellas).

Mientras tanto, la Unión Europea ha dado como fecha límite el 1 de diciembre al propietario de Facebook, Meta Platforms (META.O), y a la empresa de medios sociales Snap (SNAP.N) para que informen sobre cómo protegen a los niños de las amenazas ilegales y contenido nocivo (Reuters). La solicitud de información sobre las medidas que las empresas han tomado para mejorar la protección de los menores se produce un día después de un mensaje similar de la Unión Europea a YouTube y TikTok de Alphabet (GOOGL.O).

Lo cierto es que, en los últimos años, prestigiosos estudios revelan que el uso de redes sociales tiene consecuencias nocivas en la población más joven. Ansiedad, depresión, trastornos alimentarios o autolesiones son algunos ejemplos de ataques a la salud emocional provocados o incrementados por los algoritmos que generan comportamientos adictivos. Y todo esto es lo que ha llevado a que se esté presentando un aluvión de demandas contra Meta por el impacto de las redes sociales en la salud mental de los niños. El debate ahora se centra en la búsqueda de equilibrio entre la incuestionable protección a los menores y el no perjuicio a su libre desarrollo de la personalidad.

Dejar respuesta

Please enter your comment!
Please enter your name here