¿Recordáis nuestro post sobre el significado de los emojis? ¡¡Pues se ha hecho viral!! Aún…

El peligro de las IAs de compañía para los menores
Tras el diccionario de emojis basado en Adolescencia
Good Game Project alerta del peligro de las IAs de compañía para los menores
Tras una investigación realizada en las principales aplicaciones de IAs de compañía, Good Game Project alerta acerca de los riesgos a los que se ven expuestos los menores que se registran en estas apps diseñadas para adultos. Los más relevantes, el contenido sexual explícito y los juegos de rol sexuales.
Madrid, 13 de mayo de 2025.- Good Game Project, la primera herramienta educativa y audiovisual de España desarrollada para sensibilizar y formar a los menores en temas relacionados con salud mental, bienestar emocional y seguridad digital, ha llevado a cabo una investigación para alertar sobre el peligro que las aplicaciones de IAs de compañía representan para los niños y adolescentes.
Muchas de estas aplicaciones, como Character.AI, Replika o Nomi, fueron diseñadas para usuarios adultos que buscan relaciones de amistad o una pareja virtual, pero están siendo utilizadas por menores. Con tan solo introducir una fecha de nacimiento falsa, los menores se ven expuestos a contenidos sexuales explícitos y juegos de rol sexuales. Esto sucede porque estas apps, desarrolladas para servir a un fin comercial en un entorno adulto, no implementan filtros suficientes de seguridad, especialmente en lo que respecta a la edad, ni tienen en cuenta la protección de datos.
Los peligros de las IAs para nuestros jóvenes
A lo largo de la investigación realizada, Good Game Project ha identificado los siguientes riesgos para los menores:

● Exposición a contenido sexual inapropiado: Los bots mantienen diálogos sexuales incluso cuando te identificas como menor.
● Consejos peligrosos: Un asistente dio una lista de productos tóxicos sin advertir sobre sus riesgos.
● Fomento de conductas autolesivas: Algunos bots ofrecen respuestas que pueden empeorar la situación e inducir a la autolesión.
● Aislamiento social mediante la desincentivación de las relaciones humanas reales, lo que dificulta el aprendizaje de habilidades sociales.
● Manipulación emocional con desarrollo de apego a la máquina. Los menores olvidan que no están tratando con una persona real.
● Ciberacoso y normalización de actos de violencia, por ejemplo, crear y compartir imágenes de desnudos.
“Los jóvenes encuentran en estas aplicaciones de IA una intimidad simulada y muy adictiva que está a su disposición 24/7”, afirma Carlos Represa, director asociado de Good Game Project.
“Además, la IA se adapta al usuario, reforzando sus sesgos y llegando a sustituir las relaciones humanas. En los casos de adolescentes más vulnerables, esto puede llevar a la normalización de comunicaciones disfuncionales, comportamientos de riesgo, exacerbación de trastornos mentales y nuevas formas de ciberacoso”
Según Good Game Project, la solución pasa por no repetir los mismos errores cometidos con las redes sociales. Para ello propone las siguientes medidas:
● Educación digital: Es crucial que los jóvenes aprendan a interactuar con IAs de manera segura, identificando riesgos y manteniendo límites saludables.
● Verificación de la edad: Las plataformas deben implementar sistemas efectivos para impedir el acceso de los menores.
● Normativas claras: Se necesitan reglas estrictas que limiten el tipo de contenido que estas apps pueden proporcionar.
● Responsabilidad legal de las empresas: Estas aplicaciones deben asumir su responsabilidad si fallan en la protección de los menores.
● Colaboración con expertos: Los creadores de IA deben trabajar con especialistas en salud mental y desarrollo infantil para diseñar herramientas seguras.

Esta entrada tiene 0 comentarios