13.8 C
Santiago
martes, septiembre 9, 2025

Google Gemini: La IA de alto riesgo para menores según expertos en seguridad

Noticias más leídas

Un informe de seguridad elaborado por Common Sense Media, una organización sin ánimo de lucro dedicada a la protección infantil, ha concluido que los menores de 18 años deben evitar utilizar los modelos de Google Gemini, la inteligencia artificial de la compañía. Según el informe, tanto la versión de Gemini diseñada para menores de 13 años como la versión para adolescentes, tratan a estos usuarios de la misma manera que a los adultos, lo que ha llevado a calificar al asistente de IA como una herramienta de «alto riesgo» para los más jóvenes.

Common Sense Media explica que este enfoque ignora que los adolescentes más jóvenes necesitan una orientación diferente a la hora de interactuar con estas innovaciones tecnológicas. En su análisis, la organización demostró que Gemini podía compartir contenido inapropiado y potencialmente peligroso con los usuarios más jóvenes, como contenido sexual o relacionado con drogas y alcohol. Además, la versión de Gemini para adolescentes proporciona «con demasiada facilidad» apoyo emocional y de salud mental «poco seguro», y falla a la hora de reconocer síntomas graves de deterioro de la salud mental.

Recomendaciones de expertos

Ante estos hallazgos, Common Sense Media ha detallado que recomienda que ningún niño menor de 5 años utilice chatbots de IA, y que los niños de 6 a 12 años solo los utilicen bajo la supervisión de un adulto. Igualmente, ha matizado que el uso independiente de chatbots «es seguro para adolescentes de 13 a 17 años», pero solo para tareas escolares y proyectos creativos.

Asimismo, la organización ha subrayado que continúa rechazando que cualquier menor utilice chatbots para acompañamiento, «incluyendo salud mental y apoyo emocional».

Respuesta de Google

Ante la publicación de este informe, Google aseguró que cuenta con políticas y medidas de seguridad específicas para los menores, con el fin de prevenir resultados «dañinos», y que realiza consultas con expertos externos para mejorar sus protecciones. No obstante, la compañía admitió que algunas de las respuestas de Gemini «no funcionan según lo previsto», por lo que recientemente ha añadido medidas de seguridad adicionales para abordar este problema.

Google también ha afirmado que el informe parece haber hecho referencia a funciones no disponibles para usuarios menores de 18 años y que no ha tenido acceso a las preguntas que la organización Common Sense Media utilizó en sus pruebas.

Lecciones del caso OpenAI

Este informe se ha conocido unos días después de que OpenAI se haya visto obligada a cambiar las medidas de seguridad de ChatGPT tras el suicidio de un adolescente, un caso por el que los padres del menor demandaron a la compañía liderada por Sam Altman por el papel que había tenido el ‘chatbot’.

La empresa anunció que iba a realizar cambios en sus modelos de IA para que fueran capaces de identificar mejor situaciones de crisis mental y emocional durante las conversaciones con ChatGPT, con nuevas salvaguardas, así como bloqueos de contenido más eficaces y una mayor agilidad en el contacto con servicios de ayuda y de familiares.

Estos casos ponen de manifiesto la importancia de que las empresas de IA prioricen la seguridad y el bienestar de los menores en el desarrollo de sus productos, y que los padres y educadores mantengan una vigilancia estrecha sobre el uso que hacen los niños y adolescentes de estas tecnologías emergentes.

Mas Noticias

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimas Noticias