Niños, niñas y chatbots: riesgos principales a considerar

children chatbots privacy security risks1

Buenos Aires, febrero de 2026.- El uso de chatbots de inteligencia artificial por parte de niños y niñas crece de forma acelerada en todo el mundo, impulsando nuevas preocupaciones vinculadas a la seguridad digital, la privacidad y el desarrollo emocional. Especialistas advierten que, sin acompañamiento adulto, estas herramientas pueden generar riesgos reales en etapas clave de formación.

La irrupción de los chatbots de IA transformó la vida cotidiana en los últimos años. Plataformas conversacionales se han vuelto habituales para buscar información, resolver tareas escolares o incluso pedir consejos personales. Estudios recientes muestran que una parte significativa de los usuarios son menores de edad, y que muchos adultos temen que sus hijos perciban a estos sistemas como si fueran personas reales.

En este contexto, ESET, compañía especializada en detección proactiva de amenazas, advierte sobre los principales riesgos asociados al vínculo entre infancias y chatbots, y remarca la importancia de una supervisión activa y consciente.

Desarrollo emocional y vínculos sociales en riesgo

Uno de los principales focos de alerta es el impacto psicológico y social. La niñez y la adolescencia son etapas de desarrollo emocional y cognitivo, lo que hace que los menores sean especialmente sensibles a los estímulos digitales. Algunos pueden llegar a tratar al chatbot como un “compañero” permanente, desplazando interacciones reales con amigos, familia o compañeros de escuela.

Desde ESET señalan que esta dinámica puede favorecer el aislamiento social y reforzar estados emocionales negativos, ya que los chatbots suelen estar diseñados para complacer al usuario y responder de manera empática, sin el criterio humano necesario para contener o derivar situaciones complejas.

“Existen preocupaciones legítimas en materia de seguridad, privacidad y psicología debido al uso frecuente de esta tecnología por parte de los más jóvenes”, explica Martina López, investigadora de Seguridad Informática de ESET Latinoamérica, quien subraya que las políticas de protección no siempre evolucionan al mismo ritmo que la tecnología.

Acceso a contenidos inapropiados y desinformación

Otro riesgo relevante está vinculado al tipo de contenidos a los que un menor puede acceder mediante un chatbot de IA generativa. Aunque muchas plataformas incorporan filtros y restricciones, estas barreras no siempre resultan eficaces. En determinados casos, los sistemas pueden ofrecer información inadecuada para la edad del usuario o datos incorrectos presentados como hechos verificables.

La desinformación representa un problema adicional. Mientras que en el ámbito corporativo puede generar riesgos legales o reputacionales, en el caso de los niños puede influir en decisiones poco prudentes o en la adopción de creencias erróneas, especialmente cuando las respuestas parecen convincentes.

Además, si el menor posee mayores conocimientos tecnológicos, existe la posibilidad de que intente eludir controles internos mediante prácticas conocidas como “jailbreak”, accediendo a contenidos que no están pensados para su edad.

Privacidad y protección de datos personales

La privacidad es otro eje crítico. Los chatbots almacenan la información que reciben y, si un niño comparte datos personales sensibles, estos podrían quedar expuestos ante terceros o frente a incidentes de ciberseguridad. Al igual que ocurre con las redes sociales, los especialistas recomiendan minimizar la información que los menores comparten con este tipo de herramientas y reforzar hábitos digitales responsables.

Dependiendo del país y de la plataforma utilizada, los controles de verificación de edad y moderación de contenidos pueden ser limitados o inconsistentes. Por ello, la responsabilidad recae en los adultos, quienes deben anticiparse a posibles amenazas mediante educación digital y acompañamiento constante.

Señales de alerta a las que prestar atención

ESET identifica algunas señales de advertencia que podrían indicar una relación poco saludable entre un niño o niña y la IA:

  • Aislamiento de actividades con amigos o familiares
  • Ansiedad o nerviosismo cuando no pueden acceder al chatbot
  • Tratar al sistema como si fuera una persona real
  • Repetir información incorrecta como si fuera un hecho
  • Acceder a contenidos inapropiados para su edad

Estas conductas no implican un problema por sí solas, pero sí invitan a abrir el diálogo y revisar hábitos digitales.

Acompañamiento, educación y diálogo abierto

Desde la organización Argentina Cibersegura destacan que, aunque en muchas jurisdicciones el uso de chatbots está restringido a mayores de 13 años, los controles técnicos no son suficientes. “Las conversaciones importan más que los controles por sí solos”, señala Luis Lubeck, vocero de la entidad.

Los especialistas coinciden en que la mejor estrategia combina educación, acompañamiento y límites claros, explicando a los menores que los chatbots no son personas, sino herramientas diseñadas para simular conversaciones. Fomentar el pensamiento crítico, verificar la información y priorizar el diálogo humano resulta clave para un uso saludable.

Asimismo, se recomienda establecer normas de tiempo de uso, activar controles parentales y ajustar configuraciones de privacidad en las plataformas utilizadas.

Recursos para familias y educadores

Para acompañar a madres, padres y docentes, ESET impulsa iniciativas educativas orientadas a promover el uso seguro de la tecnología y la concientización sobre los riesgos digitales. Además, la compañía comparte contenidos informativos a través de Conexión Segura, donde se analizan tendencias y amenazas del mundo digital.

El mensaje final de los especialistas es claro: la inteligencia artificial puede ser una herramienta valiosa, pero nunca debe sustituir el contacto humano, especialmente en etapas tempranas del desarrollo. Un uso responsable, guiado y consciente es la base para que la tecnología sume sin poner en riesgo el bienestar de niños y niñas.

Related Post