El 21% de los latinoamericanos utiliza chatbots como apoyo emocional ante la tristeza

El 21% de los latinoamericanos utiliza chatbots como apoyo emocional ante la tristeza
El 21% de los latinoamericanos utiliza chatbots como apoyo emocional ante la tristezaKaspersky

En el marco del Blue Monday, expertos alertan que la interacción íntima con herramientas digitales puede derivar en filtraciones de información personal y vulnerabilidades de ciberseguridad.

Blue Monday: El fenómeno de desahogarse con chatbots y sus implicaciones de seguridad


• Un estudio de Kaspersky revela que una quinta parte de los usuarios en Latinoamérica recurre a la inteligencia artificial para buscar consuelo, una práctica que expone datos sensibles.

(17/Ene/2026 – web – Panama24Horas.com.pa) Ciudad de Panamá, Panamá.- Desahogarse en momentos de melancolía ya no es una actividad exclusiva entre humanos. Según una reciente investigación de la firma Kaspersky, el 21% de los latinoamericanos que emplean herramientas de inteligencia artificial admite hablar con chatbots cuando se siente triste o decaído. Esta tendencia, que cobra relevancia en fechas como el Blue Monday, plantea serios desafíos para la privacidad de los datos personales.

El Blue Monday, considerado el día más triste del año por factores como el clima y las deudas post-festividades, impulsa a las personas a buscar entornos donde se sientan escuchadas sin juicios. Muchos usuarios perciben a los chatbots como espacios seguros por su disponibilidad inmediata, lo que fomenta una confianza excesiva que puede llevar a compartir información íntima sin medir las consecuencias.

Un cambio generacional en la gestión emocional

La investigación destaca que los jóvenes lideran esta transición digital. El 35% de los integrantes de la Generación Z y los Millennials acuden a la IA para gestionar su malestar emocional, una cifra significativamente mayor al 19% registrado en personas de 55 años o más. Este cambio refleja cómo las nuevas generaciones integran plataformas digitales en su salud mental, a menudo sin dimensionar que estas herramientas pertenecen a empresas comerciales con políticas de análisis de datos.

María Isabel Manjarrez, investigadora de seguridad de Kaspersky, advierte que la interacción sin cautela puede exponer a los usuarios a filtraciones de conversaciones o al contacto con bots falsos diseñados para el robo de identidad o extorsión. La experta enfatiza que la información proporcionada por la IA no reemplaza bajo ninguna circunstancia el acompañamiento profesional especializado.

Recomendaciones para proteger la privacidad digital

Para quienes decidan interactuar con estas herramientas, los expertos sugieren cuatro medidas fundamentales de autocuidado digital:

• Revisión de políticas: Es vital verificar si el servicio utiliza las interacciones para entrenar modelos de IA o personalizar publicidad, y configurar la privacidad para limitar el uso de los chats.

• Restricción de datos sensibles: Se debe evitar compartir nombres completos, direcciones, contraseñas o datos financieros, ya que las conversaciones pueden ser almacenadas y quedar expuestas ante posibles incidentes de ciberseguridad.

• Verificación de información: Dado que las respuestas de la IA pueden ser imprecisas o sesgadas, es imperativo contrastar los datos y acudir a expertos en salud mental para temas sensibles.

• Uso de plataformas oficiales: Se recomienda interactuar únicamente con herramientas reconocidas y proteger los dispositivos con soluciones de seguridad avanzadas que bloqueen sitios maliciosos.

Descubra qué otros artículos están leyendo nuestros lectores ahora mismo:

Proyecto «Mas Territorio Más Empleo» generará oportunidades de empleo en comunidades

Deja un comentario

Su dirección de correo electrónico no será publicada. Los campos requeridos estan marcados con *

Cancel reply

Opinión


330x2801

Últimas Noticias

Deportes