ChatGPT. / GOOGLE
La interacción con sistemas de inteligencia artificial como ChatGPT está transformando la manera en que las personas buscan información y resuelven dudas. Sin embargo, los expertos en ciberseguridad advierten que no todas las consultas son seguras ni recomendables.
Desde WeLiveSecurity, el portal oficial de la compañía ESET, alertan que compartir información sensible -como reportes financieros, estrategias empresariales, contraseñas o datos médicos- puede exponer al usuario a filtraciones y al almacenamiento no controlado de esa información.
“Ninguna plataforma de inteligencia artificial garantiza la protección total de los datos. Los usuarios deben evitar incluir información personal o confidencial en sus consultas”, remarcan los especialistas.
Las preguntas que nunca debes hacerle a una IA
Información personal o sensible: incluir contraseñas, números de identificación, datos bancarios o historial médico en una consulta aumenta el riesgo de intrusiones externas.
Consultas médicas, financieras o jurídicas: usar la IA para diagnósticos, tratamientos, decisiones legales o inversiones puede generar graves errores. “Estas plataformas no reemplazan la validación profesional ni el análisis personalizado”, señalan desde ESET.
Según los especialistas, los sistemas de inteligencia artificial generan “simulaciones lingüísticas, desligadas de toda autenticidad”, por lo que nunca deben sustituir a un médico, abogado o asesor financiero.
Cómo usar ChatGPT de forma responsable
WeLiveSecurity recomienda configurar adecuadamente la privacidad, establecer límites claros sobre los temas a consultar y evitar introducir datos identificables. “La IA puede mejorar la productividad, pero su uso seguro depende de un enfoque informado y responsable”, concluyen.
En definitiva, la inteligencia artificial es una herramienta poderosa, pero debe complementarse siempre con la asesoría de profesionales en temas críticos. La responsabilidad final de proteger los datos y evitar riesgos recae en cada usuario.







