Tecnología - Precaución

Jueves 03 de Abril de 2025 - 11:42 hs

Las 5 cosas que nunca debes compartir con ChatGPT

Para evitar riesgos de seguridad y privacidad, es clave saber qué información no debe proporcionarse a herramientas de inteligencia artificial como ChatGPT.

Desde su lanzamiento en 2022, ChatGPT ha cambiado la forma en que interactuamos con la tecnología, permitiendo conversaciones fluidas con una inteligencia artificial. Sin embargo, a medida que su uso se expande, también crecen las preocupaciones sobre la privacidad y la seguridad de los datos que los usuarios comparten con esta herramienta.

La reciente actualización de GPT-4o, que incluye la capacidad de generar imágenes, desató un fenómeno en redes sociales, con miles de personas subiendo sus fotos para transformarlas en ilustraciones al estilo del Studio Ghibli. Pero detrás de esta tendencia surge un interrogante clave: ¿qué sucede con todos estos datos y quién controla su uso?

Aprende a usar ChatGPT como un profesional

Para evitar filtraciones, hackeos y otros riesgos de ciberseguridad, es fundamental ser conscientes de qué información no debemos compartir con ChatGPT ni con ningún otro chatbot de inteligencia artificial. A continuación, cinco tipos de datos que siempre deben mantenerse en privado:

1. Imágenes con datos biométricos

Subir fotos personales, especialmente aquellas en las que aparece el rostro, puede exponer información biométrica valiosa. Aunque es divertido ver una versión animada de uno mismo, es importante recordar que estas imágenes pueden ser utilizadas para recopilar datos sensibles sin que el usuario lo sepa.

2. Datos personales

Información como el número de documento, la fecha de nacimiento, la dirección o incluso trayectos habituales no deben compartirse con la IA. Estos datos pueden ser utilizados para identificar a una persona o comprometer su seguridad en caso de un ataque cibernético.

3. Resultados médicos

Compartir diagnósticos o estudios médicos con ChatGPT es una mala idea. Además de que la IA no puede reemplazar la opinión de un profesional de la salud, estos datos pueden filtrarse y quedar expuestos a terceros, generando riesgos para la privacidad del usuario.

4. Datos bancarios

Nunca se deben proporcionar números de tarjetas de crédito, claves de acceso a cuentas bancarias o información de transacciones financieras. Aunque ChatGPT está diseñado para proteger la privacidad, no cuenta con los mismos protocolos de seguridad que un sitio web bancario, lo que lo convierte en un objetivo potencial para ataques informáticos.

5. Información corporativa confidencial

Si se usa ChatGPT con fines laborales, es importante evitar compartir información sensible de la empresa. Documentos internos, estrategias comerciales o datos de clientes podrían quedar expuestos, generando riesgos legales y financieros para la compañía.

Fuente: LT10 - TN TECNO