

¿Qué es?
La IA puede afectar los derechos individuales a través de la generación de noticias, perfiles, imágenes, audios y videos falsos, manipulación de opiniones o reseñas, entre otros.
Manipulación de imágenes con fines de chantaje
Manipulación de imágenes con fines de chantaje
¿Qué es?
Cuando una persona altera o edita imágenes (reales o falsas) para extorsionar, intimidar o controlar a otra, generalmente con contenido íntimo o humillante.
¿Es delito?
Sí. Puede encuadrarse en varios delitos:
- Extorsión (Art. 168 CP)
- Coacción (Art. 149 bis CP)
- Violación a la intimidad (Art. 153 CP)
- Publicación no consentida de imágenes íntimas (Ley 27.736 – Ley Olimpia)
¿Cómo identificarla?
- Usan inteligencia artificial o editores para generar imágenes íntimas falsas
- Atribuyen frases o contextos que no son reales
- Amenazan con difundirlas si no se accede a sus pedidos (dinero, más material íntimo, etc.)
¿Cómo prevenir?
- Evitá compartir imágenes íntimas
- Sospechá de perfiles falsos o desconocidos
- No respondas a amenazas: guardá pruebas y bloqueá
- Nunca reenvíes imágenes manipuladas de otras personas
¿Qué hacer en caso de detectarlo?
- Guardá capturas y datos del agresor
- No cedas al chantaje
- Hablalo con alguien de confianza
Deepfakes
Deepfakes
¿Qué es?
Los deepfakes son videos, audios o imágenes generados con inteligencia artificial que imitan la voz o el rostro de una persona, haciéndola parecer que dijo o hizo algo que nunca ocurrió.
¿Es delito?
Sí. Puede constituir:
- Estafa o defraudación informática (Art. 173 inc. 16 CP)
- Extorsión o amenazas (Art. 168 y 149 CP)
- Publicación no consentida de imágenes falsas o manipuladas (Ley 27.736)
- Violencia digital si hay daño psicológico o intimidación
¿Cómo identificarlo?
- Estafas o fraudes digitales: se hacen pasar por autoridades, familiares o figuras públicas para pedir dinero o acceder a datos
- Violencia de género digital: crean videos íntimos falsos para difamar, chantajear o dañar la reputación
- Bullying o daño psicológico: afectan la identidad y autoestima de las víctimas
¿Cómo prevenir?
- Activá verificación en dos pasos en tus redes
- Limita el compartir material íntimo, incluso con personas de confianza
- Desconfiá de audios o videos que parezcan fuera de lugar
- Guardá pruebas si sospechás un deepfake
¿Qué hacer en caso de detectarlo?
- Guardá capturas y datos del agresor
Robo de identidad con IA
Robo de identidad con IA
¿Qué es?
Ocurre cuando alguien utiliza inteligencia artificial para imitar tu imagen, voz o datos personales, con el objetivo de suplantarte, engañar a terceros o cometer delitos en tu nombre.
¿Es delito?
Sí. Puede constituir:
- Estafa o defraudación informática (Art. 173 inc. 16 CP)
- Extorsión o amenazas (Art. 168 y 149 CP)
- Publicación no consentida de imágenes falsas o manipuladas (Ley 27.736)
- Violencia digital si hay daño psicológico o intimidación
¿Cómo identificarlo?
- Imitan tu voz con audios falsos pidiendo ayuda o dinero
- Crean fotos/videos deepfake con tu rostro en situaciones íntimas o falsas
- Usan tus datos para abrir cuentas, contratar servicios o estafar a otros
- Vulneran redes sociales para enviar mensajes como si fueras vos
¿Cómo prevenir?
- Protegé tus redes con contraseñas fuertes y doble autenticación
- Cuidá qué compartís en redes: datos, fotos, audios
- No compartas códigos de verificación ni claves
- Sospechá si un amigo o familiar te pide plata de forma inusual
¿Qué hacer en caso de detectarlo?
- Reuní pruebas (capturas, links, mensajes)
- Contactá al soporte de la red social o plataforma
- Informá al banco o billetera digital si usaron tu identidad
Por una Neuquén


