
La popularidad de convertir selfies en personajes de anime mediante herramientas de inteligencia artificial (IA) ha crecido exponencialmente. Sin embargo, detrás de esta tendencia innovadora se esconde un riesgo latente: la recopilación masiva de datos personales. Plataformas como NovelAI, Waifu Labs y otras aplicaciones similares requieren acceso a fotografías, preferencias estéticas e incluso detalles biométricos para personalizar las imágenes, lo que abre la puerta a posibles violaciones de privacidad.
Expertos en ciberseguridad advierten que muchas aplicaciones de IA almacenan metadatos de las imágenes subidas por los usuarios, como ubicación, dispositivo usado o patrones faciales. Estos datos podrían ser vendidos a terceros, utilizados para entrenar algoritmos sin consentimiento o, en el peor de los casos, expuestos en brechas de seguridad. Un informe de la organización sin fines de lucro Electronic Frontier Foundation reveló que el 65% de las apps de edición con IA comparten información con anunciantes, sin claridad sobre su finalidad.
En Japón, cuna del anime, ya se han reportado casos de suplantación de identidad a partir de imágenes modificadas por IA. Además, la legislación en muchos países aún no regula específicamente cómo estas herramientas gestionan los datos biométricos. Mientras tanto, usuarios entusiastas comparten sus «avatares anime» en redes sociales, sin sospechar que sus rostros digitalizados podrían terminar en bases de datos para reconocimiento facial.
¿Cómo protegerse? Los especialistas recomiendan leer detenidamente las políticas de privacidad de las aplicaciones, evitar subir fotos sensibles y usar herramientas de código abierto que no requieran conexión a internet. También es crucial desactivar permisos de geolocalización y eliminar metadatos de las imágenes antes de compartirlas. La tecnología avanza, pero la conciencia digital debe seguirle el ritmo.
Fuente: Panamá América