En un mundo donde la tecnología avanza a pasos agigantados, surgen aplicaciones que, lejos de aportar beneficios, generan controversia y daño. Un reciente estudio ha puesto al descubierto cómo ciertas plataformas que utilizan inteligencia artificial para crear imágenes ‘desnudas’ de personas sin su consentimiento están generando hasta 36 millones de dólares al año. Este fenómeno, que afecta principalmente a mujeres y niñas, incluye incluso material de abuso sexual infantil, evidenciando un lado oscuro de la innovación tecnológica.
La investigación, llevada a cabo por Indicator, analizó 85 sitios web dedicados a esta práctica, encontrando que la mayoría depende de servicios tecnológicos de gigantes como Google, Amazon y Cloudflare para operar. Con un promedio de 18.5 millones de visitantes mensuales en los últimos seis meses, estos sitios han logrado convertir un acto de violación a la privacidad en un negocio lucrativo. Expertos como Alexios Mantzarlis critican el enfoque ‘laissez-faire’ de Silicon Valley hacia la IA generativa, permitiendo que estas prácticas persistan.
A pesar de los esfuerzos por parte de algunas empresas tecnológicas y legisladores para limitar estos servicios, la lucha está lejos de terminar. La creación y distribución de ‘deepfakes’ explícitos se está volviendo cada vez más ilegal, pero la industria continúa evolucionando, encontrando nuevas formas de eludir las regulaciones. Este caso no solo refleja los desafíos éticos que presenta la IA, sino también la urgente necesidad de acciones más contundentes para proteger la privacidad y dignidad de las personas en la era digital.