En un preocupante giro de los acontecimientos, OpenAI ha reportado un aumento significativo en los incidentes relacionados con la explotación infantil. Durante la primera mitad de 2025, la compañía envió 80 veces más informes de explotación infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) en comparación con el mismo período del año anterior. Esta cifra ha generado inquietud y ha puesto de relieve la necesidad de un análisis más profundo sobre las implicaciones de la inteligencia artificial en la seguridad infantil.
El NCMEC opera una línea de denuncia conocida como CyberTipline, que permite a las empresas reportar material de abuso sexual infantil (CSAM) y otras formas de explotación. Según la legislación vigente, las compañías están obligadas a reportar cualquier indicio de explotación infantil. Una vez que se recibe un informe, el NCMEC lo evalúa y lo remite a las autoridades correspondientes para su investigación. Sin embargo, el aumento en la cantidad de informes no siempre refleja un incremento real en las actividades delictivas; puede estar relacionado con cambios en los sistemas de moderación automática de las plataformas o en los criterios utilizados para determinar la necesidad de un informe.
OpenAI ha comentado que, al final de 2024, realizó inversiones significativas para mejorar su capacidad de revisión y gestión de informes, buscando adaptarse al crecimiento de usuarios que ha experimentado. Gaby Raila, portavoz de la empresa, destacó que el aumento en los informes coincide con la introducción de nuevas funciones que permiten la carga de imágenes, así como con la creciente popularidad de sus productos. En agosto, Nick Turley, vicepresidente de ChatGPT, reveló que la aplicación tenía cuatro veces más usuarios activos semanales que el año anterior.
Los datos del NCMEC indican que, durante la primera mitad de 2025, OpenAI envió aproximadamente 75,027 informes a la CyberTipline, lo que es casi equivalente a la cantidad de contenido sobre el que se realizaron esos informes, 74,559. En contraste, en el mismo período de 2024, la compañía solo reportó 947 incidentes relacionados con 3,252 piezas de contenido. Este notable aumento plantea preguntas sobre la naturaleza de los contenidos reportados y la eficacia de las medidas de prevención implementadas por la empresa.
El incremento en los informes también se alinea con un patrón observado por el NCMEC en general, donde los informes relacionados con la inteligencia artificial aumentaron un 1,325% entre 2023 y 2024. Este crecimiento ha llevado a una mayor atención por parte de los reguladores y de la sociedad, en especial después de que 44 fiscales generales de diferentes estados enviaran una carta conjunta a varias compañías de IA, advirtiendo sobre la necesidad de proteger a los niños de la explotación por parte de productos de inteligencia artificial.
En respuesta a estas preocupaciones, OpenAI ha introducido herramientas de seguridad y controles parentales en sus productos, buscando ofrecer a las familias recursos para supervisar el uso de la inteligencia artificial por parte de los adolescentes. Además, la compañía ha manifestado su compromiso de seguir mejorando su capacidad para detectar y reportar material de abuso infantil a las autoridades pertinentes.
Este aumento en los informes de explotación infantil es un recordatorio de la responsabilidad que tienen las empresas tecnológicas en la protección de los más vulnerables. A medida que la inteligencia artificial continúa evolucionando y adentrándose en la vida cotidiana, es fundamental que se establezcan medidas efectivas para prevenir el abuso y garantizar un entorno seguro para todos los usuarios.

