En respuesta a una creciente reacción negativa, OpenAI ha desactivado una función polémica de ChatGPT que permitía que algunas conversaciones privadas, e intensamente personales, apareceran de forma involuntaria en los resultados de búsqueda. El miércoles, Fast Company reveló este problema de privacidad, señalando que miles de conversaciones de ChatGPT aparecían en los resultados de búsqueda de Google, representando probablemente solo una muestra de chats ‘visibles para millones’. Aunque el índice de búsqueda no incluía información identificable sobre los usuarios de ChatGPT, algunas conversaciones compartían detalles personales—como descripciones específicas de relaciones interpersonales con amigos y familiares—posiblemente permitiendo identificar a los participantes, explicó Fast Company.
El oficial de seguridad de la información de OpenAI, Dane Stuckey, aclaró en X que todos los usuarios cuyos chats se expusieron optaron por indexarlos al marcar una casilla tras elegir compartir una conversación. Según Fast Company, los usuarios a menudo comparten chats en WhatsApp o eligen la opción de guardar un enlace para revisitar el chat más adelante. Sin embargo, Fast Company puntualizó que los usuarios podrían haber sido inducidos a compartir conversaciones debido al formato del texto: ‘Al hacer clic en ‘Compartir’, se presentaba a los usuarios la opción de marcar una casilla etiquetada como ‘Hacer que este chat sea descubrible.’ Debajo, en un texto más pequeño y liviano, se incluía una advertencia de que la conversación podría aparecer en los resultados de motores de búsqueda.’
Inicialmente, OpenAI defendió este etiquetado como ‘suficientemente claro’, según reportó Fast Company el jueves. Pero Stuckey confirmó que, en última instancia, la compañía de inteligencia artificial decidió que la función ‘introducía demasiadas oportunidades para que la gente compartiera accidentalmente cosas que no pretendían’. De acuerdo a Fast Company, esto incluía chats sobre uso de drogas, vida sexual, salud mental y experiencias traumáticas. Carissa Veliz, una ética de la inteligencia artificial de la Universidad de Oxford, dijo a Fast Company que estaba ‘impactada’ de que Google estuviera registrando ‘estas conversaciones extremadamente sensibles.’
Stuckey describió la función como un ‘experimento de corta duración’ que OpenAI lanzó ‘para ayudar a la gente a descubrir conversaciones útiles’. Confirmó que la decisión de remover la característica también incluyó un esfuerzo por ‘eliminar contenido indexado del motor de búsqueda relevante’ hasta la mañana del viernes.