En un giro inesperado que ha sorprendido a la comunidad tecnológica, Microsoft ha decidido frenar temporalmente una de las funciones más ambiciosas de su asistente de inteligencia artificial Copilot para Teams. La compañía de Redmond ha anunciado que, por el momento, su IA no podrá acceder al contenido que los usuarios comparten en pantalla durante las videoconferencias, una característica que prometía revolucionar la forma en que interactuamos en las reuniones virtuales pero que también generaba serias preocupaciones sobre la privacidad de los datos.

Según información recopilada por Neowin, Microsoft actualizó su hoja de ruta de lanzamientos para comunicar este cambio significativo. Aunque la empresa no especificó los motivos exactos detrás de esta decisión, todo indica que se trata de una medida preventiva para evitar posibles reacciones negativas relacionadas con la protección de información sensible. ‘Tras una revisión más exhaustiva, no podemos continuar con esta implementación. Disculpen las molestias’, explicó la compañía en un comunicado conciso pero revelador. Lo interesante es que Microsoft no ha descartado completamente esta funcionalidad, sino que ha reprogramado su lanzamiento para agosto de 2026, sugiriendo que están trabajando en resolver los problemas que motivaron esta postergación.

La función en cuestión permitiría a Copilot analizar todo el contenido visual compartido durante las reuniones de Teams, incluyendo documentos, presentaciones, hojas de cálculo y sitios web, siempre y cuando los usuarios activaran la grabación de la videoconferencia. Esta capacidad habría transformado a la IA en un asistente mucho más contextualmente inteligente, capaz de encontrar información específica compartida durante el encuentro o generar resúmenes detallados basados no solo en las transcripciones y chats, sino también en el material visual presentado. Sin embargo, considerando que Teams es una plataforma ampliamente utilizada en entornos empresariales donde se maneja información confidencial y bajo embargo, no es difícil entender por qué muchos usuarios y organizaciones podrían sentirse incómodos permitiendo que una inteligencia artificial acceda a este tipo de contenido.

Este retroceso de Microsoft llega en un momento particularmente delicado para la compañía en materia de seguridad y privacidad. Recordemos que en junio pasado investigadores descubrieron una grave vulnerabilidad en Copilot que permitía robar información sensible simplemente enviando un correo electrónico, siendo catalogada como la primera brecha de seguridad de ‘cero clics’ dirigida específicamente contra agentes de IA. Además, la empresa todavía enfrenta críticas por los problemas de privacidad de Recall, la función de memoria fotográfica de Windows 11. Parece que Microsoft está aprendiendo que, en la era de la inteligencia artificial, la innovación debe ir siempre de la mano con la responsabilidad y la transparencia, especialmente cuando se trata de proteger la información confidencial de sus usuarios.

Por Editor