Datos limitados de creadores de Canva expuestos a través de una base de datos de chatbots de IA

Una base de datos de Chroma, operada por la startup rusa de chatbots de IA My Jedai, fue expuesta en línea, filtrando las respuestas de encuestas de más de 500 creadores de Canva . Los datos expuestos incluían direcciones de correo electrónico, comentarios sobre el Programa de Creadores de Canva y opiniones personales sobre las experiencias de diseñadores en más de una docena de países.
La exposición de datos fue descubierta por la empresa de ciberseguridad UpGuard, que confirmó que la base de datos era de acceso público y carecía de autenticación. Si bien gran parte de la base de datos almacenaba datos genéricos o públicos, una colección en particular destacaba: contenía las respuestas a una encuesta detallada enviada a Canva Creators, un grupo global de colaboradores de contenido de la plataforma de diseño.
Los datos de la encuesta incluyeron 571 direcciones de correo electrónico únicas y respuestas detalladas a 51 preguntas sobre temas como regalías, experiencia de usuario y adopción de IA. Algunas direcciones de correo electrónico aparecieron varias veces, lo que indica que los usuarios habían completado la encuesta más de una vez.
Según el informe de UpGuard compartido con Hackread.com antes de su publicación el lunes, este incidente es la primera filtración conocida que involucra una base de datos de Chroma, una tecnología utilizada para ayudar a los chatbots a hacer referencia a documentos específicos al responder consultas.
La base de datos, alojada en una dirección IP de Estonia, parecía estar controlada por My Jedai, una pequeña empresa rusa que ofrece servicios de chatbots con inteligencia artificial. Los usuarios de la plataforma pueden subir documentos de cualquier tipo para alimentar sus chatbots, a menudo sin mucha supervisión técnica.
La presencia de datos de Canva en este contexto planteó interrogantes sobre cómo la información confidencial llega a los sistemas de entrenamiento de IA o a los backends de los chatbots. Si bien Chroma no es intrínsecamente inseguro, requiere una configuración adecuada para evitar su exposición pública. En este caso, la base de datos quedó completamente expuesta a internet.
Canva respondió a los hallazgos con una declaración a Hackread:
Recientemente nos dimos cuenta de que un archivo con direcciones de correo electrónico y respuestas a encuestas de un pequeño grupo de creadores de Canva se subió a un sitio web externo. La información no estaba vinculada de ninguna manera a las cuentas de Canva ni a los datos de la plataforma. La base de datos del sitio externo no estaba protegida adecuadamente, lo que provocó que la información fuera accesible.
Un investigador de seguridad nos informó del problema y descubrió la información expuesta mediante herramientas especializadas. Sin embargo, no es de fácil acceso para los usuarios habituales de internet ni está indexada por los buscadores más populares. Confirmamos que el contenido del archivo se ha eliminado y los registros del sitio muestran que nadie más accedió a él.
Ya nos hemos puesto en contacto con los creadores afectados y estamos cumpliendo con todas nuestras obligaciones legales, incluyendo la notificación a los organismos reguladores cuando sea necesario. Nos esforzamos al máximo para mantener la seguridad de los datos de nuestra comunidad y estamos revisando nuestros procesos para evitar que esto vuelva a ocurrir.
-Portavoz de Canva
Si bien no hay indicios de que los datos hayan sido mal utilizados, los expertos señalan que incluso la información personal limitada, combinada con el contenido de la encuesta, puede ser útil para intentos de phishing dirigidos. Los encuestados compartieron detalles sobre sus roles profesionales, hábitos creativos y satisfacción con la plataforma Canva, información que podría ser explotada si cae en manos indebidas.
My Jedai, la empresa cuya base de datos fue expuesta, es una microempresa fundada en Rusia. Permite a los usuarios crear chatbots basados en sus propios documentos. La empresa actuó con rapidez tras la notificación y aseguró la base de datos expuesta un día después de la intervención de UpGuard.
La filtración muestra cómo las tecnologías de IA están creando nuevos canales impredecibles para la exposición de datos. A medida que más empresas adoptan herramientas como Chroma para impulsar bots de atención al cliente o asistentes internos, la presión para introducir datos en estos sistemas puede generar atajos y errores.
Este caso también pone de relieve la amplitud del uso de las herramientas de IA en todo el mundo, a menudo de formas inesperadas. Los datos recopilados en encuestas realizadas por un gigante tecnológico australiano acabaron en una base de datos no segura gestionada por una pequeña empresa rusa, alojada en servidores en Estonia. Con el creciente uso de LLM y herramientas de chatbots de terceros, los límites tradicionales de la custodia de datos son cada vez más difíciles de rastrear.
UpGuard señaló que muchos de los documentos en la base de datos eran inofensivos o incluso absurdos, incluidas “doctrinas místicas” y consejos románticos extraídos de sitios web públicos como Marie Claire y WikiHow.
Sin embargo, la presencia de datos corporativos del mundo real, incluidas transcripciones de chats internos y enlaces a plataformas restringidas de intercambio de archivos, muestra lo fácil que es que contenido más sensible se filtre en los sistemas de IA sin la protección adecuada.
HackRead