Los modelos de lenguaje grande (LLM) de aprendizaje automático se utilizan en la plataforma de comunicación profesional para ofrecer funciones como las recomendaciones de canales y emojis, como recoge en sus principio de privacidad relativos a la búsqueda, el aprendizaje y la inteligencia artificial.
Estos modelos se entrenan con datos de los usuarios, esto es, información de uso de la plataforma, pero también mensajes, contenido y archivos intercambiados en las comunicaciones. Slack matiza que los modelos «no pueden aprender, memorizar ni reproducir» estos datos, a los que la propia compañía no puede acceder.
En este documento, al que se puede acceder en la propia web de Slack, se recoge también que los LLM generativos no se desarrollan ni entrenan con datos de los usuarios.
La política de Slack en torno al entrenamiento de sus modelos de inteligencia artificial ha generado polémica en los últimos días después de que un directivo de DuckBill Group, Corey Quinn, la destacara en su perfil en la red social X.
La parte que ha compartido Quinn recoge el hecho de que el entrenamiento de los LLM de aprendizaje automático es por defecto, y que para que Slack deje de utilizar la información de los usuarios, la organización debe contactar a través de un correo electrónico con la compañía, ya que no se facilita una opción para desactivarlo en la configuración de la cuenta.
Slack, a modo de aclaración, ha confirmado sus políticas en respuesta a la crítica de Quinn. También ha señalado que en el caso de los modelos generativos, la experiencia que ofrecen se recoge en Slack AI, una función adicional y de pago que está impulsada por modelos que se alojan en la propia infraestructura de la compañía, lo que significa que «tus datos permanecen bajo tu control y exclusivamente para el uso de tu organización».
Sin comentarios
Para comentar es necesario estar registrado en Menorca - Es diari
De momento no hay comentarios.