29 de marzo de 2026
Buenos Aires, 23 C

Cómo impedir que GitHub Copilot use tu código para entrenar IA

Desde el 24 de abril de 2026, GitHub Copilot modifica su política de privacidad: en las cuentas gratuitas, Pro y Pro+, el código y las interacciones dentro de la plataforma podrán ser usados automáticamente para entrenar modelos de inteligencia artificial, salvo que el usuario lo impida expresamente.

Este cambio afecta a desarrolladores de todo el mundo y convierte fragmentos de código, nombres de archivo y comentarios en fuentes de aprendizaje para la IA. Si prefieres proteger tu privacidad y evitar que tus datos sirvan para entrenar Copilot, puedes desactivar esa opción en unos minutos.

Cómo evitar que GitHub Copilot use tu código para entrenar IA

GitHub ha activado por defecto el uso de datos para entrenamiento en Copilot para la mayoría de usuarios individuales, tanto en la versión gratuita como en las de pago personal.

Eso significa que la actividad generada por tu uso —incluidos los prompts, las sugerencias que aceptas, la estructura de carpetas y el contexto alrededor del cursor— puede ser recopilada y utilizada para mejorar los modelos de IA, salvo que opts por no permitirlo.

Para desactivar el uso de tus datos, sigue estos pasos desde la configuración de Copilot:

Ingresa a GitHub.com e inicia sesión con tu cuenta.Accede a Configuración (“Settings”) haciendo clic en tu foto de perfil, en la esquina superior derecha.En el menú lateral, ve a “Code, planning, and automation” y selecciona “Copilot”.Baja hasta el apartado “Privacy” (Privacidad).Localiza la opción “Allow GitHub to use my data for AI model training” (Permitir que GitHub use mis datos para el entrenamiento de modelos de IA).Cambia el estado a “Disabled” (Desactivado).

Si ya habías rechazado la recolección de datos antes, GitHub mantendrá esa preferencia y no empleará tus aportes para entrenamiento.

Qué datos utiliza GitHub Copilot y quiénes están excluidos

La nueva política no solo considera el código final que aceptas: también recoge el contexto en el que trabajas, como nombres de archivo, patrones de navegación y comentarios. Todos esos elementos se combinan para alimentar el aprendizaje automático y, según GitHub, mejorar la precisión y utilidad de Copilot.

Hay una excepción relevante: las ediciones Copilot Business y Enterprise no están sujetas a este uso de datos. GitHub mantiene la privacidad de la información empresarial y no la utiliza para entrenar modelos globales.

Esto es especialmente importante para organizaciones que manejan algoritmos propietarios, lógica de negocio sensible o que requieren mayores garantías de seguridad para su código.

Por qué GitHub recopila tus datos y cómo impacta en la comunidad

GitHub explica que la intención de recopilar datos es mejorar la calidad y el alcance de Copilot. La empresa busca ampliar el conjunto de entrenamiento que antes se basaba en datos internos de Microsoft, incorporando ejemplos reales de usuarios para que la IA aprenda patrones prácticos.

Con datos del mundo real, la IA puede ayudar a identificar errores antes de que el código llegue a producción y a entender flujos de trabajo complejos que no aparecen en ejemplos teóricos.

GitHub ha comunicado este cambio por correo electrónico y con avisos visibles en la plataforma para informar a los usuarios.

La decisión de permitir o no el uso de tus datos depende del usuario, pero la configuración por defecto es la recolección activa, lo que implica que muchos desarrolladores podrían contribuir sin darse cuenta al entrenamiento de la IA.

Diferencias entre Copilot personal y empresarial en la nueva política de datos

La actualización establece una distinción clara entre las versiones personales y las empresariales de Copilot. Las ediciones Business y Enterprise, que tienen un coste mayor, garantizan la privacidad de los datos y no permiten su uso para entrenar modelos globales; en cambio, las versiones personales y gratuitas permiten la recopilación de material para los algoritmos, salvo que el usuario la desactive manualmente.

Esta separación responde a la sensibilidad de la información en entornos corporativos y a la necesidad de proteger la propiedad intelectual. Para desarrolladores que trabajan en proyectos personales, la exposición puede ser menos crítica, pero la elección final corresponde siempre al usuario.

En la práctica, este cambio obliga a revisar las opciones de privacidad en Copilot y tomar una decisión consciente sobre el uso que GitHub puede hacer de los aportes realizados en la plataforma.

Artículo anterior

Netanyahu autoriza acceso del patriarca Pizzaballa al Santo Sepulcro

Artículo siguiente

Israel intercepta dos drones lanzados por hutíes desde Yemen

Continuar leyendo

Últimas noticias