TL;DR
O GitHub começará a usar seus dados de interação do Copilot para treinamento de modelos de IA em 24 de abril de 2026. Seus trechos de código, conversas de chat e decisões de aceitação se tornarão dados de treinamento, a menos que você desative manualmente. Altere suas configurações em github.com/settings/copilot antes do prazo final para manter seu código privado.
Introdução
Seu fluxo de trabalho de desenvolvimento está prestes a se tornar dados de treinamento de outra pessoa.
Em 24 de abril de 2026, a política atualizada do Copilot do GitHub entrará em vigor. A mudança permite que a Microsoft e o GitHub usem tudo o que você digita no Copilot: trechos de código, perguntas de depuração, solicitações de refatoração, como material de treinamento para seus modelos de IA de próxima geração. Isso inclui código proprietário de repositórios privados de sua empresa.
A maioria dos desenvolvedores não receberá uma notificação direta. Eles continuarão trabalhando, sem saber que sua propriedade intelectual se torna parte do corpus de treinamento do GitHub a cada interação com o Copilot.
Se você gerencia uma equipe de desenvolvimento ou trabalha com bases de código sensíveis, salve esta página e compartilhe-a com seu líder de engenharia. A janela para desativar está se encerrando em breve.
O Que Mudou na Política do Copilot do GitHub
O anúncio do GitHub enquadra a atualização da política como uma melhoria para "personalizar e aprimorar" as experiências do Copilot. O uso de dados se estende muito além da personalização.
A Linha do Tempo da Política
24 de abril de 2026 marca a data de aplicação. Após esta data, o GitHub assume consentimento implícito, a menos que você tenha desativado manualmente através das configurações da sua conta.
O anúncio original afirma que o GitHub usará "dados de interação" para treinar futuros modelos de IA. Essa linguagem soa benigna até você examinar o que "dados de interação" inclui.
O Que o GitHub Coleta
Os dados de interação do Copilot do GitHub abrangem:
Tipo de Dado | O Que Inclui | Risco de Privacidade |
|---|---|---|
Trechos de código | Qualquer código que você escreve ou modifica com a assistência do Copilot | Algoritmos proprietários, lógica de negócios, integrações de API |
Conversas de chat | Contexto completo das sessões de Copilot Chat | Decisões de arquitetura, fluxos de trabalho de depuração, design de sistema |
Decisões de aceitação | Quais sugestões você aceita ou rejeita | Sinal de treinamento para o que constitui um código "bom" |
Contexto do arquivo | Código circundante quando o Copilot gera sugestões | Esquemas de banco de dados, fluxos de autenticação, APIs internas |
Padrões de correção | Como você modifica a saída do Copilot | Padrões de codificação e práticas de segurança da sua equipe |
Esses dados treinam os modelos de próxima geração do GitHub. Uma vez incorporados, seus padrões de código se tornam parte dos pesos do modelo e podem aparecer em sugestões para outros usuários, incluindo concorrentes.
Por Que o Padrão Importa
O anúncio do GitHub usa uma linguagem como "revise esta atualização e gerencie suas preferências". Essa abordagem coloca o ônus sobre os usuários para descobrir e ativar as proteções de privacidade.
A configuração padrão após 24 de abril: ativada.
Essa estrutura cria o que pesquisadores de privacidade chamam de "padrões obscuros": escolhas de design que tornam o comportamento protetor da privacidade difícil, enquanto tornam o compartilhamento de dados sem esforço. A maioria dos usuários nunca altera as configurações padrão, especialmente para ferramentas que usam diariamente.
Para contextualizar, aproximadamente 15-20% dos usuários normalmente desativam a coleta de dados quando apresentados com escolhas claras. A abordagem do GitHub assume o inverso: mais de 80% permanecerão ativados por padrão.
Passo a Passo: Como Desativar a Coleta de Dados do GitHub Copilot
Desativar leva menos de dois minutos. Siga estas etapas antes de 24 de abril.
Método 1: Configurações de Conta Individual
Navegar para as Configurações do Copilot
- Vá para github.com
- Clique no ícone do seu perfil (canto superior direito)
- Selecione "Settings" (Configurações) no menu suspenso
- Clique em "Copilot" na barra lateral esquerda

Encontre a Seção de Uso de Dados
- Role até "Privacy" (Privacidade)
- Procure a opção rotulada "Allow GitHub to use my data for AI model training" (Permitir que o GitHub use meus dados para treinamento de modelo de IA)

- Desative a opção
- Verifique se a configuração aparece como desativada
Confirme a Mudança
- Pode levar até 30 minutos para que as alterações entrem em vigor.
- Reinicie seu editor de código para que as alterações entrem em vigor imediatamente.
Método 2: Configurações para Toda a Organização (Para Administradores)
Se você gerencia uma Organização GitHub, pode aplicar configurações de desativação a todos os membros:
Acessar Configurações da Organização
- Vá para a página principal da sua organização
- Clique em "Settings" (Configurações) na navegação da organização
- Selecione "Copilot" no menu esquerdo
Configurar Políticas de Dados
- Encontre "Copilot data usage policies" (Políticas de uso de dados do Copilot)
- Selecione "Disable interaction data collection for all members" (Desativar a coleta de dados de interação para todos os membros)
- Salve as alterações
Comunique à Sua Equipe
- Documente a mudança de política em sua wiki interna
- Notifique os desenvolvedores via Slack ou e-mail
- Adicione às listas de verificação de integração para novos contratados
Etapas de Verificação
Após desativar, verifique se suas configurações entraram em vigor:
# Não existe verificação via CLI, mas você pode:
# 1. Verificar se a página de configurações mostra a opção desmarcada
# 2. Revisar o download de dados do GitHub (Configurações > Privacidade > Baixar seus dados)
# 3. Monitorar o comportamento do Copilot para quaisquer alteraçõesImportante: Desativar não exclui os dados já coletados. Apenas impede a coleta futura a partir do momento em que você altera a configuração.
Considerações de Conformidade e Corporativas
Se você trabalha em um setor regulamentado ou lida com dados sensíveis de clientes, a mudança na política do GitHub introduz vetores de risco adicionais.
Setores Que Exigem Escrutínio Extra
Setor | Regulamentação | Preocupação |
|---|---|---|
Saúde | HIPAA | Exposição de PHI através de comentários de código ou nomes de variáveis |
Finanças | SOC 2, GDPR | Lógica de transações de clientes, padrões de tratamento de PII |
Governo | FedRAMP, ITAR | Arquiteturas de sistemas classificados, protocolos de segurança |
SaaS Corporativo | Contratos de clientes | Algoritmos proprietários, vantagens competitivas |
Perguntas a Fazer à Sua Equipe Jurídica
Antes de 24 de abril, agende uma revisão com seu consultor jurídico ou de conformidade:
- Nosso MSA atual com o GitHub aborda o uso de dados para treinamento de IA?
- Os contratos de clientes proíbem o compartilhamento de código com serviços de IA de terceiros?
- Que responsabilidade existe se um código proprietário aparecer em sugestões de concorrentes?
- Devemos buscar um acordo corporativo com restrições explícitas de dados?
Opções do GitHub Enterprise
Clientes do GitHub Enterprise podem ter poder de negociação adicional. Entre em contato com seu representante de conta do GitHub para discutir:
- Garantias contratuais contra o uso de dados de treinamento
- Instâncias de modelo privado para cargas de trabalho regulamentadas
- Registro de auditoria aprimorado para relatórios de conformidade
- Políticas de retenção de dados personalizadas
Apidog para Privacidade no Desenvolvimento de APIs
Para equipes que constroem e testam APIs, a privacidade se estende além do preenchimento de código. O Apidog oferece uma alternativa que prioriza a privacidade em relação às ferramentas de desenvolvimento de API baseadas em nuvem:
- Arquitetura local-first: Suas especificações de API permanecem em sua máquina
- Sem treinamento em dados de clientes: O Apidog não usa suas definições de API para treinar modelos
- Opções de auto-hospedagem: Soberania completa de dados para ambientes regulamentados
- Colaboração em equipe sem exposição: Compartilhe especificações internamente sem acesso de terceiros

Ao avaliar ferramentas de desenvolvimento com tecnologia de IA, pergunte: "Para onde vão meus dados e como eles são usados?" A resposta deve ser clara, documentada e contratualmente vinculativa.
O Que Acontece Se Você Não Desativar
Após 24 de abril, se você permanecer ativado:
Seu código entra no pipeline de treinamento
- Dados de interação são processados continuamente
- Nenhuma notificação quando seus dados são usados
- Nenhum mecanismo para solicitar exclusão posteriormente
Cenários de exposição potenciais
- Um concorrente solicita ao Copilot com contexto semelhante
- O modelo do GitHub gera sugestões que se assemelham ao seu código
- Nenhuma trilha de auditoria mostra quais dados de treinamento influenciaram as saídas
Complicações de conformidade
- Auditorias de clientes podem sinalizar o uso de dados de treinamento de IA
- Consultas regulatórias exigem mapeamento de dados que você não pode fornecer
- Violações contratuais podem acionar notificações de violação
Você Pode Desativar Mais Tarde?
Sim, mas com limitações:
- Dados futuros: Interrompe a coleta a partir de agora
- Dados históricos: Já incorporados aos modelos; a exclusão não é garantida
- Retreinamento do modelo: Mesmo que excluídos dos conjuntos de dados, os pesos do modelo retêm padrões aprendidos
A abordagem mais limpa: desative antes de 24 de abril.
Conclusão
A mudança na política do Copilot do GitHub entra em vigor em 24 de abril. Seus dados de interação: trechos de código, conversas de chat, padrões de aceitação, tornam-se material de treinamento para os modelos de IA do GitHub, a menos que você desative manualmente.
Os dois minutos necessários para desativar protegem sua propriedade intelectual, o código proprietário de sua equipe e a postura de conformidade de sua organização. Não espere até 25 de abril para descobrir que seu código treinou o assistente de IA do seu concorrente.
Para equipes que constroem APIs e desejam ferramentas poderosas sem comprometer a privacidade, explore o Apidog: a plataforma completa de desenvolvimento de API que mantém suas especificações privadas por padrão.
