Urgente: Como Impedir Que o GitHub Copilot Use Seu Código para Treinamento de IA (Antes de 24 de Abril)

Ashley Innocent

Ashley Innocent

26 março 2026

Urgente: Como Impedir Que o GitHub Copilot Use Seu Código para Treinamento de IA (Antes de 24 de Abril)

TL;DR

O GitHub começará a usar seus dados de interação do Copilot para treinamento de modelos de IA em 24 de abril de 2026. Seus trechos de código, conversas de chat e decisões de aceitação se tornarão dados de treinamento, a menos que você desative manualmente. Altere suas configurações em github.com/settings/copilot antes do prazo final para manter seu código privado.

Introdução

Seu fluxo de trabalho de desenvolvimento está prestes a se tornar dados de treinamento de outra pessoa.

Em 24 de abril de 2026, a política atualizada do Copilot do GitHub entrará em vigor. A mudança permite que a Microsoft e o GitHub usem tudo o que você digita no Copilot: trechos de código, perguntas de depuração, solicitações de refatoração, como material de treinamento para seus modelos de IA de próxima geração. Isso inclui código proprietário de repositórios privados de sua empresa.

A maioria dos desenvolvedores não receberá uma notificação direta. Eles continuarão trabalhando, sem saber que sua propriedade intelectual se torna parte do corpus de treinamento do GitHub a cada interação com o Copilot.

Se você gerencia uma equipe de desenvolvimento ou trabalha com bases de código sensíveis, salve esta página e compartilhe-a com seu líder de engenharia. A janela para desativar está se encerrando em breve.

O Que Mudou na Política do Copilot do GitHub

O anúncio do GitHub enquadra a atualização da política como uma melhoria para "personalizar e aprimorar" as experiências do Copilot. O uso de dados se estende muito além da personalização.

A Linha do Tempo da Política

24 de abril de 2026 marca a data de aplicação. Após esta data, o GitHub assume consentimento implícito, a menos que você tenha desativado manualmente através das configurações da sua conta.

O anúncio original afirma que o GitHub usará "dados de interação" para treinar futuros modelos de IA. Essa linguagem soa benigna até você examinar o que "dados de interação" inclui.

O Que o GitHub Coleta

Os dados de interação do Copilot do GitHub abrangem:

Tipo de Dado

O Que Inclui

Risco de Privacidade

Trechos de código

Qualquer código que você escreve ou modifica com a assistência do Copilot

Algoritmos proprietários, lógica de negócios, integrações de API

Conversas de chat

Contexto completo das sessões de Copilot Chat

Decisões de arquitetura, fluxos de trabalho de depuração, design de sistema

Decisões de aceitação

Quais sugestões você aceita ou rejeita

Sinal de treinamento para o que constitui um código "bom"

Contexto do arquivo

Código circundante quando o Copilot gera sugestões

Esquemas de banco de dados, fluxos de autenticação, APIs internas

Padrões de correção

Como você modifica a saída do Copilot

Padrões de codificação e práticas de segurança da sua equipe

Esses dados treinam os modelos de próxima geração do GitHub. Uma vez incorporados, seus padrões de código se tornam parte dos pesos do modelo e podem aparecer em sugestões para outros usuários, incluindo concorrentes.

Por Que o Padrão Importa

O anúncio do GitHub usa uma linguagem como "revise esta atualização e gerencie suas preferências". Essa abordagem coloca o ônus sobre os usuários para descobrir e ativar as proteções de privacidade.

A configuração padrão após 24 de abril: ativada.

Essa estrutura cria o que pesquisadores de privacidade chamam de "padrões obscuros": escolhas de design que tornam o comportamento protetor da privacidade difícil, enquanto tornam o compartilhamento de dados sem esforço. A maioria dos usuários nunca altera as configurações padrão, especialmente para ferramentas que usam diariamente.

Para contextualizar, aproximadamente 15-20% dos usuários normalmente desativam a coleta de dados quando apresentados com escolhas claras. A abordagem do GitHub assume o inverso: mais de 80% permanecerão ativados por padrão.

Passo a Passo: Como Desativar a Coleta de Dados do GitHub Copilot

Desativar leva menos de dois minutos. Siga estas etapas antes de 24 de abril.

Método 1: Configurações de Conta Individual

Navegar para as Configurações do Copilot

Encontre a Seção de Uso de Dados

Confirme a Mudança

Método 2: Configurações para Toda a Organização (Para Administradores)

Se você gerencia uma Organização GitHub, pode aplicar configurações de desativação a todos os membros:

Acessar Configurações da Organização

Configurar Políticas de Dados

Comunique à Sua Equipe

Etapas de Verificação

Após desativar, verifique se suas configurações entraram em vigor:

# Não existe verificação via CLI, mas você pode:
# 1. Verificar se a página de configurações mostra a opção desmarcada
# 2. Revisar o download de dados do GitHub (Configurações > Privacidade > Baixar seus dados)
# 3. Monitorar o comportamento do Copilot para quaisquer alterações

Importante: Desativar não exclui os dados já coletados. Apenas impede a coleta futura a partir do momento em que você altera a configuração.

Considerações de Conformidade e Corporativas

Se você trabalha em um setor regulamentado ou lida com dados sensíveis de clientes, a mudança na política do GitHub introduz vetores de risco adicionais.

Setores Que Exigem Escrutínio Extra

Setor

Regulamentação

Preocupação

Saúde

HIPAA

Exposição de PHI através de comentários de código ou nomes de variáveis

Finanças

SOC 2, GDPR

Lógica de transações de clientes, padrões de tratamento de PII

Governo

FedRAMP, ITAR

Arquiteturas de sistemas classificados, protocolos de segurança

SaaS Corporativo

Contratos de clientes

Algoritmos proprietários, vantagens competitivas

Perguntas a Fazer à Sua Equipe Jurídica

Antes de 24 de abril, agende uma revisão com seu consultor jurídico ou de conformidade:

  1. Nosso MSA atual com o GitHub aborda o uso de dados para treinamento de IA?
  2. Os contratos de clientes proíbem o compartilhamento de código com serviços de IA de terceiros?
  3. Que responsabilidade existe se um código proprietário aparecer em sugestões de concorrentes?
  4. Devemos buscar um acordo corporativo com restrições explícitas de dados?

Opções do GitHub Enterprise

Clientes do GitHub Enterprise podem ter poder de negociação adicional. Entre em contato com seu representante de conta do GitHub para discutir:

Apidog para Privacidade no Desenvolvimento de APIs

Para equipes que constroem e testam APIs, a privacidade se estende além do preenchimento de código. O Apidog oferece uma alternativa que prioriza a privacidade em relação às ferramentas de desenvolvimento de API baseadas em nuvem:

Ao avaliar ferramentas de desenvolvimento com tecnologia de IA, pergunte: "Para onde vão meus dados e como eles são usados?" A resposta deve ser clara, documentada e contratualmente vinculativa.

O Que Acontece Se Você Não Desativar

Após 24 de abril, se você permanecer ativado:

Seu código entra no pipeline de treinamento

Cenários de exposição potenciais

Complicações de conformidade

Você Pode Desativar Mais Tarde?

Sim, mas com limitações:

A abordagem mais limpa: desative antes de 24 de abril.

Conclusão

A mudança na política do Copilot do GitHub entra em vigor em 24 de abril. Seus dados de interação: trechos de código, conversas de chat, padrões de aceitação, tornam-se material de treinamento para os modelos de IA do GitHub, a menos que você desative manualmente.

Os dois minutos necessários para desativar protegem sua propriedade intelectual, o código proprietário de sua equipe e a postura de conformidade de sua organização. Não espere até 25 de abril para descobrir que seu código treinou o assistente de IA do seu concorrente.

Para equipes que constroem APIs e desejam ferramentas poderosas sem comprometer a privacidade, explore o Apidog: a plataforma completa de desenvolvimento de API que mantém suas especificações privadas por padrão.

button

Pratique o design de API no Apidog

Descubra uma forma mais fácil de construir e usar APIs