緊急: GitHub Copilot があなたのコードをAI学習に使用するのを止める方法 (4月24日までに)

Ashley Innocent

Ashley Innocent

26 3月 2026

緊急: GitHub Copilot があなたのコードをAI学習に使用するのを止める方法 (4月24日までに)

要点

GitHubは、2026年4月24日から、CopilotのインタラクションデータをAIモデルのトレーニングに利用開始します。手動でオプトアウトしない限り、コードスニペット、チャットの会話、承認の決定がトレーニングデータとなります。コードのプライバシーを保護するため、期限までにgithub.com/settings/copilotで設定を変更してください。

はじめに

あなたの開発ワークフローは、他者のトレーニングデータになろうとしています。

2026年4月24日、GitHubのCopilotポリシーの更新が施行されます。この変更により、MicrosoftとGitHubは、Copilotに入力するすべてのもの(コードスニペット、デバッグの質問、リファクタリングのリクエストなど)を、次世代AIモデルのトレーニング資料として使用できるようになります。これには、あなたの会社のプライベートリポジトリにある独自のコードも含まれます。

ほとんどの開発者は直接的な通知を受け取らないでしょう。彼らは、Copilotとの各インタラクションが、彼らの知的財産がGitHubのトレーニングコーパスの一部になることを知らずに、作業を続けることになります。

開発チームを管理している場合や、機密性の高いコードベースを扱っている場合は、このページをブックマークし、エンジニアリングリーダーと共有してください。オプトアウト期間はまもなく終了します。

GitHub Copilotポリシーの変更点

GitHubの発表は、ポリシー更新をCopilot体験を「パーソナライズし、改善する」ためのものとしていますが、データ使用はパーソナライズの範囲をはるかに超えています。

ポリシーのタイムライン

2026年4月24日が施行日です。この日以降、アカウント設定を通じて手動でオプトアウトしない限り、GitHubは暗黙の同意があったものとみなします。

元の発表では、GitHubが将来のAIモデルをトレーニングするために「インタラクションデータ」を使用すると述べています。この表現は、「インタラクションデータ」に含まれるものを調べない限り、無害に聞こえます。

GitHubが収集するもの

GitHubのCopilotインタラクションデータには以下が含まれます。

データタイプ

内容

プライバシーリスク

コードスニペット

Copilotの支援を受けて記述または変更したすべてのコード

独自のアルゴリズム、ビジネスロジック、API統合

チャットの会話

Copilotチャットセッションの完全なコンテキスト

アーキテクチャの決定、デバッグワークフロー、システム設計

承認の決定

承認または拒否した提案

「良い」コードを構成するもののトレーニングシグナル

ファイルコンテキスト

Copilotが提案を生成する際の周辺コード

データベーススキーマ、認証フロー、内部API

修正パターン

Copilotの出力をどのように修正するか

チームのコーディング標準とセキュリティプラクティス

このデータはGitHubの次世代モデルをトレーニングします。一度組み込まれると、あなたのコードパターンはモデルの重みの一部となり、競合他社を含む他のユーザーへの提案として現れる可能性があります。

デフォルト設定が重要な理由

GitHubの発表では、「この更新を確認し、設定を管理してください」といった表現が使われています。この表現は、プライバシー保護をユーザー自身が発見し、有効にするという負担をユーザーに課しています。

4月24日以降のデフォルト設定は、オプトインです。

この構造は、プライバシー研究者が「ダークパターン」と呼ぶものを生み出しています。これは、プライバシー保護行動を困難にする一方で、データ共有を容易にするデザインの選択です。ほとんどのユーザーは、特に日常的に使用するツールについては、デフォルト設定を変更しません。

参考までに、明確な選択肢が提示された場合、通常、約15〜20%のユーザーがデータ収集をオプトアウトします。GitHubのアプローチはその逆を想定しており、80%以上のユーザーがデフォルトでオプトイン状態を維持することになります。

ステップバイステップ:GitHub Copilotのデータ収集をオプトアウトする方法

オプトアウトには2分もかかりません。4月24日までに以下の手順に従ってください。

方法1:個人アカウント設定

Copilot設定への移動

データ使用セクションを見つける

変更の確認

方法2:組織全体の設定(管理者向け)

GitHub組織を管理している場合、すべてのメンバーにオプトアウト設定を強制できます。

組織設定へのアクセス

データポリシーの構成

チームへの周知

確認手順

オプトアウト後、設定が有効になったことを確認してください。

# CLIでの確認方法はありませんが、以下で確認できます:
# 1. 設定ページでチェックが外れていることを確認する
# 2. GitHubのデータダウンロードを確認する (Settings > Privacy > Download your data)
# 3. Copilotの動作に変更がないか監視する

重要: オプトアウトしても、既に収集されたデータは削除されません。設定を変更した時点から、今後のデータ収集のみが停止されます。

企業およびコンプライアンスに関する考慮事項

規制された業界で働いている場合や、機密性の高い顧客データを扱っている場合、GitHubのポリシー変更は追加のリスク要因をもたらします。

特に注意が必要な業界

業界

規制

懸念事項

ヘルスケア

HIPAA

コードコメントや変数名を介したPHI(保護対象保健情報)の漏洩

金融

SOC 2, GDPR

顧客取引ロジック、PII(個人を特定できる情報)処理パターン

政府

FedRAMP, ITAR

機密システムアーキテクチャ、セキュリティプロトコル

エンタープライズSaaS

顧客契約

独自のアルゴリズム、競争優位性

法務チームに尋ねるべき質問

4月24日までに、コンプライアンスまたは法務顧問とのレビューをスケジュールしてください。

  1. GitHubとの現在のMSA(マスターサービス契約)はAIトレーニングデータの使用について言及していますか?
  2. 顧客契約は、サードパーティのAIサービスとのコード共有を禁止していますか?
  3. 競合他社の提案に独自のコードが表面化した場合、どのような法的責任が生じますか?
  4. 明示的なデータ制限を含むエンタープライズ契約を追求すべきですか?

GitHub Enterpriseのオプション

GitHub Enterpriseのお客様は、追加の交渉力を持っている可能性があります。GitHubのアカウント担当者に相談して、以下について話し合ってください。

API開発におけるプライバシーのためのApidog

APIを構築・テストするチームにとって、プライバシーはコード補完を超えた範囲に及びます。Apidogは、クラウドベースのAPI開発ツールに対するプライバシー優先の代替手段を提供します。

AIを活用した開発ツールを評価する際には、「私のデータはどこに行き、どのように使われるのか?」と問いかけてください。その答えは明確で、文書化され、契約によって拘束されるべきです。

オプトアウトしないとどうなるか

4月24日以降、オプトインしたままの場合:

あなたのコードはトレーニングパイプラインに入る

潜在的な露出シナリオ

コンプライアンス上の問題

後からオプトアウトできますか?

はい、できますが、いくつかの制限があります。

最もクリーンなアプローチは、4月24日までにオプトアウトすることです。

結論

GitHubのCopilotポリシー変更は4月24日に施行されます。手動でオプトアウトしない限り、あなたのインタラクションデータ(コードスニペット、チャットの会話、承認パターンなど)は、GitHubのAIモデルのトレーニング資料となります。

オプトアウトにかかる2分間は、あなたの知的財産、チームの独自のコード、そして組織のコンプライアンス体制を保護します。あなたのコードが競合他社のAIアシスタントをトレーニングしていたと4月25日に気づくことのないようにしてください。

プライバシーとのトレードオフなしに強力なツールを求めるAPI開発チームのために、Apidogを検討してください。Apidogは、仕様をデフォルトでプライベートに保つオールインワンのAPI開発プラットフォームです。

button

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる