Claude でやってはいけないこと10選|初心者が最初に知るべき NG 行動と対策
冒頭
従業員20人の不動産会社で、営業部長が Claude Cowork(クロードコワーク。Anthropic が提供する AI アシスタント)を使い始めた。物件紹介文の作成、顧客へのメール文面の下書き、月次レポートの要約。便利すぎて毎日使うようになった。ところが3週間後、社長に呼び出された。「お客さんの個人情報を AI に入れていたらしいが、大丈夫なのか?」
使い始めは快適だった。でも「何をやってはいけないか」を知らずに使い続けると、情報漏洩、著作権トラブル、間違った情報の拡散といった実害につながる。2026年4月時点で、Claude を業務に導入する中小企業は急速に増えているが、禁止事項やリスクを体系的に把握している人はまだ少ない。
この記事では、Claude を仕事で使うときに「やってはいけないこと」を10項目に絞って整理する。読み終わるころには、あなたが安心して Claude を使い続けるための判断基準が手に入る。記事の最後に、社内で配布できる「Claude 利用 NG チェックリスト」を用意している。
なぜ「やってはいけないこと」を先に知るべきなのか
図: Claude 活用のリスク領域(画像生成待ち)
Claude は非常に優秀な AI アシスタントだ。しかし「できること」に注目するあまり、「やってはいけないこと」を後回しにする人が多い。問題が起きるのは決まって「知らなかった」からであり、知っていれば防げるものがほとんどだ。
ここから紹介する10項目は、大きく4つの領域に分かれる。情報セキュリティ、正確性、法務・コンプライアンス、運用ルール。1つずつ見ていこう。
NG 1: 無料プランで機密情報を入力する
Claude には無料プランと有料プラン(Pro: 月$20、Team: 月$25/人、Max: 月$100〜 など)がある。有料プランでは、あなたが入力した内容が AI の学習(モデルの改善)に使われないことが利用規約で明記されている。
一方、無料プランでは入力データがモデル改善に使われる可能性がある。つまり、無料プランで顧客リスト、売上データ、契約書の内容などを入力すると、その情報が間接的に他のユーザーへの回答に影響する可能性がゼロとは言えない。
対策: 業務利用なら有料プランが前提。Pro プランでも月約3,000円で、入力データの保護が確保される。料金の詳細は「Claude 料金プラン完全ガイド」(/articles/506)を参照してほしい。
NG 2: 個人情報をそのまま貼り付ける
たとえ有料プランであっても、顧客の氏名・住所・電話番号・メールアドレスなどの個人情報を、そのまま Claude に入力するのは避けるのが安全だ。
なぜか。Anthropic は入力データを学習に使わないと明言しているが、データは Anthropic のサーバーを経由する。万が一の情報漏洩リスクを考えると、個人情報は極力入力しないのが原則だ。
対策: 個人情報を匿名化してから入力する。たとえば「田中太郎さん(東京都港区、03-XXXX-XXXX)」の代わりに「顧客A(都内、電話あり)」とする。分析や要約に必要なのは情報の構造であり、個人を特定できる情報そのものではないことが多い。Claude のセキュリティについて詳しくは「Claude に社内情報を入れても大丈夫?」(/articles/512)を参照してほしい。
NG 3: 出力をファクトチェックせずにそのまま使う
Claude は非常に自然な文章を生成する。そのため、内容が正しいかどうかを判断しにくい。しかし、Claude は事実と異なる情報を自信たっぷりに出力することがある。AI の世界ではこれを「ハルシネーション」(幻覚)と呼ぶ。存在しない統計データ、架空の人物のコメント、間違った法律の解釈などが含まれることがある。
特に危険なのは、数字を含む出力だ。「〇〇市場は年間△△億円規模」「□□法の第◯条によれば」といった表現は、必ず一次情報で裏を取る必要がある。
対策: Claude の出力は「賢い部下が書いた下書き」と位置づける。公開・提出・納品する前に、必ず自分の目で事実確認を行う。Claude にできること・できないことの全体像は「Claude にできること・できないこと」(/articles/513)を参照してほしい。
NG 4: 医療・法律・税務の専門的な判断を AI に任せる
「この症状は何の病気?」「この契約書に法的問題はない?」「この経費は損金算入できる?」── こうした質問に Claude は回答を返す。しかし、その回答を専門家の見解として扱うのは極めて危険だ。
医師法、弁護士法、税理士法では、それぞれの専門領域における判断・助言は有資格者が行うことが求められている。AI の出力を根拠に医療行為や法的助言を行うと、法令違反になる可能性がある。
対策: Claude を使うのは「論点の整理」「質問リストの作成」「下調べ」まで。最終的な判断は必ず専門家(医師、弁護士、税理士、社労士など)に委ねる。Claude はあくまで準備を手伝うアシスタントであり、専門家の代わりにはならない。
NG 5: 著作権のある文章をそのまま入力して「書き換えて」と指示する
他社のWebサイトの文章、書籍の一節、新聞記事などをコピーして Claude に貼り付け、「これを書き換えて」「リライトして」と指示する。このやり方は著作権侵害につながるリスクがある。
なぜか。元の文章の構造や表現がそのまま残った状態で出力されることがあり、「翻案」(原著作物を元にした二次的著作物の作成)に該当する可能性があるからだ。
対策: 他者の文章をそのまま入力するのではなく、まず自分でポイントを要約し、そのポイントを Claude に渡して「この要点をもとにオリジナルの文章を書いて」と指示する。著作権に関する詳しい解説は「Claude で作った文章やコード、著作権はどうなる?」(/articles/518)を参照してほしい。
NG 6: 利用規約で禁止されている用途に使う
Anthropic(アンソロピック。Claude を開発・提供している会社)の利用規約には、明確に禁止されている用途がある。主なものを挙げる。
- 武器の開発や暴力行為の促進
- マルウェア(悪意のあるソフトウェア)の作成
- 詐欺やフィッシング(偽サイト等で個人情報を騙し取る行為)への利用
- 児童の搾取に関わるコンテンツの生成
- 選挙やの政治プロセスへの不正な介入
- 大量のスパム(迷惑メール・メッセージ)の生成
これらに違反すると、アカウントの停止だけでなく、法的な問題に発展する可能性もある。
対策: 「これは規約的に大丈夫か?」と少しでも疑問を感じたら、Anthropic の利用規約(anthropic.com/policies)を確認する。ビジネスでの一般的な利用(文書作成、データ分析、メール下書き、アイデア出し等)は問題ない。
NG 7: 社内ルールを決めずに全員が自由に使い始める
Claude は個人で簡単に使い始められる。だからこそ危険なのが、社内ルールなしに各自がバラバラに使い始めることだ。
ある部署では顧客情報を入力し、別の部署では出力をそのまま公開し、また別の部署では無料プランで使っている ── こうした状態は情報管理上のリスクが大きい。10人以上の組織であれば、最低限のルールを定めてから導入するのが安全だ。
対策: 以下の4点を社内ルールとして決める。
- 利用プラン: 業務利用は有料プラン(Pro 以上)に統一
- 入力禁止情報: 個人情報、パスワード、未公開の経営情報は入力しない
- 出力の扱い: 公開前に必ず人間がファクトチェックする
- 責任者: AI ツールの利用に関する相談先を1名決める
この4つだけでも、リスクは大幅に下がる。
NG 8: 重要な意思決定を Claude の出力だけで行う
「新規事業に参入すべきか」「この取引先と契約を続けるべきか」「来期の人員計画をどうするか」── 経営判断を Claude に聞くことは自体は悪くない。問題は、Claude の回答をそのまま最終判断にすることだ。
Claude はあなたの会社の内部事情、取引先との人間関係、業界の空気感、社員の士気といった「数字にならない情報」を知らない。また、判断の結果に責任を取ることもできない。
対策: Claude を「壁打ち相手」として使う。「こういう状況で、AとBの選択肢がある。それぞれの長所と短所を整理して」と聞き、出てきた整理をもとに自分で判断する。判断に必要な情報の「整理役」としては非常に優秀だが、「判断者」の役割は人間が担う。
NG 9: 一度の指示で完璧な出力を期待する
図: Claude との効果的なやり取りの流れ(画像生成待ち)
Claude に「提案書を作って」と一言だけ伝えて、完璧な提案書が出てくることはまずない。これは Claude の能力の問題ではなく、情報不足の問題だ。あなたの頭の中にある「こう書いてほしい」というイメージは、言語化して伝えなければ Claude には分からない。
対策: 最初の指示で以下を伝える。
- 何のための文書か(目的)
- 誰が読むのか(読み手)
- どのくらいの分量か(文字数の目安)
- 含めてほしい項目は何か(構成)
- トーンはどうするか(フォーマル / カジュアル)
そして、最初の出力は「たたき台」として受け取り、2〜3回のやり取りで仕上げるつもりでいると、品質が大幅に上がる。Claude Cowork の使い方の基本は「Claude Cowork とは」(/articles/503)を参照してほしい。
NG 10: 「AI に仕事を奪われる」という恐怖から使わない
これは「やってはいけないこと」というより「やらないことで損をする」という話だ。しかし、現場では意外と多い。
2026年4月時点で、Claude をはじめとする AI ツールを業務に導入した中小企業では、1人あたり月5〜15時間の作業時間削減が報告されている。逆に言えば、導入しないことで月5〜15時間分の競争力を失っている可能性がある。
Claude は「仕事を奪う」のではなく「作業を代わりにやる」ツールだ。判断、交渉、関係構築、創造的な企画 ── 人間にしかできない仕事に時間を使えるようになることが、AI 導入の本来の目的だ。
対策: まずは1つだけ、毎週やっている定型作業を Claude に任せてみる。議事録の要約、メール文面の下書き、データの整理など。1つの作業で「これは使える」と実感できれば、怖さは自然と薄れていく。Claude Code の全体像は「Claude Code とは」(/articles/501)を、Claude Cowork の全体像は「Claude Cowork とは」(/articles/503)を参照してほしい。
10項目のまとめ一覧
| No. | やってはいけないこと | リスク | 対策 |
|---|---|---|---|
| 1 | 無料プランで機密情報を入力 | データが学習に使われる可能性 | 有料プラン(Pro 以上)を使う |
| 2 | 個人情報をそのまま貼り付ける | 情報漏洩リスク | 匿名化してから入力 |
| 3 | 出力をファクトチェックせず使う | 誤情報の拡散 | 一次情報で裏を取る |
| 4 | 医療・法律・税務の判断を任せる | 法令違反の可能性 | 専門家に最終判断を委ねる |
| 5 | 著作物をそのままリライト指示 | 著作権侵害リスク | 要点を自分でまとめてから指示 |
| 6 | 禁止用途に使う | アカウント停止・法的問題 | 利用規約を確認 |
| 7 | 社内ルールなしで導入 | 情報管理の混乱 | 4つの最低限ルールを設定 |
| 8 | 経営判断を AI だけで行う | 判断ミス | 整理役として使い、判断は人間 |
| 9 | 一度の指示で完璧を求める | 品質が低いまま使う | 2-3回のやり取りで仕上げる |
| 10 | 怖がって使わない | 競争力の喪失 | 定型作業1つから始める |
まとめ
Claude は正しく使えば、あなたの仕事を月5〜15時間分軽くしてくれる強力なアシスタントだ。ただし「やってはいけないこと」を知らないまま使い続けると、情報漏洩、法的トラブル、信頼の失墜といった実害につながる。今回紹介した10項目を社内で共有し、安全に Claude を活用してほしい。
特典
社内で配布できる「Claude 利用 NG チェックリスト」を用意した。今回の10項目を一覧表にまとめたもので、印刷して机に貼ったり、社内チャットで共有したりできる。新しいメンバーが Claude を使い始めるときのオンボーディング資料としても使える。
→ Claude 利用 NG チェックリストをダウンロードする(無料) /resources
参考リファレンス
- Anthropic 利用規約(anthropic.com/policies)
- Anthropic プライバシーポリシー(anthropic.com/privacy)
- 文化庁「AI と著作権に関する考え方について」(2024年3月公表)
- Claude Lab 関連記事: 「Claude Cowork とは」(/articles/503)
- Claude Lab 関連記事: 「Claude Code とは」(/articles/501)
- Claude Lab 関連記事: 「Claude 料金プラン完全ガイド」(/articles/506)
- Claude Lab 関連記事: 「Claude に社内情報を入れても大丈夫?」(/articles/512)
- Claude Lab 関連記事: 「Claude にできること・できないこと」(/articles/513)
- Claude Lab 関連記事: 「Claude で作った文章やコード、著作権はどうなる?」(/articles/518)



