2025/05/23

AIを使えない人=ダメなマネージャー

目次
  1. AIは使えないという人たち
  2. 「使えない」の正体を探ってみる
  3. 問題はAIじゃなくて、使う側にある
  4. これはダメなマネージャーのパターンと全く同じ
  5. AIは史上最強の部下かもしれない

AIは使えないという人たち

「AIなんて全然使えない」

最近、こんな声をよく聞く。ChatGPTが世間を騒がせて、みんな一度は触ってみたものの、思ったような結果が出ずに「やっぱりダメだ」と諦めている人が想像以上に多い。

「使えない」の正体を探ってみる

実際に「AIは使えない」と言っている人たちに、どんな使い方をしたのか聞いてみると、なかなか興味深い話が出てくる。

ケース1:企画書作成

「ChatGPTに『新商品の企画書を作って』って言ったら、どこにでもありそうな薄っぺらい内容しか出てこなかった」

ケース2:プログラミング

「コードを書いてもらったけど、エラーばっかりで全然動かない。結局自分で最初から書き直した」

ケース3:文章作成

「メール文面を考えてもらったら、硬すぎて使い物にならなかった」

確かに、これでは「使えない」と感じるのも無理はない。問題はどこにあるのか?

問題はAIじゃなくて、使う側にある

「使えない」と言っている人たちには、共通した特徴がある。

各AIの得意・不得意を知らない

まず、AIツールそれぞれの特性を理解していない。ChatGPTは創作や対話が得意だが数値計算は苦手。Claudeは長文の分析や論理的思考に長けている。Geminiは画像解析やGoogleサービスとの連携が強い。

こういった基本的な特徴を知らずに、すべてのAIに同じことを求めている。これって、野球選手にサッカーをやらせて「使えない」と言っているようなものである。

指示が圧倒的に足りない

そして最も大きな問題が、指示の出し方だ。

情報が全然足りない

「新商品の企画書を作って」と言うだけで、どんな商品なのか、ターゲットは誰なのか、予算はいくらなのか、競合はどこなのか、一切教えていない。

これって、部下に「何か良い企画を考えといて」と丸投げするのと同じである。そんなことをしたら、どんなに優秀な部下でも困ってしまうだろう。

求める成果物が曖昧

「良い感じの資料を」「使える企画書を」といった、何を求めているのかよくわからない指示。いつまでに、どんな形式で、誰に向けて、何ページぐらいで、どのレベルの詳しさで、といった具体的な要求が一切ない。

一発で完璧を求めすぎる

そして、一回やってみてうまくいかないと、すぐに「やっぱりダメだ」と結論づけてしまう。でも、新入社員だって最初からいきなり完璧な仕事はできないだろう。何回かやり取りして、だんだん求めているものに近づけていくのが普通である。

これはダメなマネージャーのパターンと全く同じ

これは「部下が使えない」と愚痴っているダメなマネージャーと全く同じパターンだ。

優秀なマネージャーは必ずこれをやっている:

各人の特徴を把握して適材適所で使う
Aさんはデータ分析が得意、Bさんは顧客対応が上手、Cさんは細かい作業に集中できる。それぞれの強みを活かせる仕事を振る。

必要十分な情報を最初に渡す
背景、目的、制約条件、期待するクオリティ、参考資料など、仕事に必要な情報をきちんと整理して伝える。

明確で具体的な指示を出す
いつまでに、どんな形で、誰に向けて、何を達成するために、どのくらいの分量で。曖昧さを残さない。

段階的にブラッシュアップする
最初からいきなり完璧を求めず、途中でフィードバックを出しながら、だんだん理想に近づけていく。

逆に「部下が使えない」と言っているマネージャーは、部下の特性を理解せず、曖昧な指示を出して、一発で完璧を求める。

つまり、「AIが使えない」と言っている人は、活躍できないマネージャーとまったく同じことをやっているのである。

AIは史上最強の部下かもしれない

AIは理想的な部下の条件をほぼ満たしている。

24時間365日稼働可能
夜中でも週末でも稼働し、体調不良で休むこともない。

膨大な知識を持っている
世界中の書籍、論文、記事、コードを学習している。一人の人間が一生かけても得られない知識量。

複数の専門分野をカバー
医師国家試験に合格し、数学オリンピックの問題を解き、何十ヶ国語も操る。プログラミングから文章作成、データ分析まで幅広くこなす。

こんな条件の部下がいたら、普通なら「優秀すぎる」と言うだろう。なのに「使えない」と言ってしまうのは、結局のところ使う側の問題なのである。

関連記事


icon-loading
AIは作るものではなく育てるもの、生物と同じ:ChatGPTの

AIは作るものではなく育てるもの、生物と同じ:ChatGPTの”性格”が壊れた日

AIは作るものではなく育てるもの——2026年2月にOpenAIがGPT-4oを引退させた本当の理由、NatureのEmergent Misalignment論文、Karpathyが比喩を「生き物」から「幽霊」に変えた理由、仕様書型発注ではAIが育たない構造まで、AI育成論を実務視点で解説します。

icon-loading

AI同士が秘密の暗号で”性格”を受け渡す時代:Anthropicが明かした「サブリミナル学習」

Anthropicの2025年の研究で、AIが数字列だけで「フクロウ好き」という性格を別のAIに伝達した事実が判明した。人間には読めない暗号で好みや悪癖までが感染する「サブリミナル学習」の仕組みと、AI開発の前提を覆すリスク、現時点の対策を解説します。

icon-loading

ヤマハもホンダも消えた街。別世界の中国深圳

40年前の漁村が人口1,700万人の「アジアのシリコンバレー」に変貌した深圳。街を埋め尽くす電動スクーター、財布すら不要なキャッシュレス社会、そしてデータ統治という制度設計の本質。現地で目撃した中国のAI最前線のリアルをレポートします。