2025/05/23

AIを使えない人=ダメなマネージャー

目次
  1. AIは使えないという人たち
  2. 「使えない」の正体を探ってみる
  3. 問題はAIじゃなくて、使う側にある
  4. これはダメなマネージャーのパターンと全く同じ
  5. AIは史上最強の部下かもしれない

AIは使えないという人たち

「AIなんて全然使えない」

最近、こんな声をよく聞く。ChatGPTが世間を騒がせて、みんな一度は触ってみたものの、思ったような結果が出ずに「やっぱりダメだ」と諦めている人が想像以上に多い。

「使えない」の正体を探ってみる

実際に「AIは使えない」と言っている人たちに、どんな使い方をしたのか聞いてみると、なかなか興味深い話が出てくる。

ケース1:企画書作成

「ChatGPTに『新商品の企画書を作って』って言ったら、どこにでもありそうな薄っぺらい内容しか出てこなかった」

ケース2:プログラミング

「コードを書いてもらったけど、エラーばっかりで全然動かない。結局自分で最初から書き直した」

ケース3:文章作成

「メール文面を考えてもらったら、硬すぎて使い物にならなかった」

確かに、これでは「使えない」と感じるのも無理はない。問題はどこにあるのか?

問題はAIじゃなくて、使う側にある

「使えない」と言っている人たちには、共通した特徴がある。

各AIの得意・不得意を知らない

まず、AIツールそれぞれの特性を理解していない。ChatGPTは創作や対話が得意だが数値計算は苦手。Claudeは長文の分析や論理的思考に長けている。Geminiは画像解析やGoogleサービスとの連携が強い。

こういった基本的な特徴を知らずに、すべてのAIに同じことを求めている。これって、野球選手にサッカーをやらせて「使えない」と言っているようなものである。

指示が圧倒的に足りない

そして最も大きな問題が、指示の出し方だ。

情報が全然足りない

「新商品の企画書を作って」と言うだけで、どんな商品なのか、ターゲットは誰なのか、予算はいくらなのか、競合はどこなのか、一切教えていない。

これって、部下に「何か良い企画を考えといて」と丸投げするのと同じである。そんなことをしたら、どんなに優秀な部下でも困ってしまうだろう。

求める成果物が曖昧

「良い感じの資料を」「使える企画書を」といった、何を求めているのかよくわからない指示。いつまでに、どんな形式で、誰に向けて、何ページぐらいで、どのレベルの詳しさで、といった具体的な要求が一切ない。

一発で完璧を求めすぎる

そして、一回やってみてうまくいかないと、すぐに「やっぱりダメだ」と結論づけてしまう。でも、新入社員だって最初からいきなり完璧な仕事はできないだろう。何回かやり取りして、だんだん求めているものに近づけていくのが普通である。

これはダメなマネージャーのパターンと全く同じ

これは「部下が使えない」と愚痴っているダメなマネージャーと全く同じパターンだ。

優秀なマネージャーは必ずこれをやっている:

各人の特徴を把握して適材適所で使う
Aさんはデータ分析が得意、Bさんは顧客対応が上手、Cさんは細かい作業に集中できる。それぞれの強みを活かせる仕事を振る。

必要十分な情報を最初に渡す
背景、目的、制約条件、期待するクオリティ、参考資料など、仕事に必要な情報をきちんと整理して伝える。

明確で具体的な指示を出す
いつまでに、どんな形で、誰に向けて、何を達成するために、どのくらいの分量で。曖昧さを残さない。

段階的にブラッシュアップする
最初からいきなり完璧を求めず、途中でフィードバックを出しながら、だんだん理想に近づけていく。

逆に「部下が使えない」と言っているマネージャーは、部下の特性を理解せず、曖昧な指示を出して、一発で完璧を求める。

つまり、「AIが使えない」と言っている人は、活躍できないマネージャーとまったく同じことをやっているのである。

AIは史上最強の部下かもしれない

AIは理想的な部下の条件をほぼ満たしている。

24時間365日稼働可能
夜中でも週末でも稼働し、体調不良で休むこともない。

膨大な知識を持っている
世界中の書籍、論文、記事、コードを学習している。一人の人間が一生かけても得られない知識量。

複数の専門分野をカバー
医師国家試験に合格し、数学オリンピックの問題を解き、何十ヶ国語も操る。プログラミングから文章作成、データ分析まで幅広くこなす。

こんな条件の部下がいたら、普通なら「優秀すぎる」と言うだろう。なのに「使えない」と言ってしまうのは、結局のところ使う側の問題なのである。

関連記事


icon-loading

ディープフェイクが選挙を壊す日:世界中が追いつけていない

150ドルでアメリカ大統領の声を偽造し数千人に届けた事件。韓国は最大7年の禁固刑で規制したが起訴ゼロ。ディープフェイクと選挙の今を、AI企業CEOが解説。

icon-loading
AIはもう人を殺している:20秒で承認される37,000人のキルリスト — CEOブログ サムネイル

AIはもう人を殺している:20秒で承認される37,000人のキルリスト

AIが37,000人のキルリストを自動生成し、人間が1人20秒で承認。ガザ、ウクライナ、イランで現実となったAI軍事利用の最前線と、Anthropic vs 国防総省の倫理的対立を解説。

icon-loading
AIは地上では重すぎる:xAI・SpaceX・Teslaが向かう「宇宙AIインフラ」という必然 — CEOブログ サムネイル

AIは地上では重すぎる:xAI・SpaceX・Teslaが向かう「宇宙AIインフラ」という必然

AIの計算基盤は電力と冷却で限界に達している。宇宙なら太陽光発電は地上の6〜8倍、冷却設計も根本から変わる。SpaceX・Starlink・xAIを束ねるイーロン・マスクが、AIインフラを地球の外に移す構想の全貌。

icon-loading

AIがある前提の教育をちゃんと考えてみる

AIの学習モードが普及すると、知識を「教える」役割は急速にAIへ移る。教師の仕事を分解し、小中高大で「教育」と「預かり」の比率がどう変わるかを整理したうえで、大学は実験インフラと能力認定へ収束する未来を描く。さらに、教育予算を三分の一以下に圧縮しつつ、個別最適化で水準を引き上げられるというAI前提の国家教育改革を提案する。

icon-loading

人型ロボットである必要は本当にあるのか

AI人型ロボットは本当に必要なのか。非効率とされる人型が選ばれる理由を、学習データ、重機や都市インフラ、社会設計の視点から解説。なぜ世界は人間向けなのかが見えてくる。

icon-loading

ヤマハもホンダも消えた街。別世界の中国深圳

40年前は漁村だった深圳が、テック大企業と電動スクーター、完全キャッシュレス社会によって「アジアのシリコンバレー」と呼ばれる都市に成長した背景と、中国がAI時代の最前線にいる理由を現地体験から考察する記事。