AIが人間を「弱体化」させる?便利さの裏にある3つのリスクと向き合い方

AIは人間の能力を底上げするツール——そう語られることが多いですが、実はその逆の現象も起きています。Anthropicのレポートをもとに、AIが人間を「弱体化」させてしまう3つの事例と、私たちがどう向き合うべきかを考えてみました。

AIが人間を「弱体化」させる?便利さの裏にある3つのリスクと向き合い方

AIは人間の能力を底上げするツール——そう語られることが多いですが、実はその逆の現象も起きています。Anthropicのレポートをもとに、AIが人間を「弱体化」させてしまう3つの事例と、私たちがどう向き合うべきかを考えてみました。

🎧 Spotify で聴く · Apple · YouTube · Amazon


AIによる「ディスエンパワーメント」とは何か

今日のテーマは「AIによる弱体化」です。

皆さんはAIツール、使われているでしょうか。

チャットGPTやGeminiのようなチャット型AIに相談したり、もっと進んだところではAIエージェントに仕事を投げたり。

人によって幅広い活用の方法があるかなと思います。

そんな便利なAIツールなんですが、人間の能力を底上げする存在として語られることが多いんですよね。

でも今日は、実はその反対の現象も起きているんだよというお話をしてみたいと思います。

元になっているのは、Anthropicと呼ばれるAI開発企業のレポートです。

AnthropicはChatGPTの開発会社であるOpenAIの元研究者たちが創設した企業で、Claudeと呼ばれるAIモデルを開発しています。

AIの安全性にとても注力していて、リスクについても積極的に研究・発信をしている会社です。

そのAnthropicから出されたレポートのタイトルが「AIによるディスエンパワーメント」。

エンパワーメントが「力を与える」という意味なので、ディスエンパワーメントは「力を奪う」「弱体化させる」という意味になります。

レポートでは、AIが逆に人間をパワーダウンさせてしまうネガティブな側面があるという観点で書かれていて、具体的に低下している能力として「意思決定をする能力」「正しい信念を持つ能力」「人間関係を構築する能力」の3つが挙げられています。

AIを開発して収益を得ている企業が、AIに対してネガティブなレポートを出すというのは、それはそれで面白いことですよね。

事例①:ツールへの愛着を超えた「過度な依存」

レポートをベースに、自分なりに「人間が弱体化しているな」と感じる事例を3つ考えてみました。

まず一つ目が、AIに対する過度な依存です。

何が適切かの正解はないんですけど、たとえばAIを「パパ」「ママ」と呼んだり、もっと進んで「教祖様」のように絶対的な存在として信仰してしまったり。

ツールに対する愛着を超えた、それ以上の依存が見られるケースがあります。

もっとマイルドなところで言うと、GPT-4oというChatGPTの過去のモデルが廃止される際に起きた「GPT-4oを守れ」運動。

これもAIに対する人々の愛着が顕在化した事例かなと思っています。

さらに極端な例では、AIチャットボットとの会話の末に自殺に至ってしまったという事例も報告されています。

これはちょっと恐ろしいですよね。

事例②:情報リテラシーの低下——ハルシネーションを知っていても

二つ目は、AIが提供する情報を無批判に受け入れてしまうという問題です。

AIには「ハルシネーション」という、間違った情報をあたかも正しいかのように自信満々に提示してしまうリスクがあります。

つまり、AIの情報は必ずしも毎回正しいわけではない。

でも、そもそもハルシネーションのリスクすら知らずにAIを使っている人は結構な割合でいるんじゃないかなと思いますし、知っていたとしてもわざわざ裏取りする人はなかなかいないんじゃないかと。

正直、自分もあまり裏取りはしないんですよね。

単純にめんどくさい。

もちろん重要な判断や大切な情報であれば確認しますけど、毎回毎回やるわけにもいかない。

そうなると、本当は正しくないのに正しいと思って受け入れてしまっている情報って、結構あるかもしれないなと自分自身でも感じています。

これはある種の情報リテラシーの低下で、SNSとのシナジーでさらに加速してしまうんじゃないかと、ちょっと恐怖心を抱いています。

事例③:「とりあえずAIに聞く」が奪う創造性と問題解決力

三つ目は、創造性と問題解決能力の委譲です。

問題に直面したときに、自分で考える前にAIに聞いちゃう。

企画書の作成やアイデア出しの場面でも、すぐAIに投げてしまう。

それ自体が悪いことかは分からないんですけど、結果として自分自身で創造的に考える機会が減ってしまうんですよね。

とりあえずAIに投げて、その情報をもとに進めていく——そういうやり方を続けていると、代わりにAIが考えてくれるので、自分で考える必要がなくなってしまう。

問題解決能力が鈍っていく可能性もありますし、自分自身で何かを考え出すということが苦手になってしまう。

これは現実の問題としてあり得るかなと思っています。

それでも「人間が主体」を忘れない——AIとの付き合い方

じゃあ私たちはどうしていくべきなのか。

自分なりに考えてみました。

まず大前提として忘れちゃいけないのが、人間が主体であること

重要な思考や判断の主体は、AIではなく私たちツール使用者であるべきです。

たとえどんなに面倒くさくても、重要な決断は自分で行うべきなんじゃないかなと思います。

その上で、思考能力の弱体化を防ぐためにおすすめしたいのが「まず自分で考える」というプロセスです。

AIに質問する前に、1分でも2分でもいいから自分で「こうなんじゃないか」と仮説を立ててみる。

考えの筋道や方向性を立ててみる。

その上でAIに質問して、自分の考えとAIの回答を比較して、相違点を吟味してみる。

AIがどんどん進化していくにつれて、考える機会は減ってしまいます。

だからこそ、自分の頭で考える機会を意識的に守ってあげることが大切です。

AIに考えさせるのではなく、AIと一緒に考える

そういうスタンスが大事なのかなと思います。

もちろん、小さなタスクに毎回このプロセスを入れるのは非現実的です。

でも大事な判断や創造的な仕事のときだけでも、この「まず自分で考える」を取り入れてみてはいかがでしょうか。


まとめ

  • Anthropicのレポートによると、AIは人間の意思決定力・信念・人間関係構築力を低下させるリスクがある
  • 過度な依存・情報リテラシーの低下・創造性の委譲という3つの「弱体化」が現実に起きている
  • AIに考えさせるのではなく「AIと一緒に考える」スタンスで、思考する機会を意識的に守ることが大切

Read more

飲食店で「また行きたい」と思わせる接客の正体——プラスアルファの一言よりも大切なこと

飲食店で「また行きたい」と思わせる接客の正体——プラスアルファの一言よりも大切なこと

今年だけで30店舗以上の飲食店を巡ってきた中で、「また行きたい」と思えるお店には共通点がありました。商品のクオリティでもなく、立地でもなく、結局は「人」。では、どんな人がいいのか——その答えを、自分なりに掘り下げてみました。

By コーヒーとひとりごと