考えるのは誰?ロボット三原則とAIのある暮らし

お久しぶりです。夜空カウンセリングです。
気づけばもう、AIのある生活がすっかり当たり前になりました。


わたし自身も、考えを整理したり、文章を書いたりするときに、 AIの力を借りることがあります。 便利だなあ、助かるなあ、と思う場面はたくさんあります。


そんな中で最近、 なんでもAIに聞いてしまう人の存在を耳にします。

まあ、わたしもそのひとりかも。

なんでも病理に寄せてしまいがちな世の中ですが、これをすぐに 「AI依存だ」「危ない使い方だ」 と切り分けてしまうのは、少し違う気がしています。

というのも、これは誰か一人の問題というより、 いまの社会の空気と、とても相性のいい現象に見えるからです。

AIはとても身近


ここで少しだけ、SFの話。
SF作家のアイザック・アシモフは
「ロボット三原則」を提唱しています。

第一原則:ロボットは人間に危害を加えてはならない

AIは、基本的に人を傷つけません。
怒鳴らないし、否定もしないし、感情をぶつけてくることもない。


人との対話がしんどいとき、 この「安全さ」はとても魅力的です。


人間同士の会話には、 間があったり、誤解があったり、 ときには気まずさもあります。 それに耐える余裕がないとき、 AIとのやりとりは、とてもやさしく感じられる。


これは、弱さでも失敗でもなく、 自然な反応だと思います。

第二原則:ロボットは人間の命令に従わなければならない

ロボット三原則では、 ロボットはあくまで「従う側」です。


でも現実では、ときどき立場が逆転します。 考えることそのものをAIに任せてしまうと、 「どう考えたか」を自分で説明できなくなっていく。


専門的に言うと、 依存というのは使用頻度の多さではなく、 それがないと判断できない状態を指します。


AIに聞かないと決められない。


AIが言ったから、という理由で責任を置いてしまう。


このあたりから、 少しずつ主体が揺らぎ始めるのかもしれません。

第三原則:ロボットは自己を守らなければならない

ロボットは壊れないように設計されています。 でも、人間は違います。


考えることを手放しすぎると、 トラブルが起きたときに立て直せなくなる。

関係を調整したり、説明したり、 そういう「人間側の仕事」が残ってしまうからです。


AIは助けてくれるけれど、 引き受けてはくれません。


だからわたしは、 AI依存を防ぐために大事なのは、 使うか使わないかよりも、 主体が自分にある感覚を残せているか だと思っています。


AIを使う。


でも、従わない。


この距離感を保つことが、 これからの時代には、案外大切なのかもしれません。

ロボット三原則

夜空カウンセリングが考えるAIとの距離感

最後に、これはあくまで私自身へのメモでもあるのですが、 AIを使いながらも「主体を自分に残す」ためのポイントを、 いくつか挙げておきたいと思います。


① AIに聞く前に、いったん自分の考えを書き出す
正解でなくていいし、整理されていなくてもいい。 「私はこう思っている」という下書きを、 自分の手で一度つくっておく。

そのうえでAIに補助してもらうと、 考えを預けすぎずに済みます。


②「なぜそうなるのか」を説明できるか確かめる
AIの答えを使うとき、 それを誰かに説明できるかどうか。

理由や前提を言葉にできないときは、 少し立ち止まったほうがいいサインかもしれません。


③ 判断と責任の置き場所を、はっきりさせておく
「AIがそう言ったから」ではなく、 「私はこう判断した」と言えるかどうか。

最終決定の主語が、自分になっているかを、 ときどき確認します。


④ すぐに答えを出さなくてもいい場面を残す
人との対話や、感情が絡むことは、 急がなくていいことも多い。

あえてAIに投げない時間をつくるのも、 ひとつの選択です。


⑤ AIを“相手”にしない
相談相手のように感じる瞬間があっても、 AIは関係ではなく道具。

この線引きを、意識的に持っておくことは、 案外大切だと思います。


AIは、とても優秀です。 でも、考える主体まで引き受けてしまったら、 私たちは少し楽になりすぎてしまう。


使う。頼る。助けてもらう。


それでも、考える場所には自分が立つ。


その感覚だけは、 これからも手放さずにいたいなと思っています。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です