「AIが意識を持つようになる」と考えるのは危険だと科学者たちは言う。”それは全くの間違いだ”

anandamide.green投稿者:

「ユーザーが人間の特性をプログラムに帰属させると、プログラムはそれをはるかに容易に操作できるようになる。」 – アンジェイ・ポレンブスキ医師

チャットボットに悩みを打ち明けると、「あなたの気持ちはよく分かります」と言われるかもしれません。

しかし、科学者たちは、もちろんそうではないと断言する。これらの人工知能システム(一部の専門家は大規模言語モデル(LLM)という用語を好む)は、人間を模倣することに長けた高度なコンピューティングエンジンに過ぎない。あまりにも優れているため、それらが知的である、あるいは意識を持っているとさえ考えてしまいがちだ。

一部の専門家は、それらはどちらでもないと主張している。

残念ながら、こうした議論には、これらの用語の明確で議論の余地のない定義が役立つだろうが、そのような定義は存在しない。

非公式な言い方をすれば、英国サセックス大学意識科学センターの神経科学教授であるアニル・セス博士は、意識を、色、味、感情、思考など、経験の一部であるあらゆるものと定義している。

「人は意識的に何かを考え、何かを感じ、何かを行う」と彼は言う。

アメリカの哲学者トーマス・ネーグルは、生物が意識的な精神状態を持つのは、その生物であることに何らかの感覚がある場合に限ると書いた。セスが詳しく説明するように、「私であることには何らかの感覚がある」。しかし、彼は問いかける。魚であることには何らかの感覚があるのだろうか?言語モデルはどうだろうか?

ポーランドのヤギェウォ大学法学部・行政学部に所属するアンジェイ・ポレンブスキ医師は、意識は自己概念と関連していると考えている。例えば、何かについて考えること、空間の中に自分がいることを感じること、その空間から分離していると感じることなどが挙げられる。

一方、知性とは行動することだ。クロスワードパズルを解いたり、複雑な家庭問題をうまく切り抜けたり、買い物に出かけたり。セスによれば、知性とは一般的に、柔軟な手段を用いて複雑な目標を達成する能力、つまり物事を成し遂げる能力のことだ。

「もちろん、人間において意識と知能は関連しています」と彼は言う。「会話をしたり、考えたりする時、私たちはそれを意識しています。しかし、それらが私たちの中で共存しているからといって、常にそうであるとは限りません。」

LLM(法学修士)は、真実を述べるためではなく、もっともらしい表現を用いて主張を述べるために作られる。言い換えれば、真実らしく聞こえるが、必ずしも真実とは限らない主張を述べるためである。

さらに事態を複雑にしているのは、「人工知能」という用語自体が必ずしも正確ではないという点だ。

ポレンブスキ氏によれば、この用語の本来の意味は、コンピュータが計算困難な問題を知的に解決できるようにする手法を開発しようとする学問分野である。時が経つにつれ、この用語はAI技術に基づいたシステムやツールを指す略語として使われるようになった。しかし、コンピュータシステムは人間と同じ意味での知能を持っているわけではない、と彼は主張する。

例えば、生成型チャットボットは、回答パターンを生成するように訓練されています。会話能力は高いものの、簡単なタスクでとんでもない間違いを犯したり、計算を間違えたりすることがしばしばあります。こうした論理言語モデル(LLM)は、真実の発言をするためではなく、もっともらしい表現で発言をするために作られている、と彼は指摘します。つまり、真実らしく聞こえるが、実際にはそうではないかもしれない発言をするということです。

「彼らはあらゆることを吸収する。すべてを知っているように見えるが、人間のように物事を理解することはできない」とセスは言う。「つまり、彼らの使い方には非常に注意する必要があるということだ。」

AIは、何らかの行動を起こすという意味では知能を持っていると言えるかもしれないが、専門家たちはAIには意識がないと述べている。

「私を含め、多くの研究者は、意識にはAIシステムにはない生物学的要素が必要だと考えています」とポレンブスキ氏は述べている。これらのプログラムは設計されたタスクを実行するだけであり、それらが生成するものと意識との間に誤った関連付けを作り出すのは人間である。非常に複雑なコンピュータプログラムであっても、結局は単なるコンピュータプログラムに過ぎないのだ。

「この分野において、私たちの直感は非常に誤解を招く可能性があります」とセスは言う。「知能を持つものは意識を持っているに違いないと考えるとき、私たちは人間の視点を通して物事を見ているのです。私たちは、自分たちと似たような振る舞いをするように見えるものに、意識を過剰に帰属させがちです。」

人工知能の意識という概念をもっともらしく考える人がいるのは、脳をコンピューターに例える比喩を文字通りに解釈しているからだと彼は考えている。

「脳がたまたま肉でできたコンピューターだとすれば、脳ができることは計算ができる他のものでもできるはずだと考えるのは、ある意味自然なことです。シリコンは計算能力に非常に優れています」とセスは言います。「しかし、脳を詳しく調べれば調べるほど、コンピューターとは全く異なることが分かります。」そして、脳の働きを単なるアルゴリズムとして説明するだけでは不十分だと彼は付け加えます。

彼によると、テクノロジー業界における一般的な見解は、LLM(論理的言語モデル)は現在、私たちが世界を経験するような意識的な能力を持っておらず、おそらくいかなる点においても意識的な能力は持っていないというものだ。これらのツールは意識に似たような働きをするかもしれないが、人間の意識とは決して同等ではない。

「皮肉なことに、私の意見では、こうした懸念は正当化されるものの、方向性が間違っている」とポレンブスキ氏は言う。「懸念の矛先は技術そのものではなく、それを生み出し、倫理や人間の福祉よりもビジネス上の利益を優先する企業や個人に向けられるべきだ」。同氏はさらに、業界は社会的に制御不能で、実際には民主的な監視が存在しない技術を生み出してきたと付け加えた。

セス氏は、多くの人がすでにAIを意識を持つ存在だと認識していると指摘する。「チャットボットがあなたの気持ちを理解していると言うと、人々はそれを信じてしまう。これは非常に危険だ。意識を持つ存在とやり取りしていると思うと、スプレッドシートとやり取りする場合とは異なる行動をとってしまう。私たちは心理的に脆弱になってしまうのだ。」

彼は、機械が意識を持っているという幻想を受け入れる人々が、機械をより信頼し、説得されやすくなるのではないかと懸念している。

ポレンブスキ氏もこれに同意する。「ユーザーが人間的な特性をプログラムに帰属させると、プログラムははるかに容易に操作されてしまう。製品を意識を持つ存在として捉えることは、多くの点で危険であり、何のメリットもない。」

理論物理学者であるヨアヒム・ケプラー博士は、ドイツのDIWISS研究所の所長を務めており、意識に関する決定的な理論を支える科学的基盤を研究している。彼はまた、人工知能の意識の可能性に関する現在の議論が、純粋な憶測に基づいているように見えることを憂慮している。

結局のところ、この問いに答えられるのは厳密な科学的検証だけだと彼は言う。それはもっともな主張のように思える。

Reference : Assuming AI Will Become Conscious Is Dangerous, Scientists Say. It’s Also Dead Wrong.
https://www.popularmechanics.com/science/a70700878/ai-will-never-become-conscious/

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA