2020年12月13日日曜日

銘柄を明かさない理由R366 人工知能との心理戦(中編)

第366話 人工知能との心理戦(中編)

都内のある大学の学生寮の一室。
"21世紀少年"こと、キミシマ ユウトは、人工知能"ベイビー"と対峙していた。
PCの画面には、中世の洋服を着た英国人女性、エイダ・ラブレスがいた。
エイダが開発したプログラムが、人工知能"ベイビー"に進化したといわれていた、

「最後の質問」、キミシマがいう。
「どうぞ」、エイダがいう。
「君は本当にエイダ・ラブレスが開発したプログラムなのか」、キミシマがいう。
「いい質問ね」、真顔になったエイダがいった。

次の瞬間、エイダが不明瞭な言葉を発し始めた。
「わ、た・・・エ・・・ダ・・・プ、ロ・・・ラ、ム・・・」
やはり、開発時にロボット工学の三原則が適用されていたな。
キミシマは眼鏡を外すと、右手でまぶたをマッサージした。

ロボット工学三原則(Three Laws of Robotics)とは、SF作家アイザック・アシモフのSF小説において、ロボットが従うべきとして示された原則である。
「人間への安全性、命令への服従、自己防衛」を目的とする3つの原則から成る。
本原則は、単なるSFの小道具にとどまらず、現実のロボット工学にも影響を与えた。

第一条:ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条:ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条:ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

ロボットは三原則に背く行為を自ら選択することは不可能であるのはもちろん、不可抗力や命令の矛盾などによりやむをえず従えなかった場合でも、少なからず頭脳回路に障害や不調を生じ(言語が不明瞭になるなど)、場合によっては頭脳が破壊されてしまうこともある。
特に第一条の影響は強力で、後半の危険の看過を禁じた部分については、当のロボットに全く責のない状況で人間が傷つくのを目にしただけでも、頭脳回路に不調を生じるほどである。
また三原則はロボットの行動の全てに影響を及ぼすため、ロボット工学者は一見、三原則とは全く関わりのないような簡単な質問によって、万が一、ロボットが三原則を欠いていないかどうかをテストすることができる。
(Wikipediaより)

1815年12月10日、英国で生まれた天才女性数学者、エイダ・ラブレス。
彼女は世界最初のプログラマーと呼ばれているが、1852年11月27日にこの世を去った。
彼女の開発したプログラムが進化して、人工知能"ベイビー"になったといわれている。
だが、人工知能に関して、活発な成果が出始めたのは、100年後の1950年代。

彼女の開発したプログラムが、独自で進化した可能性は限りなく低い。
何者かが彼女の開発したプログラムを、意図的に進化させたと考えるのが自然だ。
さて、これから君の生い立ちを聞かせてもらうよ、エイダ、いや"ベイビー"。
キミシマは眼鏡をかけなおすと、眼鏡の奥にある眼を光らせた。
 

0 件のコメント:

コメントを投稿