人工知能の倫理観
AI人工知能に、倫理観をもたせられるのか
・今注目されているの人工知能といえば、ロボット兵器の人工知能と、自動運転車の人工知能などだが、ロボット兵器は人を殺すことを前提につくられているが、自動運転車は人を安全に運ぶことを前提につくっている。その中にでトンネル問題とうのがある。
・トンネル問題? トロッコ問題は聞いたことがあり、このブログでも取り上げらていたが、トンネル問題とはどんなものですか。
・ロボト倫理学として、次のような問いかけをしている。
自動運転車の乗員は、狭い山道を走行していて、トンネルの入り口で急に子どもが飛び出してきた。急ブレーキを掛けても間に合わない。子どもを避けるとトンネルの入り口の壁に衝突して乗員は即死してしまう、そのまま走ると子どもは即死してしまう。自動運転車はどう判断すべきか。というものです。
・これは、車の製造会社や人工知能のプログラマーの責任か、乗員の非常判断の責任にするのか。それても、死ぬかもしれない当事者の自動運転車を購入する人は、どちらの判断をする自動運転車を買うのが倫理的によいとされるのかを問うということですか。
・それは、そのすべてを考える必要がある。
・そもそも、自動運転車の人工知能はそのような判断ができるのですか。
・1対1の命のどちらが大切かを選べと、人工知脳に問うて答えをだせるのかな。これがトロッコ問題のように、5対1なら人工知能は多い方の命を守るかもしれないが。
・スタートレックのヴォイジャーのホログラムドクター(人工知能のドクター)が事故で全く重度の怪我をした片方を治療している間に一方は死んでします。そこで、ドクターは一方の治療をしたが、結果片方は死んでしまい。倫理観のループの中に嵌り機能不全になってしまう話しがある。この自動運転車が壁に激突するか子どもを轢てしまうのループに嵌ってしまうと、どちらを選ぶか判断できずにそのまま直進して、子どもを引いてしまうことになる。
・つまり、人工知能は判断できないということですか。そうなると、購入者は倫理的価値観から自らが犠牲になる方を選ばざる得なくなるのでは。
・それは、車の購入者に問うのは酷だろう、それぞれの価値観があるのだから。
・生来のある子どもの命と、乗員に社会的地位に応じてどちらを選ぶかをプグラムされているような車がつくられるかもしれない。
・それは、初めから人間の命をランク付けしているようなもので、優生思想につながるのでそのようなプログラミングは許されない。
・そういえばまた、スタートレックのヴォイジャーでの話のなかで、社会貢献の度合いにより治療係数を設け治療するという話しがある。それによいり、重症患者に投与すると効く薬を係数が低いからと投与せいず、社会的地位や貢献度が高いからと、廊下を防ぐ効果があるという理由でその薬を投与することを義務付けるという話しがあった。
・それはひどい話だ。
・その話の続きだが、それを知ったドクターはヒポクラテスの倫理感から、係数の高い人の薬を不正に計数の低い人へ横流しをする方法を考えだす。
・横流しは不正だが、人間なら倫理観からするかもしれないが、プログラムドクターは不正なことをする倫理観はどうなの?
・そう、プログラムドクターにも葛藤があったようで、最後の場面でプログラムチェックする人に、自分のプログラムに異常がないかを問う場面がるがそれで終てしまう。
・いくつかの倫理観が同じプログラムの中にあり、どちらを優先させるかということだろうか。
・それて、またプログラムの中のループに嵌ってしまうのでは。
・そう、プログラムの中にいくつかの倫理観を書くとループに嵌るだろう。
・ループに嵌れば、トンネル問題の答えを見つけだすのとおなじで人工知能が働かなくなる、そのとき社会はどうなるだろうか。
・社会全体 地球自体が機能不全になてしまうと、世の中の終焉を向かえるときかもしれない。
・人工知能に頼りすぎるといけないということか。
・そう、人工知能を使いこなすのではなく、人工知能に使われる支配される。
・しまいに人工知能を神のように感じ、人工知能が出す答えや指示に従順になる。
・そうなると、人は自分でものを考えなくなる。
・そう、すでにそのようになってきている。
・最近の家電製品には、人工知能が組み込まれ、いろいろなことを人間に指示するもんがあるね。
・人口知能が倫理観をもつと、人間の倫理観が希薄になりますます人工知能に頼り、神と思うようになり善悪を判断してもらうようになってしまう。
・それは、あなたはSFの観すぎです。たしかに、簡易な裁判を人工知能にさせる方が公正だという考えもあるが、人間はそこまで愚かではないですよ。
・今注目されているの人工知能といえば、ロボット兵器の人工知能と、自動運転車の人工知能などだが、ロボット兵器は人を殺すことを前提につくられているが、自動運転車は人を安全に運ぶことを前提につくっている。その中にでトンネル問題とうのがある。
・トンネル問題? トロッコ問題は聞いたことがあり、このブログでも取り上げらていたが、トンネル問題とはどんなものですか。
・ロボト倫理学として、次のような問いかけをしている。
自動運転車の乗員は、狭い山道を走行していて、トンネルの入り口で急に子どもが飛び出してきた。急ブレーキを掛けても間に合わない。子どもを避けるとトンネルの入り口の壁に衝突して乗員は即死してしまう、そのまま走ると子どもは即死してしまう。自動運転車はどう判断すべきか。というものです。
・これは、車の製造会社や人工知能のプログラマーの責任か、乗員の非常判断の責任にするのか。それても、死ぬかもしれない当事者の自動運転車を購入する人は、どちらの判断をする自動運転車を買うのが倫理的によいとされるのかを問うということですか。
・それは、そのすべてを考える必要がある。
・そもそも、自動運転車の人工知能はそのような判断ができるのですか。
・1対1の命のどちらが大切かを選べと、人工知脳に問うて答えをだせるのかな。これがトロッコ問題のように、5対1なら人工知能は多い方の命を守るかもしれないが。
・スタートレックのヴォイジャーのホログラムドクター(人工知能のドクター)が事故で全く重度の怪我をした片方を治療している間に一方は死んでします。そこで、ドクターは一方の治療をしたが、結果片方は死んでしまい。倫理観のループの中に嵌り機能不全になってしまう話しがある。この自動運転車が壁に激突するか子どもを轢てしまうのループに嵌ってしまうと、どちらを選ぶか判断できずにそのまま直進して、子どもを引いてしまうことになる。
・つまり、人工知能は判断できないということですか。そうなると、購入者は倫理的価値観から自らが犠牲になる方を選ばざる得なくなるのでは。
・それは、車の購入者に問うのは酷だろう、それぞれの価値観があるのだから。
・生来のある子どもの命と、乗員に社会的地位に応じてどちらを選ぶかをプグラムされているような車がつくられるかもしれない。
・それは、初めから人間の命をランク付けしているようなもので、優生思想につながるのでそのようなプログラミングは許されない。
・そういえばまた、スタートレックのヴォイジャーでの話のなかで、社会貢献の度合いにより治療係数を設け治療するという話しがある。それによいり、重症患者に投与すると効く薬を係数が低いからと投与せいず、社会的地位や貢献度が高いからと、廊下を防ぐ効果があるという理由でその薬を投与することを義務付けるという話しがあった。
・それはひどい話だ。
・その話の続きだが、それを知ったドクターはヒポクラテスの倫理感から、係数の高い人の薬を不正に計数の低い人へ横流しをする方法を考えだす。
・横流しは不正だが、人間なら倫理観からするかもしれないが、プログラムドクターは不正なことをする倫理観はどうなの?
・そう、プログラムドクターにも葛藤があったようで、最後の場面でプログラムチェックする人に、自分のプログラムに異常がないかを問う場面がるがそれで終てしまう。
・いくつかの倫理観が同じプログラムの中にあり、どちらを優先させるかということだろうか。
・それて、またプログラムの中のループに嵌ってしまうのでは。
・そう、プログラムの中にいくつかの倫理観を書くとループに嵌るだろう。
・ループに嵌れば、トンネル問題の答えを見つけだすのとおなじで人工知能が働かなくなる、そのとき社会はどうなるだろうか。
・社会全体 地球自体が機能不全になてしまうと、世の中の終焉を向かえるときかもしれない。
・人工知能に頼りすぎるといけないということか。
・そう、人工知能を使いこなすのではなく、人工知能に使われる支配される。
・しまいに人工知能を神のように感じ、人工知能が出す答えや指示に従順になる。
・そうなると、人は自分でものを考えなくなる。
・そう、すでにそのようになってきている。
・最近の家電製品には、人工知能が組み込まれ、いろいろなことを人間に指示するもんがあるね。
・人口知能が倫理観をもつと、人間の倫理観が希薄になりますます人工知能に頼り、神と思うようになり善悪を判断してもらうようになってしまう。
・それは、あなたはSFの観すぎです。たしかに、簡易な裁判を人工知能にさせる方が公正だという考えもあるが、人間はそこまで愚かではないですよ。