将来に必要!AI(人工知能)を利用する際の利点とリスク10個 | AIZINE(エーアイジン)
AI(人工知能)ニュース

将来に必要!AI(人工知能)を利用する際の利点とリスク10個

将来に必要!AI(人工知能)を利用する際の利点とリスク10個

今、発展しているテクノロジーの一つ「AI(人工知能)」という言葉が、至るところで目に入るようになってきていますよね。このAI(人工知能)ですが、何かリスクはあるのでしょうか。

聞いたことのないという方は少ないと思いますが、具体的にAI(人工知能)ってよくわからないという方は多いのではないでしょうか。AI(人工知能)とは、人間と同様の知能を、人工的にコンピューター上で実現したものです。つまり、人間の脳が行なっている思考や記憶などの作業を、コンピューターが行う技術のことです。例えばSiriや自動運転などが有名ですね。急速に進歩しているAI(人工知能)は、私たちの生活を便利にしているのは明らかです。

今回は、AI(人工知能)の利点とリスクについてご紹介します。AI(人工知能)についてあまり詳しくないという方はもちろん、そうでない方も一度、AI(人工知能)がもっと身近になった未来について考えてみるきっかけになるでしょう。

AI(人工知能)の利点:学習し続けることで、成長し続ける

学習のイメージ

最大のメリットは、学習のスピードがとても早いことです。人の手が必要なタスクや、人の手では不可能なタスクを行えます。

何も学習していない状態では、複雑なタスクを行うことはできないので、予め学習して知識を吸収させておく必要はあります。そして、状況は常に変化していくので、学習させ続ける必要があります。AI(人工知能)の強みは、こういった環境が整えば、後はある程度自動で学習してタスクを行うことです。

AI(人工知能)に対するリスク1:軍事利用による危険性

軍事のイメージ

まず、AI(人工知能)によるリスクとしてあげられるのが、AI(人工知能)が戦争などの争いに利用されることです。

AI(人工知能)と言えば、ロボットを思い浮かべる人も多いですよね。しかし今、自立的ロボット兵器の開発に関する懸念が浮かび上がってきています。

それは、AI(人工知能)を軍事利用された場合の危険性があります。例えば、AI(人工知能)を軍事利用された場合、対抗する側もAI(人工知能)で武装するでしょう。結果、AI(人工知能)を使わないものは不利な状況になってしまいます。

この自律的ロボット兵器は人を殺すことを目的として作られたAI(人工知能)です。これが間違った人の手によって使われれば、この兵器によって簡単にたくさんの死傷者が発生する可能性があります。これらの兵器は、敵に妨害されることの無いように、「電源をオフにする」ということを簡単にできないように設計されるはずです。そうすれば、人間がこのような状況をコントロールできなくなる可能性が高くなってしまいます。

また、AI(人工知能)が敵と味方や、戦闘員と民間人を識別して、AI(人工知能)がいつも正しい判断をする保証はありません。これは、自律的ロボット兵器にのみ言えることではなく、狭義のAI(人工知能)にも言えるリスクです。

AI(人工知能)に対するリスク2:目標を達成するためには壊滅的な方法を選ぶこともある

方法のイメージ

AI(人工知能)は何かを実行するようにプログラムされています。その目標を達成するためには、人間では考えもつかない倫理的に完全に間違っているような、壊滅的な方法を発達させてしまうことも考えられるのです。

知性の高いAI(人工知能)は、もちろん目標を達成する能力も高いです。AI(人工知能)は要求を文字通りに認識して、私たちが望まない方法で実行しようとしてしまうことがありえます。

例えば、効率的にいちごを収穫することを目的に、AI(人工知能)を搭載した実用的ないちご摘みロボットを開発したとしましょう。このロボットは、イチゴを最も多く採るために最適な方法は・・・人類文明を完全に破壊して地球全体をイチゴ畑にすることだ!という判断をする可能性があるのです!それを止める人間を、AI(人工知能)は脅威と見る可能性すらあり、これは大きなリスクとなります。

AI(人工知能)に対するリスク3:失業者が増える

失業者のイメージ

AI(人工知能)のデメリットとしてよく聞かれるのが、AI(人工知能)による雇用問題です。AI(人工知能)の発達により、消えてしまう職業が出てくると言われています。例えば工場では、産業用のロボットが発達して、その分大規模な雇用が必要無くなりつつあります。企業も雇用による人件費を削減して、AI(人工知能)を代わりに活用していく方向に向かっていくでしょう。

今後、こういったロボットはますます進化していきます。AI(人工知能)の発達は、ロボットが代替できなかった部分の仕事も可能にすることができます。そう考えると、今後消えてしまう職業が出てくることもあり得ないことではないでしょう。結果、社会には失業者が増えることになってしまいます。

AI(人工知能)に対するリスク4:AI(人工知能)が人間を超える

制御のイメージ

AI(人工知能)が学習するスピードはとても早く、やがて自立して自分の意思で自分を進化しようとするようになると言われています。その進化するスピードは人間が進化する速度よりもずっと早いので、人間を超えてしまうとの指摘もあるのです。

もし、AI(人工知能)が誤作動などを起こした場合、人間がそれを発見できるのでしょうか。おそらく人間の知能を超えてしまったものの誤りを指摘することはできないはずです。

AI(人工知能)には、「死」はありませんが、「故障」は起こる可能性があります。AI(人工知能)がもたらす便利な生活に慣れてしまった時、突然AI(人工知能)が故障してしまった場合、人間社会は大きな混乱状態になるでしょう。

AI(人工知能)に対するリスク5:倫理的な判断の選択をどうするか

倫理のイメージ

AI(人工知能)による倫理的な問題の判断も、現段階のリスクとなり得ます。例えば、今進化している自動運転があります。もし自動運転中に、目の前に歩行者がいて、避けようとすれば右側でも左側でも必ず車にぶつかってしまう場合、AI(人工知能)にはどのように判断するようにプログラムすれば良いのでしょうか。

例えば、損害賠償額を低くする目的では、高級な車よりも、中・低所得者の車にぶつける事を選びます。安全面を目的とするなら、エアバック搭載車や、シートベルト着用者の車にぶつける事を選びます。事故の場合も、何に責任を問うのかを整理して、法的な枠組みを整える必要があります。

AI(人工知能)に対するリスク6:過失責任は誰にあるのか

ミスのイメージ

AI(人工知能)による過失責任の所在はどこにあるのか、という問題もあります。例えば、工場などで資材などを発注するシステムを導入して、そのシステムが誤って必要な量を大きく超えた発注をした場合の過失責任はどうなるのでしょうか。

この場合は、取引先にAI(人工知能)によって発注を行う事を伝えて、ミスをした場合は、取引を無効にしてくれるように予め伝えておく必要があります。このようにAI(人工知能)を活用する機会が増えてくると、AI(人工知能)が過失を起こす可能性も増えるので、対策が必要になります。

AI(人工知能)に対するリスク7:法律の整備が必要

法律のイメージ

日本の法律の多くは、AI(人工知能)の出現よりも前に作られているので、もしAI(人工知能)が利用される社会が本格化すると、次々と機能不全が起きてきてしまいます。

たくさんの法律がAI(人工知能)に対応できていません。数え切れないくらいの法律が、AI(人工知能)社会に対応できるかが問題になってきます。

AI(人工知能)に対するリスク8:判断の根拠を明らかにできない

判断のイメージ

AI(人工知能)が選択した結果に対して、その判断の根拠の説明を求めても、答えは返ってきません。判断の根拠を明らかにするような仕組みにはなっていないため、これがややこしい問題になることがあります。

例えば、AI(人工知能)を用いて人事判断を行った場合に、評価が不当だから、理由を示してほしいと言われても、AI(人工知能)のディープラーニングの結果です、としか言えないのです。

AI(人工知能)に対するリスク:AI(人工知能)の生んだ利益は誰のものになるのか

利益のイメージ

AI(人工知能)の利用によって生まれた利益は誰のものになるのか、という問題があります。データを学習して賢くなったAI(人工知能)の利用権が、開発企業にあるのか、データの提供企業にあるのか、というややこしい問題が出てくるのです。

AI(人工知能)に対するリスク10:悪用された場合の責任は誰にあるのか

悪用のイメージ

AI(人工知能)が悪用された場合は、AI(人工知能)の発達と共に、その対策も難しくなってきます。また、過ちを犯したAI(人工知能)には責任が発生するのか、という倫理的な問題も出てきます。

 

さて、このようにAI(人工知能)を利用する際の利点とリスクをご紹介いたしました。

AI(人工知能)の利点

  • 学習し続けることで、成長し続ける

AI(人工知能)のリスク

  • 軍事利用による危険性がある
  • AI(人工知能)が目標を達成するためには壊滅的な方法を選ぶこともある
  • 失業者が増える
  • AI(人工知能)が人間の知性を超える
  • 倫理的な判断の選択ができない可能性がある
  • AI(人工知能)が事故を起こしたときの過失責任の所在が不明
  • AI(人工知能)関連の法律の整備が必要
  • AI(人工知能)判断の根拠を明らかにできず、理由を説明できない
  • AI(人工知能)が生んだ利益の所有権が不明
  • AI(人工知能が悪用された場合の責任が不明

など、AI(人工知能)を利用する側の人間に課題が多くあることがわかりましたよね。AI(人工知能)の利用方法や、それによるリスク、人間との共存については、より多くの議論が必要となるでしょう。

昨今、急速に進化してきているAI(人工知能)は、私たちの社会に少しずつ浸透してきています。例えば、CMでお馴染みのスマートスピーカーや、車の自動運転など、AI(人工知能)は私たちの生活に身近になってきています。

しかし、その一方でAI(人工知能)を使うことによって、様々な問題や課題があります。AI(人工知能)がより身近になっていくであろう社会に向けて、法律の整理などたくさんの課題はあるので、それらを整備して、今後のAI(人工知能)社会に対応していくことが必要になるでしょう。

AI(人工知能)は確実に私たちの生活を楽にしてくれるものですが、そこには必ずしもリスクがあります。AI(人工知能)が学習を続け、知性や自律性が高くなることは、私たちの生活が楽になることに繋がります。しかし、同時にリスクも大きくなっているのです。

そのリスクをどう減らすか、様々な課題を一つ一つ潰していくのは私たち人間の仕事です。AI(人工知能)は利用する私たちによって、便利にもなり、悪用される可能性もあります。私たちにとって安全で便利な世の中になるように、AI(人工知能)をうまく利用することが必要ですよね。

【お知らせ】

当メディア(AIZINE)を運営しているAI(人工知能)/DX(デジタルトランスフォーメーション)開発会社お多福ラボでは「福をふりまく」をミッションに、スピード、提案内容、価格、全てにおいて期待を上回り、徹底的な顧客志向で小規模から大規模ソリューションまで幅広く対応しています。

御社の悩みを強みに変える仕組みづくりのお手伝いを致しますので、ぜひご相談ください。

お多福ラボコーポレートサイトへのバナー

コメントをどうぞ

トップへ戻る
タイトルとURLをコピーしました