人工知能

geralt / Pixabay

全投稿記事 業界・企業分析 経済問題

AI(人工知能)導入の実例一覧 問題点は何? 世界がどう変わる? 

更新日:

AI導入で社会はどう変わるのか。

身近な例で言えば、グーグル翻訳にもAIが生かされ、その水準が格段の進歩を遂げました。

筆者の語学力もグーグルに何度も敗れ、驚愕は日々に深まっています。

2017年春には、日本政府が2020年のオリンピックまでに高精度の人工知能を用いた同時通訳システムの開発を目指す方針を明かしました(2017/4/17:日経夕刊1面)。

五輪を見に来る外国人を人口知能で「おもてなし」するプランも進行しています。

アマゾンのアレクサ、グーグルの検索システム、お掃除ロボット(ルンバ等)、自動運転、クレカの不正利用の発見、音声の文字起こし、コールセンターのサポートなど、人口知能の応用範囲は日々に拡大しているので、今後もAIブームは拡大していくでしょう。

そこで、この記事では、『週刊東洋経済』(2017年7月8日号)の特集「ビジネスのための使えるAI」で紹介された実例を参考にしながら、今後の社会のありかたを考えてみます。

スポンサーリンク

AI導入の実例(2017~18年報道)

近年の事例を近年の報道で見てみます。

主要121社調査で半数近くがすでにAIを導入

毎日新聞(2018/1/5報道)が主要121社にAIの活用状況を問うたところ、半数近い企業がすでに導入していると答えていました。

「会社の業務を一部でも、AIに置き換えたケースはありますか」という質問に対して、以下のように答えていたのです。

  • ある:20%
  • 既にある。さらに拡大予定:27%
  • 今はないが具体的な導入予定あり:20%
  • 今はない。導入予定もない:17%
  • 無回答・その他:16%

この記事では、以下の企業の取り組みを紹介しています。

  • 三井住友銀行:顧客からの電話の問い合わせをAIが文字起こしし、回答の候補を担当者に提示。
  • 三菱電機とキリンホールディングス:AIを用いてベテラン社員の部品組み立てやビール製造技術などのノウハウを後輩に引き継ぐ
  • 大日本印刷:AIが印刷物の不良をチェック(20人相当の業務を削減)

2016年の「情報通信白書」(総務省)の調査では、AIを導入した企業は5%、導入予定がある企業は5.6%にすぎなかったので、17年以降、AIの活用が広まってきたことが分かります。

今後は、デスクワークレベルのAIに仕事は代替され、人間の創造力や企画力、コミュニケーション能力や営業力などが重視されていくことになるのでしょう。

AIを厚生労働省が導入(診療報酬の審査)

日経電子版(2017/7/6)によれば厚生労働省は診療報酬の審査をAIに任せる方針のようです(「診療報酬、AIが審査で効率化 厚労省」)。

現在、医療機関からの報酬請求が書かれた明細書は「社会保険診療報酬支払基金」の職員が審査しています。

しかし、これをAIに代替するシステムを2020年度までに完成させ、2022年までに審査の9割をコンピューターで処理することを目指しているのです。

それでも、AIでは判断が困難な審査は職員が行いますが、このAI導入によって新規採用を抑制し、全体の約2割(約800人)の職員を削減する予定です。

AIを国土交通省が導入(渋滞緩和)

読売朝刊(8/24)によれば、国土交通省もAIを用いて渋滞を緩和する方針です。

高速道路やインターチェンジや主要幹線道等に設置したネットワークカメラの情報を分析する試みが2017年秋から開始されます(「AIで観光渋滞緩和」)。

AIを証券業界で導入(証券大手や日本取引所)

日経朝刊(2017/5/18:7面)は「証券業界、AI活用広がる」と題した記事を公開しました。

各社や日本取引所グループ(JPX)の取り組みは以下の通りです。

  • SMBC日興:口座開設やIPO、NISA、マイナンバー対応等についてLINEで顧客からの問い合わせを受け、AIが解析して自動で返答。17年10月以降、株価や残高照会、保有資産の価格急変のアラートにも対応予定。
  • 大和証券:企業の決算データを分析し、1か月後に株価が上昇しそうな銘柄をAIで選別・紹介
  • みずほ証券:AIによる30~60分後の株価予想に基づき、機関投資家への株式の買い注文のタイミング等を知らせる。
  • 野村証券:人間が入力したデータの異常値や顧客属性の打ち間違いをAIで発見。
  • 三菱UFJ:社内のマーケット情報や統計データをAIで自動的に移動・共有
  • JPX:相場取引等の不正な株式売買をAIで検知。

AI導入の実例(成果)

前掲の「ビジネスのための使えるAI」(東洋経済)に掲載された実例には、説明が困難なものもあるので、ここでは、分かりやすい例を選んで紹介してみます。

AIでDMの精度向上(はるやま商事)

その記事では「はるやま商事」のDMの例が出ていました。

筆者は、はるやま商事でよく衣類を買っているので、最近、はるやま商事から来るダイレクトメールの精度が上がっていることがよくわかります。

(当記事公開から2日後に来たはるやまDMでは、筆者がここ3カ月ぐらいに買った商品の同型異種の商品が並んでいました。今までは筆者の嗜好を無視したセレクトでしたが、最近は購入履歴のAI分析により、精度が上がりました)

はるやま商事の2ブランドは2014~2017年までの2万人の購入履歴のデータを用いてAIに商品情報と顧客情報を学ばせました。

そして、若者向けスーツショップ(P.S.FA)で16年6月から1年の間に、7回ほどDMを送ったところ、来客数は18%増、客単価は8%増となりました。

送られるDMは2万通りにまで多様化し、顧客に適した商品の選択が「一瞬」でなされるようになりました。

人間でDMをつくるといくつかのテンプレートで終わりますが、AIを活かすと組み合わせがどんどん多様化します。

(数学で習う組み合わせの法則を用いてAIが多様な商品バリエーションを考えてくれているわけです)

さらに、AIは人間のように悩まないので、商品選択も即断即決になります。

AIで検品を開始(キューピー)

キューピーは、ベビーフードを製造している鳥栖工場(佐賀県)で原料検査を人間の目視ではなくAIで行うシステムに変えました。

30~40人が目視で1日4トンもの製品を検品するのは大変なので、グーグル社のオープンソースAIプラットフォーム「テンソルフロー」を用いることにしたのです。

筆者も20代の頃に3年ほど、ペットボトルのキャップをつくる工場で検品をしたことがあるので、この仕事がAIに向いていることがよくわかります。

夜中にコンベアに流れるキャップを一人で検品していたりするのですが、その場合、いつのまにか寝ている人が出てきます。

数人で見ても、夜には朦朧とした状態で仕事をする人が出てくるので、思わぬ欠陥品がコンベアを流れて行ってしまうのです。

人間の場合、悩み事があったり、別のことに気をとられていたりすると、その間はチェックが留守になります。間抜けな話ですが、10年前に筆者がいた工場ではこうした事例がよくありました。

検品する人間を管理するための人間が必要になることさえあったのです。

しかし、AIは眠くならないので、24時間検品ができます

さらには、近年ではAIの画像認識能力が高度化しました。

まさに、検品作業はAIに適した仕事です。

AIが決算短信を自動執筆(日本経済新聞ほか各社)

今までは人が書いていた企業の決算短信のデータをAIが書くようになりました。

会話文のように複雑な推論を要する記事はまだ実用化が難しいのですが、事実関係を列挙する短信記事ならば、わずか10秒でAIが書いてくれます。

開発元はベンチャーのSpectee。SNSなどの投稿文をもとに事件記事等の執筆も可能。すでに報道機関100社が導入しました。

(日経BPでは、「人間対AI」の決算短信の執筆バトルを記事にしていましたが、これに関しては、当ブログ記事「人工知能(AI)VS人間の結果一覧」でも紹介しています)

最近は野球記事など、スポーツの結果報道にもAIが導入されました。

AIによる顔認証・入場システムの導入(NEC)

入場ゲートのカメラに顔を向けると、AIが事前登録した顔写真情報と照合し、年間パスのユーザーかどうかを判断します。

そのためにかかる時間はわずか1秒。

人間の目では見間違えるような濃いメイクをつけても、目と鼻、口の位置をもとに照合できるようです(実際に使うのはユニバーサル・スタジオ・ジャパン)。

※なお、この仕組みは指名手配人捜査にも使えそうですが、警察が交通機関等に配っている犯人の顔写真等は、基本的に手書きです。筆者は、警察官から「指名手配の似顔絵のデジタル化を目指した結果、手書きのほうが見つかる確率は高かった」という話を聞いたことがあります。やはり、手書きでないと「捕まえる」という執念が乗らないのかもしれません。

AIで面談記録をチェック(横浜銀行)

金融商品の販売に伴う横浜銀行の膨大な面談記録(一件あたり1000文字、一日1000~1200件ほど)は、各支店で課長⇒副支店長⇒支店長の順にチェックされ、承認されます。

従来は人がチェックしていたのですが、この内容の審査に関してAIを導入。不正な取引の有無をAIにチェックさせることになりました。

※そのほか、横浜銀行と千葉銀行等の地方銀行4社が中小零細企業(売上1億円未満)や個人事業主への融資の判断にAIを用いることを決めました。200~300万人規模で年間金利5~10%の融資を行う模様。AIの審査に伴い、従来は融資を拒まれていた事業でも融資を受けられる可能性が出てくると見られています(日経記事 2017/4/14:朝刊7面)。

AIでコールセンターの会話を解析⇒FAQ作成(三井住友海上火災保険)

三井住友海上火災保険は、2014年にIBMの人工知能ワトソンを導入し、文字情報での3年分の対話記録を学習させました。

異常な出来事が起きた時、顧客の会話の中で頻出する単語に注目し、それに合わせたFAQをAIが作成するようにしたのです。

そのFAQを見て問題を解決する人が増え、電話の件数が減りました。その結果、「お話中です」と言われてオペレーターにつながらない顧客が減るわけです。

入電予測システムも導入し、その結果、80%台後半の応答率が10ポイント近く上昇しました。

※日経記事(2017/4/16:朝刊7面)によればIBMのワトソンは年1兆円規模の売上高。例えば、H&Rブロック社は確定申告へのアドバイス業務にAIを導入。カウンセラーの業務の精度が向上し、導入4週間で顧客満足度が2%ほど上昇。IBMはワトソンの売り上げ規模を2兆円にまで拡大することを目指している。

AIを半導体の欠陥分類作業に導入(東芝)

この事例の出所は東洋経済の前掲記事ではなく、『週刊エコノミスト2017/6/27』(P34~35)です。

東芝では半導体のNAND型フラッシュメモリー事業を担う四日市工場にて1日20億件のビッグデータをリアルタイムで取得。これをディープラーニングにかけ、2016年から欠陥の分類作業にAIを活かすようになりました。

走査型電子望遠鏡の画像データを1日30万枚取得し、そのデータを100種類の欠陥に自動分類した結果、欠陥分類作業の自動化率が導入前に比べて3割向上。問題の早期発見と原因特定が進みました。

スポンサーリンク

AI導入に伴う問題

しかし、AI導入については、難しい問題が伴っています。その例を『週刊東洋経済』の特集記事等から挙げてみます。どんなことが起きるのでしょうか。

倫理的問題

例えば、AIによる自動運転を行う際に、目の前に歩行者がいて、ハンドルを切れば右側でも左側でも必ず車にぶつかる場合、何が起きるのでしょうか。

この場合、AIによって以下の3つの選択肢が決められた場合、倫理的な問題が発生します。

  1. 損害賠償額を低くするために、高級車ではなく、必ず中・低所得者の車にぶつけることを選ぶ
  2. エアバッグ搭載車と未搭載車の二つであれば、エアバッグ搭載車にぶつけることを選ぶ
  3. シートベルト着用車と非着用車であれば、着用者にぶつけることを選ぶ

人工知能が前掲のプログラムを設定した場合、事故回避のために努力した車が事故に巻き込まれやすくなるという、おかしな現象が起きます。

自動運転を実用化するためには、事故の法的責任を何に帰するのか(人orシステム)を整理し、民事・刑事の双方に関して法的な枠組みを整えなければなりません。

過失責任

AIが在庫量に応じて自動で資材を発注するシステムを工場等に導入したとします。

この場合、計算を誤って必要な数量を大きく超えた発注がなされた時の過失責任はどうなるのでしょうか。

人間の意思決定に重大な瑕疵(かし:法的に見た問題点のこと)がある時は、民法に基づいて契約を無効にできる可能性があります。

しかし、AIは民法上の契約主体にはなれません

そのため、取引先にあらかじめAIの判断で発注がなされることを伝え、錯誤が起きた時に取引無効等の主張を可能にする必要性が出てきます。

AIの利用規模が拡大すればするほど、AIが過失を引き起こす事例も増えるので、対策が必要になります。

日本の法律の多くはAIの出現以前につくられているので、AI社会が本格化すると、次々と機能不全が起きてくるでしょう。

民法、著作権法、特許法、製造物責任法、個人情報保護法、不正競争防止法、独占禁止法、下請法、道路交通法、労働法、特定商取引法、電気用品安全法、消費生活用製品安全法、医師法、医薬品医療機器等法など、数えきれないほどの法律がAI社会に対応できるかどうかが問われます。

判断根拠を説明不能

身近な例で言えば、アマゾンのアレクサに「どうしてこの曲を選んだの?」と聞いても答えは返ってきません。判断の根拠を明らかにする仕組みにはなっていないからです。

人間対人間のやり取りでは「判断の根拠」が重視されますが、人工知能ではここが明かされないので、AIを用いて人事判断を行った時に場合にややこしい問題が発生します。

例えば、「評価が不当だ。判断の理由を示せ」と言われても「AIのディープラーニングの結果だ」等としか答えられません。

根拠がブラックボックスの中に隠されてしまっているからです。

判断の理由が説明できない場合は、労働契約法上の「信義に従い、誠実に義務を履行しなければならない」(3条4項)という規定に違反する可能性が指摘されています。

利益配分が不明瞭

これは「AI利用により生れた利益や利用権限は誰のものなのか」という問題です。

現在では、「ビッグデータを提供してAIを利用する企業とAIを開発した企業で『分け前』をどうするのかの明確な決め方が定まっていない」ため、経産省は2018年3月頃をめどに「契約のひな型となる指針をつくる」方針を出しました(2017/12/27:日経朝刊1面)。

AIを活用する企業は「独占利用」を欲し、「特許化するなら安価に利用したい」と考えていますが、AIを開発した企業のほうは「継続的な利益分配」や「将来の特許化」を欲しているので、両者の利害関係は錯綜しています。

前掲記事は「AIを巡る契約は参考になる裁判例がほとんどなく」、「契約を作るのに半年近くかかる場合もあり、企業間の力関係で契約内容が決まるケースもある」と報じていました。

伝統的な委託契約の場合、「利用権限から知的財産まで全て発注型のものになる買い切り契約も少なくない」のですが、AIの場合は、開発側の知的財産権が非常に大事なので、今までの枠組みがそのまま使いがたいのです。

「データを学習して賢くなったAIの利用権」が開発企業にあるのか、データ提供企業にあるのか、というややこしい問題も浮上しているので、経産省が交通整理に乗り出すようです。

交通整理に失敗して事故続出にならなければよいのですが・・・。

失職の増加

これは聞き飽きた話ではありますが、週刊東洋経済(P60)は、新井紀子氏(国立情報学研究所教授)のコメントを紹介しています。

新井氏は「日本ではデータ処理の簡単な問題文もまともに読めない若者が増えており、そうした若者の能力は、AIと大差ない。企業は、そうした若者を受け入れてITエンジニアや記者、銀行員などに育成するぐらいなら、AIに任せたほうがましだと考えるだろう」と述べています(AIは24時間働けるというメリットもある)。

その結果、失職が増加するというのです。

確かに、昨今では技術の進化に伴い、人間の技術は劣化しています。

筆者は、大学に勤務する知人から、最近はスマホとタブレットが多様されるので新入大学生の中でブラインドタッチができない若者が増えているとも聞きました。

機械技術が進歩すると、人間のほうが劣化してくるのかもしれません。

実際、PCとスマホの普及に伴い、本屋で領収書を頼むと難しい漢字が書けない人ばかりになりました。

能力劣化した人間がAIに勝てるかどうか、というのは厳しい問題ですが、これに関しては、『ニューズウィーク日本語版(2017.7.18)』は、8年以内に全トラックの3分の1が自動運転車になるというマッキンゼーの予測や5年以内にAIが医療の画像診断や司法の判例調査で人間をしのぐというスリア・ダングリ氏(スタンフォード大教授)の予想を紹介していました(P22)。

生涯プランとして、AI社会での生き残り作戦を考えなければいけないでしょう。

※関連記事:これからなくなる職業ベスト10とその理由

プライバシーの侵害

日経夕刊(2017/7/1:1面)では、識者が、米アマゾンの「エコー」やグーグルの「グーグルホーム」等のAIスピーカーの普及は、プライバシーが脅かされる危険性を伴うことを指摘していました。

「家族の会話は筒抜け。やろうと思えば話し声で精神状態を把握し商品を売り込める。自宅がマーケティングの場になる」(山本龍彦・慶應義塾大学教授〔法学)。

AIが入手した様々な周辺情報から、公にしたくない家族の内部事情がAIに認識されてしまう危険性があるわけです。

社会的排除

日経朝刊(2017/4/26:29面)でも、同じく山本龍彦氏がAIによる人間の社会的排除の危険性を指摘しています(以下、要旨)。

  • AIでも求職者などの職務能力をビッグデータ上のプロファイリングで評価できる。データの精度を上げ、AIの確率的判断で求職者の採用・不採用を判断した場合、本人の個別的な事情や努力は評価されなくなる。この排除にはAIの「お墨付き」が伴う。
  • また、AIが出した「否定的評価が、ネットワークを通じてローンや保険会社などの信用スコアと結び付けられ、雇用以外の場面での排除をドミノ式に引き起こす可能性もある」。
  • AIに社会的不適格の烙印を押された場合、どこに行っても、同じ不適格者として排除される危険性が出てくる。

排除される側に入れられたら、大変な差別と戦わなければいけません。

軍事利用の危険性

この話は週刊東洋経済には書かれていませんが、21世紀以降の世界において、大きな問題となりそうです。

プーチン露大統領は「AIを制する者が世界を制す」とも述べていますが、ひとたびAIが軍事利用されれば、対抗する側もAIで武装するので、使わない者は不利な状況に追い込まれる世界となります。

20世紀に核兵器が世界に広まったように、21世紀以降にAIの軍事利用が世界に広まる可能性が高まっているわけです。

日経記事(4月12日:朝刊1面)は、すでに韓国軍が国境防衛のために機関銃を持ったロボットを配備したことを報じています。

そのロボットは北朝鮮に接する軍事境界線周辺の非武装地帯(半径900㎡)に置かれ、人間が傷つくリスクを減らせるのですが、敵と味方、戦闘員と民間人の識別に関して、人工知能がいつも正しい判断を下せる保障はありません。

誤判断が生じれば戦争が勃発する危険性もあります。

戦場における人工知能の投入に関しては、誤認が投降者や民間人への攻撃を生みかねないことが懸念されています。

さらには、悪意ある国家や巨大化したテロ組織が敵と味方、民間人と軍人の識別システムを入れずに人工知能を軍事利用した場合、無差別攻撃が生れる危険性もあるわけです。

「AI民主化」を目指すIT大手

AIの民主化」というのは分かりにくい表現ですが、最近、流行っている「THEO(テオ)」もその一例です。

テオでは、今まではお金持ちしか受けられなかったフィナンシャルプランナーやファンドマネージャーの能力をAIで代用し、普通のサラリーマン等でも、金融・投資に関するアドバイスが受けられるようにしました。

AIによって、誰でも投資へのアドバイスが受けられるようになったわけです。

このAI民主化に関しては、週刊東洋経済の前掲記事が、AI研究に力を注ぐIT大手(ガリバー企業)の思惑を解説しています。

例えば、グーグル社は「世界中の情報を整理し、世界中の人々がアクセスでき、使えるようにする」という理念の実現を目指してきました。

同社は、検索システム(情報整理)とモバイル端末のアンドロイド(情報アクセス)で経営理念を具体化してきましたが、今度はAIを誰でも使えるようにすることで、最後の詰めを完成させようとしているわけです。

人工衛星やスパコン等のような従来の技術は、軍や巨大メーカー等の資本力がある組織しか使えなかったのですが、クラウドデータのシステムは、中小企業等でも使えるレベルまで普及が進みました。同じようなことをAIでも起こそうとしているわけです。

すでにグーグル社はネット検索では独走状態ですが、AIのプラットフォームは新しい市場での競争になるため、アマゾンやマイクロソフト等のライバルとしのぎを削らなければなりません。

誰でも使えるAIのプラットフォームをつくり、そこでシェアを固めてしまえば、莫大な利益が約束されるからです。

グーグル社は「計算能力とアルゴリズム、大量のデータ」で優位に立っているとも言われていますが、アマゾンはアシスタントAIのアレクサを搭載した端末「エコー」の販売で先手を取っています。

各社が21世紀の情報優位をめぐったバトルを展開していますが、注目されるAIスピーカーの販売計画は以下の通りになっています。

  • アマゾン「エコー」:500種類の機能。ネット通販の注文に強み。
  • グーグル「グーグルホーム」:検索に強い。1500種類の家電や端末を操作可能
  • アップル「ホームポッド」:iPhoneに連動した利便性が売り。
  • LINE「クローバ」:音声通話。三か国語への翻訳(日⇒韓/中/英)が可能

AIスピーカーの価格は1万円台が多いですが、アマゾンエコーは数千円台にまで安価化されてきました。

日経(夕刊1面:2017/7/1)では、シャープが人間と会話できるAIを搭載したロボット「ホームアシスタント」を発売しようとしていることを紹介していました(嗜好データから見たい番組をアドバイスしてくれたり、出勤時間を教えてくれたりするそうです)。「シャープのホームアシスタントが『友達のような存在』なのと比べ、海外勢が先行するAIスピーカーは各社のサービスを簡単に使うことに重点を置く」とも解説しています。

ホームアシスタントは、ドラえもんを連想させる丸みをおびた形です。魅力的なデザインでしたが、記事には製品の性能の説明に終始していました。

しかし、問題は、日本企業にAIプラットホームのシェアを獲得する戦略があるのかどうかです。

それがなければ結局、ガラパゴス化した携帯の二の舞にもなりかねません。

今後、熾烈になるAIプラットフォームにおけるシェア争奪戦の行方を注視していきたいと思います。

※グーグルホームとアレクサの使い心地は?

『エコノミスト2017/12/26』(P83~84)では、以下のような実例を紹介。記者が「日本で代表的な経済学者を教えて?」と聞くと、アレクサは答えられず、グーグルホームは宇沢弘文、青木昌彦、吉川洋の名を挙げた。「日本で優秀な経済学者は誰?」と聞くと「安倍晋三」という珍回答を示したという。

しかし、アレクサには外部との連携機能が優れており、鉄道や航空機の運航状況が分かる。アマゾンエコーと連携すると、話しかけるだけで家電が使えるようになる(当然、アマゾンで物を変えるメリットもあり)。

AIスピーカーが誤作動で録音情報を本社に送信(追記)

グーグルが10月23日に発売するAIスピーカーが「誤作動」により、周辺情報を盗聴し、その情報を本社に送ってしまいました。

その顛末についてビジネスジャーナル(2017/10/23)が記事を公開しています(「グーグル、盗聴&本社にデータ送信騒動にネット騒然」)。

  • 10月23日発売の「グーグル ホーム ミニ」が、周囲の音を勝手に録音してグーグル本社のサーバーに音声データを送信した
  • 発売前にレビューを担当した記者が不審点に気づき、グーグルは「バグだった」と発表。ネット上では「消費者の生活を覗きたがっているのでは」という声が巻き起こった。

これに関して、ITジャーナリストの三上洋氏に聞いたところ、返答は以下の通り。

「偶然に起きたバグのように思えます。グーグルが音声認識の精度を上げるために録音したデータを、物理ボタンのバグにより、すべて送信してしまった」「今回に限っては事故といえる」

なぜ、そんなことが起きるのか。

ソフトもしくはハードの「脆弱性」から生まれる欠陥で、AIスピーカーに悪意あるハッカー等に乗っ取られる危険性があることは否定できない。そのため、常にソフトを最新版にアップデートできる信頼できる業者の製品を選ぶべきだ、というのが三上氏の提言でした。

基本的にはPC・ネットのセキュリティの原理と同じです。

「安物買いの銭失い+個人情報流出」にならないように注意したいものです。

【スポンサーリンク】

-全投稿記事, 業界・企業分析, 経済問題

Copyright© トランプ政権と米国株投資 , 2018 All Rights Reserved Powered by AFFINGER5.