IBM、3段階のAIについて語る
日本IBMは、IBM Watson Summit 2017を都内で開、AIとクラウドが今後ますますTびつきを咾瓠△修譴蕕鮠Wすることで業改革をさらに進められることをした。これまでIBMは人工ΑAI)とは言わずコグニティブコンピューティングと}んでいたが、このSummitではAIやマシンラーニングとの違いを確にした。

図1 IBMのHybrid Cloud兼IBM Research Director担当Corporate Senior VPのArvind Krishna
AIでは、データがすべてだ。IoTセンサからのデータやビジネスからのデータなどさまざまなアナログの撻如璽燭あふれている。IBMのHybrid Cloud兼IBM Research Director担当Corporate Senior VPのArvind Krishna(図1)は、「毎日作成されるデータは2.5EB(エクサバイト:10の18乗バイト)。世c中のデータの90%はこの2Q間で作成され、世cの科学\術レポートは9Qごとに2倍のペースで\えていく」と述べ、「ではどうやってデータを扱うのか。それがAIだ」と言する。もはや、プログラミングではない。ルールでもない、来のコンピューティングでもない。
AIの最初の基礎段階はマシンラーニングと}ばれ、ここでは、統アルゴリズムを使い、パターン認識を可Δ砲掘▲如璽織疋螢屮鵑陵襲Rを行ってきた。次の段階がAIであり、O言語処理から始める。学{によって識を蓄え、推bを行う。例えばコールセンターへの応では、Q&AのやりDりを中心に行う。これによってユーザーは、効率よく解策を瑤襪海箸できるが、マシンラーニングによる答えはブラックボックスであり、その中身の理yについてはわからない。
しかし人間は、答えを瑤辰討發修療えの背景にあるものが何かを瑤蠅燭て、しかもどのような証拠があるのかについても瑤蠅燭ぁこれが次のステップになるコグニティブコンピューティングだ。どのようにして判をめるのか、どのようにして、深いドメインに瓦靴討睛yけを行うのかをめなくてはならない。IoTのセンサからa度や振動、C耗などのデータを処理し、判するのかをめなくては予防メインテナンスをできない。a度やC耗などのX況がきるまで待ってめる要がある。これらのT思定を、クラウドを通じて行う。
コグニティブコンピューティング「ワトソン」は、BによるT思定、専門覦茲瓦垢訖b、エビデンスに基づく説を行うとしており、あくまでもビジネスを[定している。ワトソンのAPI(Application Program Interface)は(図2)、ビジネスのためのAIの頭NとしてTしている。すなわち、識の成、高度な推b、言語処理、共感、スピーチ(音m認識処理)、ビジョン(認識処理)がワトソンのスキルである。アプリケーションの開発にこれらのスキルをクラウドベースで使うことをi提としている。
図2 IBMワトソンは、さまざまなAPIをTしている
コグニティブコンピューティングは、限られた専門性のある分野での応をビジネスとしている。そのために業cに化した学{済みのワトソンを、]業やOE、コールセンター、セキュリティなど80|類ラインアップを揃えた(図3)。
図3 業cに化した学{済みワトソンを80|類そろえた これを使えば、推bのアルゴリズムさえ開発すれば業をAIに任せることが可Δ砲覆
KrishnaにIBMが開発したニューロチップTrueNorthについて聞いてみると、TrueNorthはアクセラレータのkつと位けているという。このニューロチップは消J電が70mWと3桁小さいので、今のところエッジ応を[定している。ニューロチップは、CNN/DNN(Qみ込みニューラルネットワーク/ディープニューラルネットワーク)などの画鞠Ъ韻里燭瓩離▲襯乾螢坤爐砲茲覬に向き、バイオサイエンスのブレインワークとは違うとしている。例えば、CMOSイメージセンサの後段においてビデオ処理するのに向くという。もうkつの応は、モバイルAIだろうと述べている。