記事リンク↓
http://www.itmedia.co.jp/news/articles/1902/05/news120.html
3ヶ月くらい前の記事なんですが、これ、すごいこと(だと思う)。
何がスゴイか、記事の核心部分はブログ冒頭のキャプチャ画像の段落。
以下記事引用
本来、ディープラーニングには数千~数万枚もの学習用データ(画像)と膨大な計算処理が必要になるが、画像特徴量の1つである「高次局所自己相関特徴」(HLAC)に注目したことで、必要な学習データ数と学習のための計算量の削減に成功したという。これに熟練工が蓄積してきた加工知識を合わせ、AIの学習効率を上げたとしている。
の部分で。
精度の高いAIを育てるには(精度が低かったらAIの意味がない)、画像だとしたら数千万枚もの学習用データ(教師データ)が必要で、それをもとに膨大な量の計算を超高速でこなして結果を出す必要があったところが、今回の事例では少ないインプットで結果を出せたということ。
ざっと調べたところ、HLACには以下のような認識に適した特長を備えているらしい。。。
・位置不変性・・・特徴が対象の位置に依らない。
・加法性・・・全体の特徴が個々の対象の特徴の和となる。
・モデルフリー・・・対象のモデルを仮定する必要がない。
───ですって。
なんだろう。なんとなく、自由度が高い?という感じは?するかも?
.
.
.
AIと聞くとSFの世界のように、なんでもやってくれそうな気がしてしまうけど、
現在の実際のAIは「前提条件」以外の状況では全く何もできない。
@@@の状況で@@@を@@@するとき専用のAI。
というような感じで。
その前提条件内での起こりうること、画像データ、数値データを学習させていく。学習自体はAIが24時間休みなくできるが、その膨大なデータを、しかも前提条件に当てはまるような上モノのデータを大量に与えられるかが肝らしく。。。
.
.
.
逆にいうと、「データが集まらない事象」についてのAIはできない。
ということ。
もう一回逆にすると、AIに奪われる(代わりにやってくれると思った方が良い)仕事というのは、「データが蓄積されている事象」ということで。
.
.
.
話が逸れましたが、工場にAIを導入して、作業を効率化させるには、
高性能なカメラ、高性能な各種センサー、そのデータを処理するための高性能なPC、データを蓄積するためのサーバー、高速なネットワーク、などなどが必要で、さらには今ある技術をデータ化、AIに学習させるには?そもそも何をやらせるのが良いのか?さらにはそのセッティングや維持管理、エラー修正などなど。。。それはそれで別の大変さが増えそうな気もしないでもない。
下町のTシャツプリント工場にその辺の技術が降りてくるのはいつになるのでしょうか。。。
僕としてはある特定の部分ではかなり早めにやってくると思っていたりします。