へっぽこヘタレシステム管理者の管理人です。
さて、今回は社会人のリスクキング???です。
DX人材育成の一環で、誰かが見つけてきたAI基礎の社会人向け講座を受講することになり・・・
個人的には行きたくなかったのですが、職場で受講者を募ったところ募集があったので・・・
引率がてら行ってきました。
講座は3日間です。
AIから出力されるデータは正しいとは限らない
今回は1日目でAI基礎を学びました。
しごく当たり前の話なのですが・・・
現在のAIには汎用性が無く、学習させたデータを基にして、確率統計論でインプットに対して【確からしい】アウトプットを出すだけのテクロジーであるとのお話です。
ですので・・・
与えるデータが間違って入れば、アウトプットも間違えし、偏ったデータばかりを与えれば偏ったアウトプットが出るとのことです。
また、管理人は理解していなかったのですが・・・
現在のAI技術では、AIが出すアプトップトの過程をトレースできないとのことでした。
インプットからアウトップに至るまでのパラメータが多層構造化となっており・・・
人間ではもはやその過程を追えないとのことです。
AIに膨大な量のデータを与えたら・・・
なんだか良さそうなモノが出てきた・・・
現在のAI技術とはそういうものであるとのことです。
ChatGPTは凄いのか?
ChatGPTの学習量は、GPT-3.5で45TB(テキストデータ)、パラメータ数は1,750億と言われています。
WEBページに換算すると30兆ページくらいとのこと。
この膨大なテキストデータから・・・
確率統計的に文書を繋いで結合しているだけであり・・・
AIが考えて答えを出している訳ではないので、
別に凄い技術(シンギュラリティ・技術的特異点)ではないそうです。
確かにそう言われればそうだなと管理人は妙に納得してしまいました。
当然ですが、学習するデータ(WEBページ)には誤った情報も多いですので、質問に対して、正しく回答がされないのは、それが理由です。
創造はできない?
結局、現在のAIは、既存のデータから検索したり合成したりすることを人間より早くできるだけの技術であると管理人は理解しました。
ですので、現在存在しない新たなモノを創造することはできないという事になります。
しかも学習させたデータがポンコツだったら出力されるデータもポンコツ・・・
いかに正しくて正確なデータを学習させられるかがキモとなります。
一方で、正しくて正確なデータを蓄積すれば、それだけ良い出力結果を人間が行う精度よりも遥かに高い確率で出力できます。
しかし、現時点では、AI与えられるデータなんてインターネットが普及し始めてからのここ20~30年のWEB資源です。
しかも、そのWEBに公開されているデータの全ては校正されていないので・・・
誤ったデータも多数存在す。
さらに、まだまだデータ化されていないアナログな情報も沢山あるわけで・・・
そういう点では、話題の生成系AIが本当に使い物になるまでには、まだまだ年数が掛かるのかもしれません。
また、AIに学習させる情報の精度も問われてくるかと思います。
正しくて正確で偏っていない良質なデータのみを学習させる
言うのは簡単ですが非常に難しい問題だと思います。
本日の成果
さて、本日の成果は・・・
AI画像認識の体験でした。
で試しに画像を認識させてみます。
デモ画面に何か写真をドラッグします。
バイクは【モトサイクル】と認識してくれませんね。
タイヤとかタンクとかホイールとかパーツ単位で認識する様です。
一方ねうちの猫ちゃんはちゃんと【キャット】と認識してくれます。
バイクの画像の学習量が足りないのでしょうか???
コメント
確かに今現在は出来ることが限られており、エンジニア界隈ではAIの進化速度が凄すぎるあまり、いち作業者から管理者へ転職する人が増えてきてます。
そのうち、コードの中身は分からないけど動いてるからOK!みたいなWEBサービスを開発する人が出てくるでしょうね。
コメントありがとうございます。
>>【コードの中身は分からないけど動いてるからOK!】
大学の先生も似たような事を言われておりました。
嘘か本当か管理には確認していませんが・・・
オープンAIのCEOもたくさんWEB上のデータを食わせたら【なんか凄いものができた】と言っていたそうです。
訂正
確かに今現在は出来ることが限られており
↓
確かに今現在は出来ることが限られておりますが