2023年2月16日木曜日

ビッグデータその2

 今日考えたテーマは明日以降にして、昨日のテーマについて今朝の朝日新聞新聞記事で大分わかったことを取り敢えず書いておきたい。

記事は次のように解説している。以下引用「チャットGPTはネット上にある膨大な文章データをもとにAIが学習し、そのAIが出した回答に実際に人間が評価を加え、精度を改善させています。日本語を含む英語以外の言語でも使うことが出来るとのこと。基本となる技術は大規模言語モデル「GPT―3.5」です。これは、従来のAIよりも非常に巨大なモデルを用いて学習しているため、より多くのことを覚え、その覚えた知識を使って答えることができます。」引用終わり

この記事で完全に理解できた、納得できたという訳にはいかないが、このソフトの学習根拠がインターネットであることがわかった。確かにネット上の文章は桁違いというか、勘定できぬほどの量になるだろうし、著作権も関係無さそうだ。従ってある程度の質問には適切に答えるアルゴリズム(一種の計算方式)は構築可能かもしれぬ。しかし学習するネット情報には真贋が混在してるのが常識。朝日新聞もその点はしていて、トンチンカンな答えが返ってくるのも已むを得ないと断じている。

試しに、「アメリカのバイデン大統領と中国の習近平主席の発言のどちらを信ずべきでしょうか?」とか「ウクライナのゼレンスキー大統領とロシアのプーチン大統領のどちらが正しいのでしょうか?」なんて質問をしたくなるが、こんな当たり前の質問は既に試験済みなんだろうな。日本でもこの2ヶ月間にユーザーが爆発的に増えてるそうだから、読者の中で経験済みの方に是非ご教授願いたい。

0 件のコメント: