(21) 生成AI 大規模言語モデルは要注意システム

① 生成AI  大規模言語モデルの不具合を整理すると

1) まずは著作者と本の題名を相互認識できない                                            2)架空の書物を創生する。                                                  3)地理的知識が全くない                                                     4)基礎的な本を紹介してくださいという質問に対して、平気な顔して専門書を紹介する。                                  5)右側、左側の方向感覚が全くない                                                    6)水素医療について概要は説明できるが、その本質を全く理解していない                                                                                                                   7)1000年以上も五重塔が倒れない理由を、「地盤の調査や地質学的な調査が行われ、適切な基礎設計が行われます。」など考えられない理由を説明します。 など

② 生成AI  大規模言語モデルの欠陥を指摘した文書をみつけました                                  指摘されていることを列挙してみます。

1)大規模言語モデルによって生成された回答は、単純に、統計的に最も可能性の高い単語の順序である。大規模言語モデルには、精神的なモデルも、公理的な世界の知識もない、彼らは、創造したことと、真実と、小説を切り離すことができず、驚くべき結果を招くことになる。この現象が認識されたことで新たな用語、すなわちAI幻覚が生まれた。                             2)GPT-4を発表するオープンAIは、次のように述べて、これらの問題を認めた。                            「その能力にもかかわらず、GPT-4は以前のGPTモデルと同様の制限をもっています。最も重要なことは、依然として完全に信頼できないことである。(それは事実を「幻覚」させ推論誤差を作り出す)。言語モデルのアウトプットを使用する場合、、特に利害の高い状況では、特定のユースケースのニーズに合ったプロトコル(ヒューマン・レビュー、追加的な文脈での接地、または多額の利害関係の使用の回避など)に十分注意する必要がある。」                                                  まとめると                                                          大規模言語モデルは、多くのタスクに必要な労力を著しく減少させることができる。それらは、優れた生産性のツールであり、労働力の乗数である可能性がある。しかし、大規模言語モデルは物事の真の意味を理解しておらず、それらの出力は真実でない可能性がある。そのためには、人間が、非常に重要な作業のために、それらのアウトプットを監督し、検証する必要がある。

参考文献

https://www.ontotext.com/company/news/ontotext-and-topquadrant-a-powerful-partnership/

https://www.topquadrant.com/topbraid-edg/

今のところ、日本の専門誌、雑誌等でここまで鋭く指摘した内容を目にしたことはありません。むしろ素晴らしいと絶賛している感じで利用を促進していると感じます。

 

 


投稿日

カテゴリー:

投稿者:

タグ: