AI幻覚

AIとその幻覚の奇妙な世界

人間の心は、長い間、説明のつかない謎に包まれたままでした。そして、科学者たちは、このリストに新たな候補として人工知能 (AI) を認めたようです。最初は、AI の心を理解するというのは、かなり矛盾しているように聞こえます。しかし、AI が徐々に知覚力を高め、人間とその感情を模倣する方向に進化するにつれて、私たちは人間と動物に固有の現象、つまり幻覚を目撃するようになります。

そうです、砂漠に置き去りにされたり、孤島に打ち上げられたり、窓もドアもない部屋に一人で閉じ込められたりしたときに心が体験するまさにその旅を、機械も経験しているようです。 AI幻覚 は現実であり、技術の専門家や愛好家は複数の観察と推論を​​記録しています。

今日の記事では、この神秘的でありながら興味深い側面を探ります。 大規模言語モデル(LLM) AI 幻覚に関する奇妙な事実を学びます。 

AI幻覚とは何ですか?

AIの世界では、幻覚は、頭の中で明確に思い描くパターン、色、形、人物を漠然と指すのではなく、間違った、不適切な、あるいは誤解を招くような事実や反応を指します。 生成 AI ツール プロンプトを出します。

たとえば、AI モデルにハッブル宇宙望遠鏡とは何かを尋ねると、AI モデルが「IMAX カメラは、特殊な高解像度の映画撮影装置です...」などの答えを返すと想像してください。 

この答えは無関係です。しかし、もっと重要なのは、なぜモデルは提示されたプロンプトとはまったく異なる応答を生成したのかということです。専門家は、幻覚は次のような複数の要因から生じる可能性があると考えています。

  • AIトレーニングデータの品質が低い
  • 自信過剰なAIモデル 
  • 自然言語処理(NLP)プログラムの複雑さ
  • エンコードとデコードのエラー
  • AIモデルに対する敵対的攻撃またはハッキング
  • ソースと参照の相違
  • 入力バイアスや入力の曖昧さなど

AI 幻覚は非常に危険であり、そのアプリケーションの仕様が強化されるにつれてその強度は増すばかりです。 

たとえば、幻覚を起こす GenAI ツールは、それを導入した企業の評判を落とす可能性があります。しかし、同様の AI モデルが医療などの分野で導入されると、生死の方程式が変わります。想像してみてください。AI モデルが幻覚を起こし、患者の医療画像レポートのデータ分析に対する応答を生成すると、良性の腫瘍を悪性であると誤って報告し、個人の診断と治療の方向が変わる可能性があります。 

AI幻覚の例を理解する

AI 幻覚にはさまざまな種類があります。最も顕著なもののいくつかを理解しましょう。 

事実と異なる情報への対応

  • テキスト内の正しい文法を誤りとしてフラグ付けするなどの誤検知応答
  • 明らかな誤りを見逃し、本物として渡すなどの偽陰性反応
  • 存在しない事実の捏造
  • 出典の誤りや引用の改ざん
  • 自信過剰で間違った答えを返す。例: 「Here Comes Sun」を歌ったのは誰ですか? メタリカ。
  • 概念、名前、場所、出来事を混同する
  • Alexaの人気の悪魔のような自律的な笑い声など、奇妙で恐ろしい応答

AI幻覚の防止

AIが生み出す誤った情報 あらゆる種類の問題を検知して修正できます。これが AI を活用するメリットです。私たちはこれを発明し、修正することができます。これを行う方法をいくつかご紹介します。 

応答を制限する

話す言語の数は関係ないと言われています。すべての言語で話すのをやめるタイミングを知る必要があります。これは AI モデルとその応答にも当てはまります。このコンテキストでは、モデルの応答生成能力を特定の量に制限し、奇妙な結果が出てくる可能性を軽減できます。これは正規化と呼ばれ、プロンプトに対して極端で無理な結果を出した AI モデルにペナルティを課すことも含まれます。 

回答を引用し抽出するための関連性のある確実な情報源

AI モデルをトレーニングする際に、モデルが参照して情報を抽出できるソースを、正当かつ信頼できるものだけに限定することもできます。たとえば、先ほど説明した例のようなヘルスケア AI モデルは、医療画像や画像技術が満載さ​​れた情報の中で信頼できるソースのみを参照できます。これにより、機械が二極化したソースからパターンを見つけて相関させ、応答を生成することを防ぐことができます。 

AIモデルの目的を定義する

AI モデルは学習が速く、何をすべきかを正確に指示するだけで済みます。モデルの目的を正確に定義することで、モデルが自身の機能と限界を理解できるようにトレーニングできます。これにより、生成された応答をユーザーのプロンプトと目的に合わせて調整することで、モデルが応答を自律的に検証し、明確な結果を提供できるようになります。

AIにおける人間の監視

AI システムのトレーニングは、子供に初めて水泳やサイクリングを教えるのと同じくらい重要です。大人の監督、節度、介入、手助けが必要です。AI の幻覚のほとんどは、AI 開発のさまざまな段階での人間の過失が原因で発生します。適切な専門家を配置し、AI の応答を検証および精査するための人間参加型のワークフローを確保することで、質の高い結果を達成できます。さらに、モデルをさらに改良して、正確性と精度を高めることができます。

シャイプとAI幻覚の防止における私たちの役割

幻覚を引き起こすもう一つの大きな原因は、AIトレーニングデータの質の悪さです。入力したものが結果となります。そのため、Shaipは、最高品質のデータをお客様に確実に提供するために積極的な措置を講じています。 生成AIトレーニング ニーズ。 

当社の厳格な品質保証プロトコルと倫理的に調達されたデータセットは、クリーンな結果を提供するというAIビジョンに最適です。技術的な問題は解決できますが、モデル開発を最初からやり直すことを防ぐために、トレーニングデータの品質に関する懸念を草の根レベルで解決することが重要です。これが、 AIとLLM トレーニング フェーズは Shaip のデータセットから開始する必要があります。 

社会シェア