AI システムに「内なる独白」を与えると、推論能力が大幅に向上することが、新しい研究で明らかになりました。
この方法は、多くの人が話す前に次に何を言うべきかを考えるのと同じように、プロンプトに応答する前に考えるように AI システムを訓練します。 これは、科学者が ChatGPT などの基本的な AI チャットボットを訓練した方法とは異なります。ChatGPT は、ユーザーが入力している内容について「考え」たり、会話の次のステップのさまざまな可能性を予測したりしません。
Quiet-STARと呼ばれるこの新しい方法は、会話プロンプトに応答する前に、いくつかの内部正当化を並行して生成するようAIシステムに指示します。 AI が回答を求めると、これらの予測を根拠の有無にかかわらず組み合わせて生成し、質問の性質に応じて人間の参加者が検証できる最適な回答を出力します。
最後に、彼は、間違っていることが証明された正当化を排除することで学習します。 実際、このトレーニング方法により、AI エージェントは将来の会話を予測し、進行中の会話から学習できるようになります。
関連している: AIの特異点は、私たちが考えているよりも早く、人工「スーパーインテリジェンス」によって2027年に到来する可能性があると主任科学者が語る
研究者らは、Quiet-STAR アルゴリズムをオープンソースの大規模言語モデル (LLM) である Mistral 7B に適用し、その結果を 3 月 14 日にプレプリント データベースで公開しました。 arXiv。 (この論文はまだ査読されていません。)
Quiet-STAR でトレーニングされたバージョンの Mistral 7B は、推論テストで 47.2% のスコアを獲得したのに対し、トレーニング前は 36.3% でした。 しかし、彼は学校の数学のテストに不合格となり、成績は 10.9% でした。 しかし、これはバニラバージョンの初期スコア 5.9% のほぼ 2 倍でした。
ChatGPT や Gemini などのモデルは、ニューラル ネットワークから構築されます。ニューラル ネットワークは、ニューラル ネットワークの構造と学習パターンを模倣する方法で配置された機械学習アルゴリズムのセットです。 人間の心。 ただし、このアーキテクチャを使用して構築されたシステムは、論理的推論やコンテキストが非常に苦手であり、AI チャットボットには本当の「理解」がありません。
LLM 保有者の思考能力を向上させるこれまでの試みは、非常に領域固有のものであり、さまざまな種類の AI モデルに適用することはできませんでした。
研究者らが研究の基礎として使用した主観的推論アルゴリズム (STAR) は、そのようなトレーニング アルゴリズムの一例ですが、これらの制限によって妨げられています。
Quiet-STAR を開発した科学者は、STAR の原理が元のトレーニング データから独立して、バックグラウンドで静かに、また一般にいくつかの異なるタイプの LLM に適用できるため、この名前を付けました。 彼らは現在、彼らのような技術がニューラル ネットワーク ベースの AI システムと人間のような思考能力との間のギャップをどのように埋めることができるかを探求したいと考えています。
「音楽マニア。プロの問題解決者。読者。受賞歴のあるテレビ忍者。」
More Stories
週末の睡眠を補うことで心臓病のリスクが5分の1減少する可能性がある――研究 |心臓病
化石によると、先史時代のカイギュウはワニとサメに食べられた
二つの大陸で同一の恐竜の足跡を発見