現在、ほとんどの大型モデルには数千の小型ユニットが適用されます。これにより、テキストがモデルが理解できる表現に変換されます。ただし、これらのトークンを保存し、エンド ユーザーとの会話を説明するには、すぐにコストが高くなります。この問題により、ユーザーがAIと長時間チャットすると、物事を忘れて情報を入手したり、「コンテキスト」の問題が発生したりする可能性があります。
Groovie によって開発された (そして以前に公開された) 新しいメソッドは、この問題を解決するのに役立ちます。このシステムは、単語を記号として保存するのではなく、本のページを切り取るのと同じように、書かれた情報を絵シートに変換します。これにより、モデルはより少ない文字を使用しながら同じ情報を保持できることが研究者らは発見した。
基本的に、OCR モデルはこれらの新しい手法のテストベッドであり、AI モデルが利用できるデータを最大限に活用します。
さらに、テキストシンボルだけでなく視覚シンボルを使用すると、物理的記憶を妨げるサブリミナル圧縮の形で作成されます。多かれ少なかれ重要なコンテンツは、わずかに明るいか保護されていない形式で保存されます。ただし、この論文の著者らは、この圧縮されたコンテンツは、高レベルのシステム効率を維持しながらバックグラウンドで引き続き利用できると主張しています。
テキストバブルは長い間、AI システムのデフォルトのブロックでした。視覚波を使用することはかなり珍しいため、古代のモデルは急速に研究者の注目を集めています。アンドレイ・カーペット、元テスラ・アイン・A。あるバージョンのテキストは「ステージ上では批判的であり、まったくひどいものになる可能性がある」と彼は書いた。
ノースウェスタン大学コンピューターサイエンス助教授のサディオン・リー氏は、既存のメモリ II 問題に対処する論文を発表しています。 「コンテンツに説明マーカーを使用するというアイデアはまったく新しいものではありませんが、これはそれをそこまで進めて実際に機能することを示した最初の研究です。」