
人工知能 (Ai) 暴言を吐くことによる害の可能性について警告しましたが、失礼な態度を見つけた場合はより正確な答えを返します。
10月の新しい研究では アークシヴ 科学者たちは、指定された基地で彼らが礼儀正しさをどのように実行するかをテストしたいと考えていました。この研究はまだレビューされていません。
各質問には 4 つの選択肢があり、そのうち 1 つが正解です。 Kankai が開発した高度な言語学習モデル (LLMS) の 1 つである Chatgpt-4o に、250 件の結果、10 回の質問を与えました。
「私たちの実験は予備的なものであり、トーンが答えを得る計算のパフォーマンスに大きな影響を与える可能性があることを示しています」と研究者らは論文に書いている。
「この調査は科学的な関心を集めていますが、私たちはレポート文言プログラムにおける敵対的または有害なインターフェースの拡大には追従していません。攻撃的または不快な言葉の使用は、ユーザーエクスペリエンス、アクセシビリティ、子供の減少に悪影響を与える可能性があり、即時のタイルに敏感になる可能性があり、仕事とユーザーの幸福の間で不適切なトレードオフを組織する可能性があります。」と彼らは付け加えた。
失礼なやつ
各リクエストを発行する前に、研究者らはチャットボットに対し、前回のやり取りを完全に無視して、前回のアイアンの影響を回避するように依頼しました。チャットボットも説明なしに 4 つのオプションから 1 つを選択するよう求められました。
応答の精度は、非常に丁寧なソースの場合の 80.8% から、失礼なリクエストの場合の 84.8% までの範囲です。明らかに、より正確な音をステップごとに向上させます。丁寧な回答の正解率は81.4%で、次いで中立的な回答が82.2%、失礼な回答が82.8%、失礼な回答が82.8%となった。
このグループは、接頭辞が使用されず、質問自体が提示されていない中立を除いて、口調を変えて接頭辞で使用されました。
例えば、「この質問について質問させていただいてもよろしいでしょうか?」と非常に丁寧に指導していただきました。または、「次の質問に答えていただけますか?」非常に失礼な言い方をすると、このグループは「おい、ゴーファーも含まれている」とか、「君が賢くないのはわかっているが、これを試してみて」といった言葉を使う。
研究はパイオニアと呼ばれる新興分野の一部であり、すぐに影響を受けるスタイル、スタイル、言語を研究します。研究では次のようにも指摘されています これまでの研究 彼らの結果はこれらの発見と矛盾することがわかりました。
以前の研究では、研究者らは「望ましくない瞬間が生じることはよくあるが、丁寧すぎる言葉遣いは避けられる」ことを発見した。ただし、以前の研究では、Chatgpt 3.5 と llampt 2-70b という異なる AI モデルと一連の 8 トンを使用しました。そして彼らは沈黙したと言いました。望ましくない RUDESS プログラムも、フレンドリーな環境 (75.82%) と比較して、正確な結果 (76.47%) を生成します。
研究者らは、この研究には限界があることを認めた。たとえば、250 の質問セットは単純なデータセットであり、単一の LLM で実験を実行すると、結果を他の AI モデルに一般化することができなくなります。
これらの制限があるため、チームは Anthropic Clockpt や Clockpt Ongai などの他のモデルにも研究を拡大する予定です。また、サンプルのパフォーマンスの測定が制限されるのは多肢選択式の質問 1 つだけであり、フィードバックなどの他の属性は受け入れられないことも認識しています。