Bing AI がおかしくなるのを防ぐため、Microsoft は会話の返信を 5 件までに制限しようとしている。
今週、マイクロソフトの Bing AI がニュースになっているが、その理由はテクノロジー大手が期待していたようなものではなかった。会話が進むほど、AI ボットが驚くべき形で誤動作する可能性が高くなったようです。ユーザーにガスライティングを試みる AI ボットのインスタンスを抑制する取り組みとして、Microsoft は Bing チャットの質問数をセッションごとに 5 問、1 日あたり合計 50 問に制限することを検討しています。
「私たちのデータによると、大多数が探している答えを 5 ターン以内に見つけ、50 件以上のメッセージがあるチャット会話はわずか 1% のみです。」Microsoft Bing ブログ(経由ザ・ヴァージ)。 「チャット セッションが 5 ターンに達すると、新しいトピックを開始するように求められます。各チャット セッションの終了時には、モデルが混乱しないようにコンテキストをクリアする必要があります。」
この話をまだ読んでおらず、AI ボットがどのように混乱するのか疑問に思っている人のために説明すると、会話が長くなるにつれ、Bing AI ボットの不安定な動作がユーザーから報告されています。あニューヨークタイムズの記事は、Bing AI ボットとの 2 時間にわたるやりとりを記録しており、その中でボットの動作は徐々に悪化していきました。ザ・ヴァージボットがユーザーにガスライティングで今年が 2022 年であると信じ込ませようとした例など、Bing AI の奇妙な動作の他の例を投稿しました。危害と報復。
今週の Bing AI のストーリーは確かに興味深いものでした。試してみることに興味がある方は、次のガイドをお読みください。Bing AI にサインアップする方法今日。私たちは今後もこの発展途上のストーリーを追跡し、さらに興味深いストーリーが発生したら報告していきます。
オジーは、5 歳のときに初めて NES コントローラーを手に取って以来、ビデオ ゲームをプレイしています。それ以来ずっとゲームに夢中ですが、大学時代に少しだけ離れただけです。しかし、彼は THQ と Activision の両方の QA サークルで何年も過ごし、主にピーク時の Guitar Hero シリーズを推進するのに時間を費やした後、再び引き戻されました。オジーは、ジャンルをいくつか挙げるだけでも、プラットフォーマー、パズル ゲーム、シューティング ゲーム、RPG の大ファンになっていますが、優れた説得力のある物語が裏にあるものには大の苦手でもあります。新鮮なチェリーコークを飲みながら良いストーリーを楽しめなければ、ビデオゲームとは何でしょうか?