Microsoft、AIの誤った回答は「明らかに間違っている」と主張して正当化

Microsoftは、AIツールのユーザーに対し、AIが不正確な答えを与える可能性を認識し、それを修正するよう提案している。

Powerpoint、Teams、Outlook などの Office アプリ向けの Microsoft の新しい AI を活用したチャット テクノロジである Copilot の機能の概要を説明するオンライン プレゼンテーションで、同社は AI が誤った回答をするという以前の問題を取り上げました。たとえば、2 月に Microsoft が OpenAI を使用して作成した Bing チャット ツールのデモを公開したとき、誤った回答が返されることが判明した例がありました。

CNBC が報じたように、研究者らは AI で見られるこの現象を「幻覚」と呼び始めています。これは確かに興味深い説明方法です。しかし、マイクロソフトは最近、さらに一歩進んで、これらの誤った回答を「明らかに間違っている」と説明しました。 Microsoft はまた、Copilot が不正確な応答を提供する可能性があることを人々が認識している限り、ユーザーはそれを編集し、電子メールをすばやく送信したり、プレゼンテーションのスライドを仕上げたりするためにツールを使用することができるとも指摘しました。

「たとえば、家族の誕生日を祝うメールを作成したい場合、Copilot は、間違った生年月日が表示されたとしても役立ちます。 Microsoft の見解では、このツールがテキストを生成するという単なる事実だけで時間を節約でき、したがって有用であると考えています。人々はただ細心の注意を払い、テキストに間違いが含まれていないことを確認する必要があります。」CNBCの報道ではこう説明されている

©マイクロソフト

CNBCはまた、Microsoftのチーフサイエンティスト、Jaime Teevan氏が以前、Copilotが間違っていたり、偏見があったり、悪用されたりした場合にMicrosoftは「緩和策を講じている」と断言したことを引用した。 「我々は間違いを犯すだろうが、間違いを犯した場合にはすぐに対処するだろう」とティーバン氏は語った。

不正確な情報を与えたり、間違いを犯したりする可能性のある AI に Microsoft がどのように取り組んでいくのか、今後は興味深いところです。ただし、Microsoft がこの問題を認識しており、解決に取り組んでいると聞いてうれしいです。

Microsoft の AI への取り組みの詳細については、以下を含む以前の報道を必ずご覧ください。Microsoft、AI を活用した Office ツール 365 Copilot を披露AI プレゼンテーションでの様子とその様子BingはAIチャットの返信を5回までに制限している長くて奇妙な会話を防ぐため。

モーガンはメイン州の凍った荒野出身のライターで、メタル ミュージック、KPOP、ホラー、インディー ゲームを楽しんでいます。彼らはテトリス熱狂者でもあり、テトリス 99 などのゲームやゲーム全般で熾烈な競争を繰り広げています。でもほとんどテトリスです。 Twitter でモーガンをフォローできます@Author_MShaver