グーグルは、オープンソースのニューラルネットワークを使用して、検索はコンテキストをよりよく理解し、より良い結果を返すことができると述べています。
オンラインで情報を検索するには、創造性が必要な場合があります。クエリの表現方法によっては、Googleが奇妙な結果を返すことがあります。そのため、Googleは本日、「予測できないクエリ」の自然言語をよりよく理解するために検索を改善したことを発表しました。
問題の一部は、私たち不完全な人間が、私 たちが探しているものを綴る方法を常に知っているとは限らないこと、あるいはコンピューターにとって意味のある方法でそれを表現することさえできないということです。クエリを会話で表現すると、ガベージの結果が返されるリスクがあります。そのため、関連する単語を一緒に入力するだけで、Googleが「keyword-ese」と呼ぶものを使用する方がはるかに一般的です。コンピュータアルゴリズムの場合、幼児語に相当するものです。
これに対抗するために、Googleは 、オープンソースのニューラルネットワークを使用して、より優れた自然言語処理のための検索をトレーニングしていると述べています。これは、トランスフォーマーからの双方向エンコーダー表現(BERT)と呼ばれ、一言で言えば、検索アルゴリズムがキーワードだけに依存するのではなく、言語コンテキストを考慮できるようにします。特に、「for」や「to」などの前置詞は、通常の検索につまずく可能性があります。Googleが提供した1つの例 は、「2019ブラジルの米国への旅行者はビザが必要です」というクエリの検索結果でした。BERTを適用する前に、結果はブラジルに旅行する米国市民についてのバックリンクを提供 します。
その人が実際に探していたものとは対照的に、ある程度関連したニュースの結果。
Googleは、近年、Googleアシスタントを使用した自然言語処理で成功を収めています。3つの主要な音声アシスタント(他の2つはSiriとAlexa)のうち、アシスタントは会話のコマンドとクエリを理解して応答 するのに最適です。もちろん、完璧ではありませんが、アパートに3人全員がいるので、Google NestHubと 話すときに使用する正確な言い回しについてそれほど深く考える必要はありません。
Googleによると、BERTを使用すると、米国での英語検索の10分の1が改善されるとのことですが、BERTが将来的に他の言語に展開されないというわけではありません。グーグルは、英語モデルからの改善を取り入れており、現在、韓国語、ヒンディー語、ポルトガル語で大幅な改善が見られていると述べています。