位置エンコーディングの理解

問題

以下の文章の空欄 ( あ ) ~ ( う ) に入る語句の組み合わせとして最も適切なものを1つ選べ。
Transformerモデルは、RNNのように時系列データを順番に処理するのではなく、自己注意機構(Self-Attention)を用いて入力系列全体を ( あ ) に処理する。この仕組みにより計算効率は大幅に向上したが、単語の ( い ) をモデルが認識できないという問題が生じた。これを解決するために、入力される各単語の埋め込みベクトルに対して、サイン波やコサイン波などの周期関数を用いて計算された位置情報ベクトルを加算する手法を ( う ) と呼ぶ。

同じカテゴリの問題

カテゴリを選択する

他のカテゴリを選択する