【2024/04/11】Embeddingモデルを使ったベクトル化のしくみ & fine-tuning手法を解説【アーカイブ】
StudyCo StudyCo
3.45K subscribers
1,585 views
42

 Published On Apr 12, 2024

近年、自然言語処理モデルに関する技術が目覚ましく発展し、さまざまなアプリケーションに活用されるようになってきました。

なかでも、文章ベクトル化 (Embedding) は、検索 (Retrieval) タスクやマルチモーダルなモデルへの応用を考える上では欠かせない技術となっています。

ただ、例えばRAGなどでなんとなく文章ベクトル化に触れたことがあっても、その詳しい仕組みまでは分かっていないという人は少なくないのではないでしょうか。

一口に文章ベクトル化といっても、どのようなモデルを使うかであったり、モデルは同じでもどのベクトル化手法を使うかといった要素で、ベクトルの質は大きく違ってきます。 そういったことを大まかにでも分かっておくことは、今後文章ベクトルを利用する際にも非常に有用なのではないでしょうか。

本講座では、自然言語処理モデル (Transformer) を使った文章の埋め込み手法について触れ、また、どのようにモデルをfine-tuningしていくかについて解説していきます。

===

00:00 はじめに
03:39 Embeddingモデルを使ったベクトル化のしくみ & fine-tuning手法を解説
54:23 告知
56:26 質疑

===

2024/04/11に開催したオンラインセミナーのアーカイブ動画です。

イベントページ:https://studyco.connpass.com/event/31...

===

運営:https://studyco.io

show more

Share/Embed