コンテンツにスキップ

ファインチューニング

Workers AIを使用してファインチューニングされた推論を行う方法を学びましょう。

LoRAによるファインチューニング推論

LoRAアダプターをアップロードし、私たちのベースモデルの1つでファインチューニングされた推論を実行します。


ファインチューニングとは?

ファインチューニングは、追加のデータでモデルのトレーニングを続けることによってAIモデルを修正する一般的な用語です。ファインチューニングの目的は、生成物があなたのデータセットに似ている確率を高めることです。多くのユースケースにおいて、ゼロからモデルをトレーニングすることは実用的ではなく、トレーニングには高いコストと時間がかかります。既存の事前トレーニング済みモデルをファインチューニングすることで、その能力を活用しながら、望むタスクを達成することができます。

Low-Rank Adaptation (LoRA)は、さまざまなモデルアーキテクチャに適用できる特定のファインチューニング手法です。従来のファインチューニング手法では、事前トレーニング済みモデルの重みが直接修正されたり、追加のファインチューニング重みと融合されたりすることが一般的です。一方、LoRAでは、ファインチューニング重みと事前トレーニング済みモデルを別々に保ち、事前トレーニング済みモデルを変更しないことができます。その結果、特定のタスク、例えばコード生成、特定の個性を持つこと、特定のスタイルで画像を生成することにおいて、より正確なモデルをトレーニングすることが可能になります。