大規模言語モデルをLoRAで低コストかつ効率的に微調整できる「Punica」が登場

Low Rank Adapation(LoRA)はAIへの追加学習を少ない計算量で行うためのモデルです。このLoRAを使って、事前トレーニングされた大規模言語モデルに低コストかつ効率的にファインチューニング(微調整)を行えるシステム「Punica」を、ワシントン大学とデューク大学の研究チームが公開しました。続きを読む……

このサイトの記事を見る

投稿者: 管理者