FlowMaps
#Pocket
Issue Date: 2025-11-26 [Paper Note] Flow Map Distillation Without Data, Shangyuan Tong+, arXiv'25, 2025.11 GPT Summary- フローモデルのサンプリングを加速するために、データ依存性を排除したデータフリーの蒸留手法を提案。教師の事前分布からのみサンプリングし、Teacher-Data Mismatchのリスクを回避。新たなフレームワークにより高い忠実度を確保し、ImageNetで優れたFIDを達成。生成モデルの加速に向けた新たなパラダイムを確立。 Comment
#ComputerVision #Pocket #Distillation #NeurIPS
Issue Date: 2025-10-09 [Paper Note] How to build a consistency model: Learning flow maps via self-distillation, Nicholas M. Boffi+, arXiv'25, 2025.05 GPT Summary- フローに基づく生成モデルの推論効率を改善するため、フローマップを直接学習するアルゴリズムフレームワークを提案。自己蒸留を通じて教師なしでトレーニング可能な方法を示し、オイラー法、ラグランジュ法、進行法の3つのアルゴリズムファミリーを導入。特に新しいラグランジュ法は、安定したトレーニングと高いパフォーマンスを実現。既存のトレーニングスキームを統一し、生成モデルの設計原則を明らかにする。 Comment
#Article #ComputerVision #Blog #FlowMatching #reading #RectifiedFlow
Issue Date: 2025-11-28 生成AI革命の最前線:拡散を超える「流れ」の思想とMambaの台頭, laughman-ai, 2025.10
Issue Date: 2025-11-26 [Paper Note] Flow Map Distillation Without Data, Shangyuan Tong+, arXiv'25, 2025.11 GPT Summary- フローモデルのサンプリングを加速するために、データ依存性を排除したデータフリーの蒸留手法を提案。教師の事前分布からのみサンプリングし、Teacher-Data Mismatchのリスクを回避。新たなフレームワークにより高い忠実度を確保し、ImageNetで優れたFIDを達成。生成モデルの加速に向けた新たなパラダイムを確立。 Comment
元ポスト:
#ComputerVision #Pocket #Distillation #NeurIPS
Issue Date: 2025-10-09 [Paper Note] How to build a consistency model: Learning flow maps via self-distillation, Nicholas M. Boffi+, arXiv'25, 2025.05 GPT Summary- フローに基づく生成モデルの推論効率を改善するため、フローマップを直接学習するアルゴリズムフレームワークを提案。自己蒸留を通じて教師なしでトレーニング可能な方法を示し、オイラー法、ラグランジュ法、進行法の3つのアルゴリズムファミリーを導入。特に新しいラグランジュ法は、安定したトレーニングと高いパフォーマンスを実現。既存のトレーニングスキームを統一し、生成モデルの設計原則を明らかにする。 Comment
元ポスト:
#Article #ComputerVision #Blog #FlowMatching #reading #RectifiedFlow
Issue Date: 2025-11-28 生成AI革命の最前線:拡散を超える「流れ」の思想とMambaの台頭, laughman-ai, 2025.10