Slide
#RecommenderSystems#Tutorial#InteractiveRecommenderSystems
Issue Date: 2017-12-28 Interactive Recommender Systems, Netflix, RecSys15, 2015.09 #Article#Survey#ComputerVision#Pocket#NLP#LanguageModel
Issue Date: 2024-11-18 Large Vision Language Model (LVLM)に関する知見まとめ, Daiki Shiono, 2024.11 #Article#Efficiency/SpeedUp#Pocket#LanguageModel
Issue Date: 2024-11-14 TensorRT-LLMによる推論高速化, Hiroshi Matsuda, NVIDIA AI Summit 2024.11 Comment元ポスト:https://x.com/hmtd223/status/1856887876665184649?s=46&t=Y6UuIHB0Lv0IpmFAjlc2-Q非常に興味深いので後で読む ...
Issue Date: 2017-12-28 Interactive Recommender Systems, Netflix, RecSys15, 2015.09 #Article#Survey#ComputerVision#Pocket#NLP#LanguageModel
Issue Date: 2024-11-18 Large Vision Language Model (LVLM)に関する知見まとめ, Daiki Shiono, 2024.11 #Article#Efficiency/SpeedUp#Pocket#LanguageModel
Issue Date: 2024-11-14 TensorRT-LLMによる推論高速化, Hiroshi Matsuda, NVIDIA AI Summit 2024.11 Comment元ポスト:https://x.com/hmtd223/status/1856887876665184649?s=46&t=Y6UuIHB0Lv0IpmFAjlc2-Q非常に興味深いので後で読む ...
#Article#Pocket#LanguageModel
Issue Date: 2024-10-05 今日から始める大規模言語モデルのプロダクト活用, y_matsuwitter, 2024.10 #Article#Pocket#Management
Issue Date: 2024-09-25 NLP Experimental Design, Graham Neubig, 2024 #Article#RecommenderSystems
Issue Date: 2024-09-15 クリックを最大化しない推薦システム, Ryoma Sato, 2024.01 Commentおもしろそうなので後で読むクリック率やコンバージョン率に最適化することが従来のやり方だが、クリックベイトのため粗悪なコンテンツを推薦してしまったり、人気のあるアイテムに推薦リストが偏ってしまい、長期的なユーザの利益を害するという話。20年くらい前からこの辺をなんとかするために、推薦のセレンディピティ ... #Article
Issue Date: 2024-09-03 AI時代を生き抜くために処理をちゃんと書けるようになろう, きしだ なおき, LINEヤフー, 2024.01 #Article#Analysis#LanguageModel#OpenWeightLLM#Japanese
Issue Date: 2024-09-03 LLMに日本語テキストを学習させる意義, Koshiro Saito+, 第261回自然言語処理研究発表会, 2024.08 Comment英日翻訳や日本特有の知識を問われるようなQAにおいて、日本語データによる学習の効果があることが示唆されている模様。たとえば、#1359 に示されている通り、Llama2における日本語データの割合は0.2%とかなので、英語圏のOpenLLMにおいて、日本語データの比率がどれだけ少ないかがわかる。 ... #Article#Tutorial#LanguageModel
Issue Date: 2024-09-01 大規模言語モデル (LLM) の技術と最新動向, Ikuya Yamada, 2024.06 CommentLLMの原理の基礎的な内容について、丁寧かつコンパクトにまとまっている。 >ファインチューニングは新しい知識の学習ではなく知識の使い方を学習させるのに向いている これをきちんと念頭に置いておかないと落とし穴にハマると思う。引用元の論文読みたい(#1371)。画像は資料中より引用。LLMの作り方に ... #Article#Tutorial#NLP#LanguageModel#OpenWeightLLM
Issue Date: 2024-08-26 論文紹介 _ The Llama 3 Herd of Models, 2024.08 CommentLlama3の事前学習や事後学習のノウハウが詰まっており(安全性なども含む)、LLM学習に必要な要素が図解されており、非常に分かりやすい。 たとえば下記図(スライド中より引用)などは、LLMの学習過程を説明する際にわかりやすそう ![image](https://github.com/useLLM ... #Article#Pocket#Management
Issue Date: 2024-08-10 現代的システム開発概論2024, 2024.08
Issue Date: 2024-10-05 今日から始める大規模言語モデルのプロダクト活用, y_matsuwitter, 2024.10 #Article#Pocket#Management
Issue Date: 2024-09-25 NLP Experimental Design, Graham Neubig, 2024 #Article#RecommenderSystems
Issue Date: 2024-09-15 クリックを最大化しない推薦システム, Ryoma Sato, 2024.01 Commentおもしろそうなので後で読むクリック率やコンバージョン率に最適化することが従来のやり方だが、クリックベイトのため粗悪なコンテンツを推薦してしまったり、人気のあるアイテムに推薦リストが偏ってしまい、長期的なユーザの利益を害するという話。20年くらい前からこの辺をなんとかするために、推薦のセレンディピティ ... #Article
Issue Date: 2024-09-03 AI時代を生き抜くために処理をちゃんと書けるようになろう, きしだ なおき, LINEヤフー, 2024.01 #Article#Analysis#LanguageModel#OpenWeightLLM#Japanese
Issue Date: 2024-09-03 LLMに日本語テキストを学習させる意義, Koshiro Saito+, 第261回自然言語処理研究発表会, 2024.08 Comment英日翻訳や日本特有の知識を問われるようなQAにおいて、日本語データによる学習の効果があることが示唆されている模様。たとえば、#1359 に示されている通り、Llama2における日本語データの割合は0.2%とかなので、英語圏のOpenLLMにおいて、日本語データの比率がどれだけ少ないかがわかる。 ... #Article#Tutorial#LanguageModel
Issue Date: 2024-09-01 大規模言語モデル (LLM) の技術と最新動向, Ikuya Yamada, 2024.06 CommentLLMの原理の基礎的な内容について、丁寧かつコンパクトにまとまっている。 >ファインチューニングは新しい知識の学習ではなく知識の使い方を学習させるのに向いている これをきちんと念頭に置いておかないと落とし穴にハマると思う。引用元の論文読みたい(#1371)。画像は資料中より引用。LLMの作り方に ... #Article#Tutorial#NLP#LanguageModel#OpenWeightLLM
Issue Date: 2024-08-26 論文紹介 _ The Llama 3 Herd of Models, 2024.08 CommentLlama3の事前学習や事後学習のノウハウが詰まっており(安全性なども含む)、LLM学習に必要な要素が図解されており、非常に分かりやすい。 たとえば下記図(スライド中より引用)などは、LLMの学習過程を説明する際にわかりやすそう ![image](https://github.com/useLLM ... #Article#Pocket#Management
Issue Date: 2024-08-10 現代的システム開発概論2024, 2024.08