初心者にもわかりやすく、ChatGPTをはじめとした近年話題のLLM(Large Language Model)の中身について解説します。また、LLMを大規模に学習するだけではなく、LLMを動かして利用すること(推論)が重要になりつつあることを踏まえ、LLMの推論システムのサービングが難しい理由と、それに対応するための小規模化や量子化などの最近のモデルサイズを減らす工夫についてもお話しします。
Preferred NetworksでLLMの学習・評価基盤とLLMサービス「PLaMo」 https://plamo.preferredai.jp/ の開発に携わっています。C++が好きです。
エンジニアの生産性最大化をミッションに持つ私たちのチームでは、セキュリティにも最大
Woven by Toyotaが、これまで取り組んできたFinOps活動について紹
本セッションでは、eBPFの基本的なアーキテクチャを解説し、安全性を支える重要な仕
クラウドネイティブ環境でのアプリケーション開発が進む中、マイクロサービスアーキテク