差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン 前のリビジョン 次のリビジョン | 前のリビジョン | ||
| intro:publications [2025/10/24 15:06] – [紀要・講究録] Naoki SATO | intro:publications [2025/12/03 23:17] (現在) – [修士学位請求論文] Hideaki IIDUKA | ||
|---|---|---|---|
| 行 2: | 行 2: | ||
| ===== プレプリント ===== | ===== プレプリント ===== | ||
| - [[https:// | - [[https:// | ||
| + | |||
| + | ===== 2026年 ===== | ||
| + | |||
| + | ==== 修士学位請求論文 ==== | ||
| + | - 青木 隼哉: **Variational Inequality–Based Theoretical Analysis of Sharpness-Aware Minimization under Diminishing Learning Rates** | ||
| + | - 今泉 賢人: **Understanding the Convergence of Quasi-Hyperbolic Momentum as Batch Size Increases** | ||
| + | - 大和田 佳生: **SFO Complexity and Convergence Analysis of Riemannian Stochastic Gradient Descent with Increasing Batch Size** | ||
| + | - 加茂 敬資: **Convergence Analysis of Stochastic Gradient Descent with Momentum under Increasing Batch Size** | ||
| + | |||
| + | ==== 卒業論文 ==== | ||
| + | - 梅田 光瑠: **** | ||
| + | - 海老澤 秀冴: **** | ||
| + | - 川岸 武俊: **** | ||
| + | - 河本 佑太: **Expected Smoothness: A Tool for Analyzing SGD Convergence** | ||
| + | - 串間 昭仁: **** | ||
| + | - 近藤 佑一: **A New Lyapunov-Based Analysis of SGD with Momentum** | ||
| + | - 樋口 侑希: **** | ||
| + | - 日吉 和馬: **** | ||
| + | - 福井 直次郎: **** | ||
| + | - 櫛谷 圭介: **** | ||
| + | - 渡邉 翠: **** | ||
| + | |||
| ===== 2025年 ===== | ===== 2025年 ===== | ||
| - | ==== 著書 ==== | + | |
| ==== レフェリー付き原著論文 ==== | ==== レフェリー付き原著論文 ==== | ||