差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン 前のリビジョン 次のリビジョン | 前のリビジョン | ||
| intro:publications [2025/11/26 16:51] – [2026年] Hideaki IIDUKA | intro:publications [2025/12/03 23:17] (現在) – [修士学位請求論文] Hideaki IIDUKA | ||
|---|---|---|---|
| 行 6: | 行 6: | ||
| ==== 修士学位請求論文 ==== | ==== 修士学位請求論文 ==== | ||
| - | - 佐藤 尚樹: **Implicit Graduated Optimization with Noise in Stochastic Gradient Descent** | + | - 青木 隼哉: **Variational Inequality–Based Theoretical Analysis of Sharpness-Aware Minimization under Diminishing Learning Rates** |
| - | - 塚田 裕樹: **Convergence Analysis of Mini-batch | + | - 今泉 賢人: **Understanding the Convergence of Quasi-Hyperbolic Momentum as Batch Size Increases** |
| + | - 大和田 佳生: **SFO Complexity and Convergence Analysis of Riemannian | ||
| + | - 加茂 敬資: **Convergence Analysis of Stochastic Gradient Descent | ||
| + | ==== 卒業論文 ==== | ||
| + | - 梅田 光瑠: **** | ||
| + | - 海老澤 秀冴: **** | ||
| + | - 川岸 武俊: **** | ||
| + | - 河本 佑太: **Expected Smoothness: A Tool for Analyzing SGD Convergence** | ||
| + | - 串間 昭仁: **** | ||
| + | - 近藤 佑一: **A New Lyapunov-Based Analysis of SGD with Momentum** | ||
| + | - 樋口 侑希: **** | ||
| + | - 日吉 和馬: **** | ||
| + | - 福井 直次郎: **** | ||
| + | - 櫛谷 圭介: **** | ||
| + | - 渡邉 翠: **** | ||