差分
このページの2つのバージョン間の差分を表示します。
| 両方とも前のリビジョン 前のリビジョン 次のリビジョン | 前のリビジョン | ||
| intro:publications [2025/11/26 16:51] – [修士学位請求論文] Hideaki IIDUKA | intro:publications [2025/12/03 23:17] (現在) – [修士学位請求論文] Hideaki IIDUKA | ||
|---|---|---|---|
| 行 6: | 行 6: | ||
| ==== 修士学位請求論文 ==== | ==== 修士学位請求論文 ==== | ||
| - | - 佐藤 尚樹: **Implicit Graduated Optimization with Noise in Stochastic Gradient Descent** | + | - 青木 隼哉: **Variational Inequality–Based Theoretical Analysis of Sharpness-Aware Minimization under Diminishing Learning Rates** |
| - | - 塚田 裕樹: **Convergence Analysis of Mini-batch | + | - 今泉 賢人: **Understanding the Convergence of Quasi-Hyperbolic Momentum as Batch Size Increases** |
| + | - 大和田 佳生: **SFO Complexity and Convergence Analysis of Riemannian | ||
| + | - 加茂 敬資: **Convergence Analysis of Stochastic Gradient Descent | ||
| ==== 卒業論文 ==== | ==== 卒業論文 ==== | ||
| - | - 梅田 | + | - 梅田 |
| - | - 北林 功大: **Polyak ステップサイズを利用した凸最適化のための勾配降下法の収束率** | + | - 海老澤 秀冴: **** |
| - | - 小山 奏良: **Gradient Descent with Wolfe Line Search Step-sizes to Train Deep Neural Networks using Poisoned Dataset** | + | - 川岸 武俊: **** |
| - | - 原田 陽向: **増加バッチサイズと減衰学習率を用いた損失関数の形状の鋭さを考慮した最適化手法の収束解析** | + | |
| - | - 和田 幸志郎: **フィルタリングを利用したカーネマン=トヴェルスキー最適化** | + | - 串間 昭仁: **** |
| - | - 右近 寛夢: **オンライン学習に基づくヘッセ行列近似を用いた準ニュートン法** | + | - 近藤 佑一: **A New Lyapunov-Based Analysis of SGD with Momentum** |
| - | - 松本 陸矢: **凸および非凸最適化のための適応的学習率を伴うモーメンタム法の大域的収束性** | + | - 樋口 侑希: **** |
| - | - 丸山 英希: **定数および減少ステップサイズを利用した確率的勾配降下法の収束性および勾配降下法との比較** | + | - 日吉 |
| + | - 福井 直次郎: **** | ||
| + | - 櫛谷 圭介: **** | ||
| + | - 渡邉 翠: **** | ||