intro:publications

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
intro:publications [2025/11/26 16:52] – [修士学位請求論文] Hideaki IIDUKAintro:publications [2025/12/03 23:17] (現在) – [修士学位請求論文] Hideaki IIDUKA
行 6: 行 6:
  
 ==== 修士学位請求論文 ==== ==== 修士学位請求論文 ====
-  - 青木 隼哉: **??** +  - 青木 隼哉: **Variational Inequality–Based Theoretical Analysis of Sharpness-Aware Minimization under Diminishing Learning Rates** 
-  - 今泉 賢人: **??** +  - 今泉 賢人: **Understanding the Convergence of Quasi-Hyperbolic Momentum as Batch Size Increases** 
-  - 大和田 佳生: **??** +  - 大和田 佳生: **SFO Complexity and Convergence Analysis of Riemannian Stochastic Gradient Descent with Increasing Batch Size** 
-  - 加茂 敬資: **??**+  - 加茂 敬資: **Convergence Analysis of Stochastic Gradient Descent with Momentum under Increasing Batch Size**
  
 ==== 卒業論文 ==== ==== 卒業論文 ====
-  - 梅田 泰希: **線形およびコサインアニーリング学習率を用いた確率的勾配降下法の収束解析** +  - 梅田 光瑠: **** 
-  - 北林 功大: **Polyak ステップサイズを利用した凸最適化のための勾配降下法の収束率** +  - 海老澤 秀冴: **** 
-  - 小山 奏良: **Gradient Descent with Wolfe Line Search Step-sizes to Train Deep Neural Networks using Poisoned Dataset** +  - 川岸 武俊: **** 
-  - 原田 陽向: **増加バッチサイズと減衰学習率を用いた損失関数の形状の鋭さを考慮した最適化手法の収束解析** +  河本 佑太: **Expected Smoothness: A Tool for Analyzing SGD Convergence** 
-  - 和田 幸志郎: **フィルタリングを利用したカーネマン=トヴェルスキー最適化** +  - 串間 昭仁: **** 
-  - 右近 寛夢: **オンライン学習に基づくヘッセ行列近似を用いた準ニュートン法** +  - 近藤 佑一: **A New Lyapunov-Based Analysis of SGD with Momentum** 
-  - 松本 陸矢: **凸および非凸最適化のための適応的学習率を伴うモーメンタム法の大域的収束性** +  - 樋口 侑希: **** 
-  - 丸山 英希: **定数および減少ステップサイズを利用した確率的勾配降下法の収束性および勾配降下法との比較**+  - 日吉 : **** 
 +  - 福井 直次郎: **** 
 +  - 櫛谷 圭介: **** 
 +  - 渡邉 翠: ****
  
  
  • intro/publications.1764143566.txt.gz
  • 最終更新: 2025/11/26 16:52
  • by Hideaki IIDUKA