intro:publications

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
intro:publications [2025/06/11 21:25] Naoki SATOintro:publications [2025/09/01 22:49] (現在) – [紀要・講究録] Hideaki IIDUKA
行 15: 行 15:
  
 ==== 紀要・講究録 ==== ==== 紀要・講究録 ====
-  - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **[[https://ojs.aaai.org/index.php/AAAI/article/view/34234|Explicit and Implicit Graduated Optimization in Deep Neural Networks]]**, [[https://aaai.org/proceeding/aaai-39-2025/|Proceedings of the AAAI Conference on Artificial Intelligence]], 39 (19), 20283--20291 (2025)+  - Keisuke Kamo, [[..:iiduka:|Hideaki Iiduka]]: **Increasing Batch Size Improves Convergence of Stochastic Gradient Descent with Momentum**, Proceedings of the 17th Asian Conference on Machine Learning, PMLR ???: ????-???? (2025) 
 +  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|Kanata Oowada]], [[..:iiduka:|Hideaki Iiduka]]: **Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, Proceedings of the 17th Asian Conference on Machine Learning, PMLR ???: ????-???? (2025) 
 +  - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|Kento Imaizumi]], [[..:iiduka:|Hideaki Iiduka]]: **Both Asymptotic and Non-Asymptotic Convergence of Quasi-Hyperbolic Momentum using Increasing Batch Size**, Proceedings of the 17th Asian Conference on Machine Learning, PMLR ???: ????-???? (2025) 
 +  - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **[[https://ojs.aaai.org/index.php/AAAI/article/view/34234|Explicit and Implicit Graduated Optimization in Deep Neural Networks]]**, [[https://aaai.org/proceeding/aaai-39-2025/|Proceedings of the AAAI Conference on Artificial Intelligence]], 39 (19), 20283--20291 (2025) [[https://ojs.aaai.org/index.php/AAAI/article/view/34234|Open Access]]
  
 ==== 賞罰 ==== ==== 賞罰 ====
 +  - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]]: 日本オペレーションズ・リサーチ学会 第43回学生論文賞 (2025年7月28日)
   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]]: [[https://www.google.com/about/careers/applications/buildyourfuture/scholarships/google-conference-scholarships?ohl=default&hl=en_US|Google Conference Scholarship]], **$1500** (AAAI-25への渡航費として) (2025年2月25日)   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]]: [[https://www.google.com/about/careers/applications/buildyourfuture/scholarships/google-conference-scholarships?ohl=default&hl=en_US|Google Conference Scholarship]], **$1500** (AAAI-25への渡航費として) (2025年2月25日)
  
行 35: 行 39:
  
 ==== 講演・口頭発表等(国内) ==== ==== 講演・口頭発表等(国内) ====
 +  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|大和田 佳生]], [[..:iiduka:|飯塚 秀明]]: **Improvements of Computational Efficiency and Convergence Rate of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, 京都大学数理解析研究所 共同研究 (公開型) 非線形解析学と凸解析学の研究, 京都大学数理解析研究所 (2025年9月26日)
 +  - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]], [[..:iiduka:|飯塚 秀明]]: **Muonの収束と最適なバッチサイズの解析**, 日本オペレーションズ・リサーチ学会 2025年秋季研究発表会, 広島大学 東広島キャンパス (2025年9月12日)
 +  - [[https://scholar.google.co.jp/citations?user=RXrwOgoAAAAJ&hl=ja|酒井 裕行]], [[..:iiduka:|飯塚 秀明]]: **リーマン多様体上のミニバッチ適応最適化手法の一般的な枠組みと収束解析**, 日本オペレーションズ・リサーチ学会 2025年秋季研究発表会, 広島大学 東広島キャンパス (2025年9月12日) 
 +  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|大和田 佳生]], [[..:iiduka:|飯塚 秀明]]: **バッチサイズに注目したRiemann多様体上の確率的勾配降下法の計算効率および収束率の向上**, 連続最適化および関連分野に関する夏季学校 2025, 統計数理研究所 (2025年8月28日)
   - [[https://scholar.google.com/citations?hl=ja&user=s9l7NM8AAAAJ|梅田 光瑠]], [[..:iiduka:|飯塚 秀明]]: **バッチサイズと学習率の同時増加による確率的勾配降下法の高速化**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)   - [[https://scholar.google.com/citations?hl=ja&user=s9l7NM8AAAAJ|梅田 光瑠]], [[..:iiduka:|飯塚 秀明]]: **バッチサイズと学習率の同時増加による確率的勾配降下法の高速化**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)
-  - 大和田 佳生, [[..:iiduka:|飯塚 秀明]]: **Riemann多様体上の確率的勾配降下法のバッチサイズと学習率について**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)+  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|大和田 佳生]], [[..:iiduka:|飯塚 秀明]]: **Riemann多様体上の確率的勾配降下法のバッチサイズと学習率について**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)
   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|今泉 賢人]], [[..:iiduka:|飯塚 秀明]]: **非凸最適化における増加バッチサイズと増加または減少慣性係数を使用したモーメンタム法の収束解析**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|今泉 賢人]], [[..:iiduka:|飯塚 秀明]]: **非凸最適化における増加バッチサイズと増加または減少慣性係数を使用したモーメンタム法の収束解析**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)
   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]], [[..:iiduka:|飯塚 秀明]]: **制約付き非凸最適化問題のための確率的Frank-Wolfe法とその敵対的攻撃への応用**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]], [[..:iiduka:|飯塚 秀明]]: **制約付き非凸最適化問題のための確率的Frank-Wolfe法とその敵対的攻撃への応用**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)
  
 ==== 講演・口頭発表等(国外) ==== ==== 講演・口頭発表等(国外) ====
 +  - Keisuke Kamo, [[..:iiduka:|Hideaki Iiduka]]: **Increasing Batch Size Improves Convergence of Stochastic Gradient Descent with Momentum**, [[https://www.acml-conf.org/2025/|The 17th Asian Conference on Machine Learning (ACML2025)]], Taipei, Taiwan (Dec. 9--12, 2025)
 +  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|Kanata Oowada]], [[..:iiduka:|Hideaki Iiduka]]: **Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, [[https://www.acml-conf.org/2025/|The 17th Asian Conference on Machine Learning (ACML2025)]], Taipei, Taiwan (Dec. 9--12, 2025)
 +  - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|Kento Imaizumi]], [[..:iiduka:|Hideaki Iiduka]]: **Both Asymptotic and Non-Asymptotic Convergence of Quasi-Hyperbolic Momentum using Increasing Batch Size**, [[https://www.acml-conf.org/2025/|The 17th Asian Conference on Machine Learning (ACML2025)]], Taipei, Taiwan (Dec. 9--12, 2025)
   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **Explicit and Implicit Graduated Optimization in Deep Neural Networks**, [[https://aaai.org/conference/aaai/aaai-25/|The 39th Annual AAAI Conference on Artificial Intelligence (AAAI-25)]], Pennsylvania Convention Center, Philadelphia, Pennsylvania, USA (Feb. 27 -- Mar. 4, 2025)   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **Explicit and Implicit Graduated Optimization in Deep Neural Networks**, [[https://aaai.org/conference/aaai/aaai-25/|The 39th Annual AAAI Conference on Artificial Intelligence (AAAI-25)]], Pennsylvania Convention Center, Philadelphia, Pennsylvania, USA (Feb. 27 -- Mar. 4, 2025)
  
行 58: 行 69:
  
 ==== 賞罰 ==== ==== 賞罰 ====
-  - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]]: **連続最適化アルゴリズムの探索方向ノイズと深層学習モデルの汎化性能の関係**, [[https://www.tome.jp/business/kenshouronbun_hyoushou.html|第5回とめ研究所若手研究者懸賞論文]] 優秀賞 (賞金10万円) (2024年11月1日)+  - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]]: **連続最適化アルゴリズムの探索方向ノイズと深層学習モデルの汎化性能の関係**, [[https://www.tome.jp/business/kenshouronbun_kako.html|第5回とめ研究所若手研究者懸賞論文]] 優秀賞 (賞金10万円) (2024年11月1日)
   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]]: **確率的勾配降下法の平滑化効果を利用した段階的最適化手法によるディープニューラルネットワークの大域的最適化**, [[https://orsj.org/nc2024s/student_award|日本オペレーションズ・リサーチ学会 2024年春季研究発表会 学生優秀発表賞]] (2024年3月19日)   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]]: **確率的勾配降下法の平滑化効果を利用した段階的最適化手法によるディープニューラルネットワークの大域的最適化**, [[https://orsj.org/nc2024s/student_award|日本オペレーションズ・リサーチ学会 2024年春季研究発表会 学生優秀発表賞]] (2024年3月19日)
 ==== 修士学位請求論文 ==== ==== 修士学位請求論文 ====
  • intro/publications.1749644758.txt.gz
  • 最終更新: 2025/06/11 21:25
  • by Naoki SATO