intro:publications

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
intro:publications [2026/01/01 12:34] – [博士学位請求論文] Hideaki IIDUKAintro:publications [2026/01/22 23:12] (現在) – [紀要・講究録] Naoki SATO
行 4: 行 4:
  
 ===== 2026年 ===== ===== 2026年 =====
 +
 +==== 紀要・講究録 ====
 +  - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **Lipschitz Multiscale Deep Equilibrium Models: A Theoretically Guaranteed and Accelerated Approach**, Proceedings of the 29th International Conference on Artificial Intelligence and Statistics, PMLR 300: ????--???? (2026)
  
 ==== 博士学位請求論文 ==== ==== 博士学位請求論文 ====
-  - 酒井裕行: **Riemannian Adaptive Optimization Algorithms and Their Applications** (邦文題リーマン多様体上の適応的最適化アルゴリズムとその応用), 明治大学, 2026 +  - 酒井裕行: **Riemannian Adaptive Optimization Algorithms and Their Applications** (邦文題リーマン多様体上の適応的最適化アルゴリズムとその応用), 明治大学, 2026 
  
 ==== 修士学位請求論文 ==== ==== 修士学位請求論文 ====
行 26: 行 29:
   - 櫛谷 圭介: **凸関数に対する DP-Clipped-SGD の収束解析**   - 櫛谷 圭介: **凸関数に対する DP-Clipped-SGD の収束解析**
   - 渡邉 翠: **PoNoS 直線探索を利用した確率的勾配降下法の収束解析**   - 渡邉 翠: **PoNoS 直線探索を利用した確率的勾配降下法の収束解析**
 +
 +==== 講演・口頭発表等 ====
 +  - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **Lipschitz Multiscale Deep Equilibrium Models: A Theoretically Guaranteed and Accelerated Approach**, [[https://virtual.aistats.org/|The 29th International Conference on Artificial Intelligence and Statistics (AISTATS)]], Tangier, Morocco (May. 2 -- Mar. 5, 2026)
  
  
行 41: 行 47:
 ==== 紀要・講究録 ==== ==== 紀要・講究録 ====
   - Keisuke Kamo, [[..:iiduka:|Hideaki Iiduka]]: **Increasing Batch Size Improves Convergence of Stochastic Gradient Descent with Momentum**, Proceedings of the 17th Asian Conference on Machine Learning, PMLR 304: ????-???? (2025)   - Keisuke Kamo, [[..:iiduka:|Hideaki Iiduka]]: **Increasing Batch Size Improves Convergence of Stochastic Gradient Descent with Momentum**, Proceedings of the 17th Asian Conference on Machine Learning, PMLR 304: ????-???? (2025)
-  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|Kanata Oowada]], [[..:iiduka:|Hideaki Iiduka]]: **Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, Proceedings of the 17th Asian Conference on Machine Learning, PMLR 304: ????-???? (2025)+  - [[https://scholar.google.com/citations?user=3U-XTE0AAAAJ&hl=ja|Kanata Oowada]], [[..:iiduka:|Hideaki Iiduka]]: **Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, Proceedings of the 17th Asian Conference on Machine Learning, PMLR 304: ????-???? (2025)
   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|Kento Imaizumi]], [[..:iiduka:|Hideaki Iiduka]]: **Both Asymptotic and Non-Asymptotic Convergence of Quasi-Hyperbolic Momentum using Increasing Batch Size**, Proceedings of the 17th Asian Conference on Machine Learning, PMLR 304: ????-???? (2025)   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|Kento Imaizumi]], [[..:iiduka:|Hideaki Iiduka]]: **Both Asymptotic and Non-Asymptotic Convergence of Quasi-Hyperbolic Momentum using Increasing Batch Size**, Proceedings of the 17th Asian Conference on Machine Learning, PMLR 304: ????-???? (2025)
   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **[[https://ojs.aaai.org/index.php/AAAI/article/view/34234|Explicit and Implicit Graduated Optimization in Deep Neural Networks]]**, [[https://aaai.org/proceeding/aaai-39-2025/|Proceedings of the AAAI Conference on Artificial Intelligence]], 39 (19), 20283--20291 (2025) [[https://ojs.aaai.org/index.php/AAAI/article/view/34234|Open Access]]   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **[[https://ojs.aaai.org/index.php/AAAI/article/view/34234|Explicit and Implicit Graduated Optimization in Deep Neural Networks]]**, [[https://aaai.org/proceeding/aaai-39-2025/|Proceedings of the AAAI Conference on Artificial Intelligence]], 39 (19), 20283--20291 (2025) [[https://ojs.aaai.org/index.php/AAAI/article/view/34234|Open Access]]
行 47: 行 53:
 ==== 賞罰 ==== ==== 賞罰 ====
   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|今泉 賢人]]: [[https://www.denkidenshi.or.jp/tokojyosei.html|公益財団法人電気電子情報学術振興財団]], **15万円** (ACML2025への渡航費として) (2025年12月11日)   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|今泉 賢人]]: [[https://www.denkidenshi.or.jp/tokojyosei.html|公益財団法人電気電子情報学術振興財団]], **15万円** (ACML2025への渡航費として) (2025年12月11日)
-  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|Kanata Oowada]], [[..:iiduka:|Hideaki Iiduka]]: **Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, ACML2025 Best Paper Runner-Up Award (2025年12月10日)  +  - [[https://scholar.google.com/citations?user=3U-XTE0AAAAJ&hl=ja|Kanata Oowada]], [[..:iiduka:|Hideaki Iiduka]]: **Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, ACML2025 Best Paper Runner-Up Award (2025年12月10日)  
-  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|大和田 佳生]]: [[https://www.marubun-zaidan.jp/kokusai.html|一般社団法人丸文財団 国際交流助成]], **10万円** (ACML2025への渡航費として) (2025年10月21日)+  - [[https://scholar.google.com/citations?user=3U-XTE0AAAAJ&hl=ja|大和田 佳生]]: [[https://www.marubun-zaidan.jp/kokusai.html|一般社団法人丸文財団 国際交流助成]], **10万円** (ACML2025への渡航費として) (2025年10月21日)
   - [[https://scholar.google.co.jp/citations?user=RXrwOgoAAAAJ&hl=ja|酒井 裕行]]: **リーマン多様体上のミニバッチ適応最適化手法の一般的な枠組みと収束解析**, [[https://orsj.org/2025f/conference/student_award/|日本オペレーションズ・リサーチ学会 2025年秋季研究発表会 学生優秀発表賞]] (2025年9月26日)   - [[https://scholar.google.co.jp/citations?user=RXrwOgoAAAAJ&hl=ja|酒井 裕行]]: **リーマン多様体上のミニバッチ適応最適化手法の一般的な枠組みと収束解析**, [[https://orsj.org/2025f/conference/student_award/|日本オペレーションズ・リサーチ学会 2025年秋季研究発表会 学生優秀発表賞]] (2025年9月26日)
   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]]: [[https://orsj.org/award-history|日本オペレーションズ・リサーチ学会 第43回学生論文賞]] (2025年7月28日) {{:intro:naoki_sato_master.pdf|PDF}}   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]]: [[https://orsj.org/award-history|日本オペレーションズ・リサーチ学会 第43回学生論文賞]] (2025年7月28日) {{:intro:naoki_sato_master.pdf|PDF}}
行 68: 行 74:
  
 ==== 講演・口頭発表等(国内) ==== ==== 講演・口頭発表等(国内) ====
-  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|大和田 佳生]], [[..:iiduka:|飯塚 秀明]]: **Improvements of Computational Efficiency and Convergence Rate of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, 京都大学数理解析研究所 共同研究 (公開型) 非線形解析学と凸解析学の研究, 京都大学数理解析研究所 (2025年9月26日)+  - [[https://scholar.google.com/citations?user=3U-XTE0AAAAJ&hl=ja|大和田 佳生]], [[..:iiduka:|飯塚 秀明]]: **Improvements of Computational Efficiency and Convergence Rate of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, 京都大学数理解析研究所 共同研究 (公開型) 非線形解析学と凸解析学の研究, 京都大学数理解析研究所 (2025年9月26日)
   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]], [[https://scholar.google.co.jp/citations?user=xx7O2voAAAAJ&hl=ja|長沼 大樹]], [[..:iiduka:|飯塚 秀明]]: **Muonの収束と最適なバッチサイズの解析**, 日本オペレーションズ・リサーチ学会 2025年秋季研究発表会, 広島大学 東広島キャンパス (2025年9月12日)   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]], [[https://scholar.google.co.jp/citations?user=xx7O2voAAAAJ&hl=ja|長沼 大樹]], [[..:iiduka:|飯塚 秀明]]: **Muonの収束と最適なバッチサイズの解析**, 日本オペレーションズ・リサーチ学会 2025年秋季研究発表会, 広島大学 東広島キャンパス (2025年9月12日)
   - [[https://scholar.google.co.jp/citations?user=RXrwOgoAAAAJ&hl=ja|酒井 裕行]], [[..:iiduka:|飯塚 秀明]]: **リーマン多様体上のミニバッチ適応最適化手法の一般的な枠組みと収束解析**, 日本オペレーションズ・リサーチ学会 2025年秋季研究発表会, 広島大学 東広島キャンパス (2025年9月12日)    - [[https://scholar.google.co.jp/citations?user=RXrwOgoAAAAJ&hl=ja|酒井 裕行]], [[..:iiduka:|飯塚 秀明]]: **リーマン多様体上のミニバッチ適応最適化手法の一般的な枠組みと収束解析**, 日本オペレーションズ・リサーチ学会 2025年秋季研究発表会, 広島大学 東広島キャンパス (2025年9月12日) 
-  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|大和田 佳生]], [[..:iiduka:|飯塚 秀明]]: **バッチサイズに注目したRiemann多様体上の確率的勾配降下法の計算効率および収束率の向上**, 連続最適化および関連分野に関する夏季学校 2025, 統計数理研究所 (2025年8月28日)+  - [[https://scholar.google.com/citations?user=3U-XTE0AAAAJ&hl=ja|大和田 佳生]], [[..:iiduka:|飯塚 秀明]]: **バッチサイズに注目したRiemann多様体上の確率的勾配降下法の計算効率および収束率の向上**, 連続最適化および関連分野に関する夏季学校 2025, 統計数理研究所 (2025年8月28日)
   - [[https://scholar.google.com/citations?hl=ja&user=s9l7NM8AAAAJ|梅田 光瑠]], [[..:iiduka:|飯塚 秀明]]: **バッチサイズと学習率の同時増加による確率的勾配降下法の高速化**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)   - [[https://scholar.google.com/citations?hl=ja&user=s9l7NM8AAAAJ|梅田 光瑠]], [[..:iiduka:|飯塚 秀明]]: **バッチサイズと学習率の同時増加による確率的勾配降下法の高速化**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)
-  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|大和田 佳生]], [[..:iiduka:|飯塚 秀明]]: **Riemann多様体上の確率的勾配降下法のバッチサイズと学習率について**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)+  - [[https://scholar.google.com/citations?user=3U-XTE0AAAAJ&hl=ja|大和田 佳生]], [[..:iiduka:|飯塚 秀明]]: **Riemann多様体上の確率的勾配降下法のバッチサイズと学習率について**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)
   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|今泉 賢人]], [[..:iiduka:|飯塚 秀明]]: **非凸最適化における増加バッチサイズと増加または減少慣性係数を使用したモーメンタム法の収束解析**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|今泉 賢人]], [[..:iiduka:|飯塚 秀明]]: **非凸最適化における増加バッチサイズと増加または減少慣性係数を使用したモーメンタム法の収束解析**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)
   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]], [[..:iiduka:|飯塚 秀明]]: **制約付き非凸最適化問題のための確率的Frank-Wolfe法とその敵対的攻撃への応用**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|佐藤 尚樹]], [[..:iiduka:|飯塚 秀明]]: **制約付き非凸最適化問題のための確率的Frank-Wolfe法とその敵対的攻撃への応用**, 日本オペレーションズ・リサーチ学会 2025年春季研究発表会, 成蹊大学 (2025年3月6日)
行 79: 行 85:
 ==== 講演・口頭発表等(国外) ==== ==== 講演・口頭発表等(国外) ====
   - Keisuke Kamo, [[..:iiduka:|Hideaki Iiduka]]: **Increasing Batch Size Improves Convergence of Stochastic Gradient Descent with Momentum**, [[https://www.acml-conf.org/2025/|The 17th Asian Conference on Machine Learning (ACML2025)]], Taipei, Taiwan (Dec. 9--12, 2025)   - Keisuke Kamo, [[..:iiduka:|Hideaki Iiduka]]: **Increasing Batch Size Improves Convergence of Stochastic Gradient Descent with Momentum**, [[https://www.acml-conf.org/2025/|The 17th Asian Conference on Machine Learning (ACML2025)]], Taipei, Taiwan (Dec. 9--12, 2025)
-  - [[https://scholar.google.co.jp/citations?hl=ja&user=dejA0qcAAAAJ|Kanata Oowada]], [[..:iiduka:|Hideaki Iiduka]]: **Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, [[https://www.acml-conf.org/2025/|The 17th Asian Conference on Machine Learning (ACML2025)]], Taipei, Taiwan (Dec. 9--12, 2025)+  - [[https://scholar.google.com/citations?user=3U-XTE0AAAAJ&hl=ja|Kanata Oowada]], [[..:iiduka:|Hideaki Iiduka]]: **Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size**, [[https://www.acml-conf.org/2025/|The 17th Asian Conference on Machine Learning (ACML2025)]], Taipei, Taiwan (Dec. 9--12, 2025)
   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|Kento Imaizumi]], [[..:iiduka:|Hideaki Iiduka]]: **Both Asymptotic and Non-Asymptotic Convergence of Quasi-Hyperbolic Momentum using Increasing Batch Size**, [[https://www.acml-conf.org/2025/|The 17th Asian Conference on Machine Learning (ACML2025)]], Taipei, Taiwan (Dec. 9--12, 2025)   - [[https://scholar.google.com/citations?user=hdDU4Z4AAAAJ&hl=ja|Kento Imaizumi]], [[..:iiduka:|Hideaki Iiduka]]: **Both Asymptotic and Non-Asymptotic Convergence of Quasi-Hyperbolic Momentum using Increasing Batch Size**, [[https://www.acml-conf.org/2025/|The 17th Asian Conference on Machine Learning (ACML2025)]], Taipei, Taiwan (Dec. 9--12, 2025)
   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **Explicit and Implicit Graduated Optimization in Deep Neural Networks**, [[https://aaai.org/conference/aaai/aaai-25/|The 39th Annual AAAI Conference on Artificial Intelligence (AAAI-25)]], Pennsylvania Convention Center, Philadelphia, Pennsylvania, USA (Feb. 27 -- Mar. 4, 2025)   - [[https://scholar.google.co.jp/citations?user=rNbGTIgAAAAJ&hl=ja|Naoki Sato]], [[..:iiduka:|Hideaki Iiduka]]: **Explicit and Implicit Graduated Optimization in Deep Neural Networks**, [[https://aaai.org/conference/aaai/aaai-25/|The 39th Annual AAAI Conference on Artificial Intelligence (AAAI-25)]], Pennsylvania Convention Center, Philadelphia, Pennsylvania, USA (Feb. 27 -- Mar. 4, 2025)
  • intro/publications.1767238456.txt.gz
  • 最終更新: 2026/01/01 12:34
  • by Hideaki IIDUKA