「ICLR 2026」ResearchPortトップカンファレンス定点観測 vol.21

2026年4月23日 20時05分 公開

本記事3行要約:

● 論文投稿数19,814件、採択件数5,341件!採択率26.96%!
● 日本人研究者を含む論文は5,341件中 144件!研究者の関与は拡大するも、全体に占める比率は低下
● キーワードではReasoningが急伸!トレンドは継続しつつ一部テーマ変化もみられる

 
トップカンファレンス定点観測シリーズ vol.21、「ICLR(International Conference on Learning Representation)」です。

2026年4月23-27日に[ICLR 2026]が開催されます。会期直前ですが、統計情報をまとめましたので、現地・オンラインで参加される方の参考になれば嬉しい限りです。

ICLR 2026 開催概要
▶ 開催期間: 23 – 27 Apr., 2026
▶ 開催都市: Rio de Janeiro, Brazil
▶ 公式HP:  https://iclr.cc/

ICLRは、機械学習分野におけるトップカンファレンスの一つであり、コンピュータサイエンス・機械学習系のトップカンファレンスで第3位*1に位置しています。分野横断のh5-indexを基にしたランキングでも第8位と非常に強い存在感であることが分かるかと思います。

*1 「ResearchPort カンファレンスランク 2025年版」参照

■ICLR 2026総括

まずはいつも通り、投稿数・採択率の推移を見ていきます(表1・図1)。
前回コラム2024から1年スキップしてるので、この2年で大幅な増加となっており、研究コミュニティの拡大が引き続き進んでいることが分かります。

Year #submissions #oral #spotlight #poster #total titles acceptance rate oral
acceptance
rate
Venue
2017 490 15 183 198 40.41% 3.06% Toulon, France
2018 1,013 23 0 314 337 33.27% 2.27% Vancouver, Canada
2019 1,579 24 0 478 502 31.79% 1.52% New Orleans, USA
2020 2,594 48 108 531 687 26.48% 1.85% Addis Ababa, Ethiopia
2021 3,014 53 114 692 859 28.50% 1.76% Virtual
2022 3,422 55 175 864 1,094 31.97% 1.61% Virtual
2023 4,955 90 281 1,202 1,573 31.75% 1.82% Kigali, Rwanda
2024 7,404 86 367 1,807 2,260 30.52% 1.16% Vienna, Austria
2025 11,672 213 380 3,111 3,704 31.73% 1.82% Singapore
2026 19,814 223 0 5,118 5,341 26.96% 1.13% Rio de Janeiro, Brazil

表1 ICLR 2017-2026論文投稿数および採択率

注)表1内、「#oral」「#spotlight」「#poster」の合算値が「#total titles」となります。
補足)データがしっかり確認できた2018年以降を主に参照して考察してまいります。参考までに、2017年の投稿数・採択数/率も掲載しておきます。
 

図 1 ICLR 2017-2026 統計推移

ICLR 2026で、投稿数は19,814件に達しました。前年(2025年:11,672件)と比較しても約70%増となっており、非常に大きな変化が見られます。NeurIPSでも2024 → 2025での増加率は約38%でしたので、いかにICLRの拡大が顕著なのかご理解いただけるかと思います。

一方、採択率は 26.96% と前年比 -4.77% でした。これまでの傾向では、投稿数の増加があったとしても30%前後で比較的安定しておりました。しかし、今年は必ずしも投稿数の増加に合わせて採択数が拡張されるわけではなく、本分野での競争環境が厳しくなっているとも見られるかもしれません。

さらに、ICLR 2026ではspotlightカテゴリが確認できず、実質的にoralとposterの2層構造となっているようです。従来の oral > spotlight > poster という3段階の分類と比較すると、中間層が整理された形となっています。公式からの発表ではありませんが、背景には、近年の投稿数急増に伴って、評価・査読プロセスなどの運用負荷が高まっていることも一因として考えられそうです。特に、spotlightのような中間カテゴリは該当論文を個別に精査する必要があり、その運用が難しくなっているのではないでしょうか。
 

■日本人研究者別-論文採択数

本カンファレンスでも、日本人著者に絞ってその活躍も調べております(表2)。
併せて、ICLR 2026個人別採択件数(図2)と、ICLR 2018-2026累積採択数 日本人著者ランキング(図3)もご覧ください。

開催年 採択論文数 全著者数 平均著者数
2017 198
2018 337 1,418 4.21 15 1.06% 7 2.08%
2019 502 2,145 4.27 19 0.89% 12 2.39%
2020 687 3,045 4.43 25 0.82% 17 2.47%
2021 859 3,828 4.46 56 1.46% 31 3.61%
2022 1,094 5,096 4.66 61 1.20% 39 3.56%
2023 1,573 7,593 4.83 71 0.94% 49 3.12%
2024 2,260 11,927 5.28 131 1.10% 86 3.81%
2025 3,704 20,944 5.65 262 1.25% 135 3.64%
2026 5,341 33,118 6.20 304 0.92% 144 2.70%

表2 ICLR投稿論文全体の著者数に占める日本人比率の推移

ICLR 2026 日本人個人別採択件数
著者 採択数
Masashi Sugiyama
11
Yuki Mitsufuji
8
Kenji Kawaguchi
7
Tatsunori Hashimoto
5
Jun Sakuma
4
Masayoshi Tomizuka
4
Takuya Akiba
3
Tatsuya Harada
3
Naoya Inoue
3
Takashi Ishida
3
Yusuke Iwasawa
3
Naoki Murata
3
Kyosuke Nishida
3
Shojiro Yamabe
3
Daiki Chijiwa
2
Daichi Fujiki
2
Taku Hasegawa
2
Satoshi Hayakawa
2
Takafumi Horie
2
Masaaki Imaizumi
2
Masahiro Kaneko
2
Masaki Kawamura
2
Taku Komura
2
Masanori Koyama
2
Seiji Maekawa
2
Takashi Matsubara
2
Yasuko Matsubara
2
Gouki Minegishi
2
Hiroki Naganuma
2
Taishi Nakamura
2
Hideki Nakayama
2
Yuji Naraki
2
Atsushi Nitanda
2
Daisuke Oba
2
Yui Oka
2
Takumi Okamoto
2
Naoaki Okazaki
2
Takayuki Osa
2
Mayu Otani
2
Kuniko Saito
2
Yuta Saito
2
Yasushi Sakurai
2
Ryotaro Shimizu
2
Mahito Sugiyama
2
Jun Suzuki
2
Koichi Tanaka
2
Masatoshi Uehara
2
Toshimitsu Uesaka
2
Shinji Watanabe
2
Toshihiko Yamasaki
2
Rio Yokota
2
Kotaro Yoshida
2
Haruki Abe
1
Toru Aonishi
1
Eishi Asano
1
Kyohei Atarashi
1
Atsuro Daida
1
Kazuki Egashira
1
Koshi Eguchi
1
Toshio Endo
1
Kazuki Fujii
1
Ren Fujiwara
1
Kazuto Fukuchi
1
Kazumi Fukuda
1
Kenji Fukumizu
1
Ryosuke Furuta
1
Futoshi Futami
1
Masato Hagiwara
1
Kentaro Hanafusa
1
Miki Haseyama
1
Ichiro Hashimoto
1
Yuka Hashimoto
1
Kakeru Hattori
1
Akinobu Hayashi
1
Hideaki Hayashi
1
Hiroaki Hayashi
1
Kohei Hayashi
1
Chiori Hori
1
Koji Ichikawa
1
Masahiro Ikeda
1
Satoshi Ikehata
1
Yuki Imajuku
1
Naoto Inoue
1
Kazuki Irie
1
Hisao Ishibuchi
1
Shigeki Ishida
1
Isao Ishikawa
1
Satoki Ishikawa
1
Takashi Isobe
1
Akira Ito
1
Shinji Ito
1
Keita Iwabuchi
1
Ran Iwamoto
1
Tomoharu Iwata
1
Yukiyasu Kamitani
1
Shunsuke Kamiya
1
Sotaro Kanai
1
Yuto Karashima
1
Hisashi Kashima
1
Hirokatsu Kataoka
1
Yasuhiro Kato
1
Kazuki Kawamura
1
Motoaki Kawanabe
1
Ryotaro Kawata
1
Hiroshi Kera
1
Ren Kishimoto
1
Shun Kiyono
1
Seijin Kobayashi
1
Sosuke Kobayashi
1
Takeshi Kojima
1
Noboru Koshizuka
1
Rikuto Kotoge
1
Kenji Kubo
1
Atsutoshi Kumagai
1
Soichiro Kumano
1
Ryoma Kumon
1
Naoto Kuroda
1
Mori Kurokawa
1
Yuko Kuroki
1
Atsuto Maki
1
Taro Makino
1
Takashi Maruyama
1
Kento Masui
1
Kazunori Matsumoto
1
Kohsei Matsutani
1
Takuya Matsuyama
1
Kazushi Mimura
1
Kou Misaki
1
Sakae Mizuki
1
Naoki Morihira
1
Masato Motomura
1
Yusuke Mukuta
1
Takanori Muroi
1
Hajime Nagahara
1
Yoshihiro Nagano
1
Ryumei Nakada
1
Takanori Nakagawa
1
Kosuke Nakago
1
Yorie Nakahira
1
Shinichi Nakajima
1
Yuta Nakashima
1
Hiroki Nariai
1
Takuya Narihira
1
Yusuke Narita
1
Shinji Nishimoto
1
Ayana Niwa
1
Daisuke Nohara
1
Masahiro Nomura
1
Takahiro Ogawa
1
Masanari Oi
1
Yasuyuki Okoshi
1
Keisuke Okumura
1
Manabu Okumura
1
Motoki Omura
1
Ku Onoda
1
Shunsuke Onoo
1
Hikari Otsuka
1
Masafumi Oyamada
1
Itsumi Saito
1
Koshiro Saito
1
Shunsuke Saito
1
Tomoya Sakai
1
Keitaro Sakamoto
1
Tamao Sakao
1
Kento Sasaki
1
Yuki Sasamoto
1
Yoichi Sato
1
Takashi Shibuya
1
Hinari Shimada
1
Chihiro Shimizu
1
Hikaru Shindo
1
Taihei Shiotani
1
Haruki Shirakami
1
Naoki Shitanda
1
Sho Sonoda
1
Yoshi Suhara
1
Yuto Sumikawa
1
Tatsumi Sunada
1
Masahiro Suzuki
1
Taiji Suzuki
1
Yukito Tajima
1
Haruka Takagi
1
Yu Takagi
1
Shota Takahashi
1
Shusuke Takahashi
1
Tsubasa Takahashi
1
Hiroya Takamura
1
Sho Takase
1
Shota Takashiro
1
Akiko Takeda
1
Rikiya Takehi
1
Kei Takemura
1
Junichi Takeuchi
1
Koh Takeuchi
1
Susumu Takeuchi
1
Yuki Takezawa
1
Masahiro Tanaka
1
Shohei Taniguchi
1
Kazuya Tateishi
1
Kei Tateno
1
Chieko Tazuke
1
Riku Togashi
1
Yoji Tomita
1
Takuma Udagawa
1
Shunki Uebayashi
1
Ryota Ushio
1
Futa (Kai) Waseda
1
Manato Yaguchi
1
Masanori Yamada
1
Shin’ya Yamaguchi
1
Taisei Yamamoto
1
Kashu Yamazaki
1
Hitomi Yanaka
1
Kazuki Yano
1
Yuichi Yoshida
1
Daiki Yoshikawa
1

図2 日本人研究者個人別 – ICLR 2026採択件数(のべ216名)

全体の採択論文数(5,341件)の中で、日本人著者数・日本人著者を含む論文ともに、前年を上回る結果となりました。

● 日本人著者数:304人(2025年比 +42人)
● 日本人著者を含む論文数:144件(2025年比 +9件)

日本人研究者の関与が拡大しているという嬉しい結果がある反面、全体に占める比率としては0.92%と前年比-0.33%で、2021年以降では最小値となっています。短絡的に見れば、コミュニティ全体の拡大に対して、日本の存在感が相対的に低下したという状況です。NeurIPSでも全く同様の結果であり、世界全体の研究環境と日本との違いや、近年の研究スタイル自体が変化したことも考慮しデータを見る必要がありそうです。
 

以下、図3では2018-2026年の累積採択件数ランキングをまとめております。累積件数は、非常に多数になるため、作図の関係上3件以上採択されていらっしゃる方のみに絞らせていただきました。
上位にランキングされる方々に大きな変動はないものの、採択数では目を見張るものがあり、たった2年で10件以上の採択実績を出されている方もいらっしゃいます。

ICLR 2018-2026 累積採択数
日本人著者ランキング
著者 採択数
Masashi Sugiyama
31
Taiji Suzuki
26
Tatsunori Hashimoto
24
Kenji Kawaguchi
21
Yuki Mitsufuji
18
Masayoshi Tomizuka
12
Tatsuya Harada
10
Atsushi Nitanda
9
Hidenori Tanaka
9
Masatoshi Uehara
9
Naoki Murata
8
Kenji Fukumizu
7
Masanori Koyama
7
Takuya Akiba
6
Hiroki Furuta
6
Yusuke Iwasawa
6
Seijin Kobayashi
6
Yuta Saito
6
Toshimitsu Uesaka
6
Makoto Yamada
6
Takeru Miyato
5
Kazusato Oko
5
Takashi Shibuya
5
Mahito Sugiyama
5
Shinji Watanabe
5
Akari Asai
4
Masaaki Imaizumi
4
Naoya Inoue
4
Kazuki Irie
4
Takashi Ishida
4
Satoki Ishikawa
4
Taku Komura
4
Atsutoshi Kumagai
4
Takashi Matsubara
4
Taishi Nakamura
4
Hideki Nakayama
4
Kyosuke Nishida
4
Jun Sakuma
4
Masahito Ueda
4
Yoshitaka Ushiku
4
Michihiro Yasunaga
4
Sho Yokoi
4
Rio Yokota
4
Daiki Chijiwa
3
Satoshi Hara
3
Taku Hasegawa
3
Satoshi Hayakawa
3
Hideaki Hayashi
3
Takafumi Horie
3
Ryuichi Kanoh
3
Ryo Karakida
3
Motoaki Kawanabe
3
Hiroshi Kera
3
Seiji Maekawa
3
Takashi Maruyama
3
Yasuko Matsubara
3
Gouki Minegishi
3
Hiroki Naganuma
3
Yuji Naraki
3
Yui Oka
3
Manabu Okumura
3
Takayuki Osa
3
Kuniko Saito
3
Keisuke Sakaguchi
3
Yasushi Sakurai
3
Ryotaro Shimizu
3
Jun Suzuki
3
Yuki Takezawa
3
Shojiro Yamabe
3
Toshihiko Yamasaki
3
Kotaro Yoshida
3
Yuichi Yoshida
3
Heiga Zen
3

図3 ICLR 2018-2026 累積著者ランキング(73名)※3件以上採択

■トレンドキーワードの推移

次に、論文タイトルに含まれるキーワードから研究トレンドについて紐解いてみます。(表3)。

キーワードの出現頻度を見ると、2026年においても

● LLM(約9.8%)
● generat***(約9.0%)> generative, generationなど
● reason(約8.6%)> reasoning 含む
● language model(約7.1%)

といったキーワードが上位を占めています。

2024年までは「Language Model」や「Diffusion」といった生成技術が中心でしたが、2026年はこれらを抜いて「Reason(推論)」が第3位に急浮上しています。

→ LLM:シンプルなテキスト生成から、より巨大で効率的な基盤モデルへの深化
→ Reasoning:論理的思考、多階層の複雑な思考を必要とするタスク処理

これは、Reasoningに関連するキーワードの出現割合は近年増加しており、推論や推論能力の評価といった研究テーマの存在感が高まりつつある可能性が示唆されます。現実世界でも、AIが「もっともらしい答えを作る」フェーズから、より複雑な推論や意思決定を求められる方向へと進んでいることとの関連ではないでしょうか。

全体として、研究対象が「モデルそのもの」から「モデルを前提とした活用・拡張・深化」へ広がっている印象です。

Year 2026 2025 2024 2023 2022 2021 2020 2019 2018
#Papers 5,118 3,491 2,174 1,483 1,039 806 639 478 314
Ranking Term Frequency Term Frequency Term Frequency Term Frequency Term Frequency Term Frequency Term Frequency Term Frequency Term Frequency
1 llm 9.85% language model 10.45% language model 9.47% represent 7.31% represent 7.04% represent 7.57% reinforcement learning 7.13% adversarial 8.17% adversarial 8.01%
2 generat*** 9.08% generat*** 9.18% diffus*** 7.48% graph 5.91% reinforcement learning 6.86% generat*** 5.70% represent 6.84% generat*** 7.57% generat*** 8.01%
3 reason 8.63% diffus*** 7.80% generat*** 6.81% reinforcement learning 5.91% graph 5.39% reinforcement learning 4.77% graph 6.41% represent 6.18% reinforcement learning 5.05%
4 language model 7.15% llm 6.56% reinforcement learning 6.06% generat*** 5.02% generat*** 4.66% graph 4.66% generat*** 6.41% reinforcement learning 4.78% gan 5.05%
5 diffus*** 7.06% efficien*** 5.32% represent 5.71% generaliz*** 4.26% transformer 4.39% generaliz*** 4.31% adversarial 6.11% graph 3.79% represent 5.05%
6 reinforcement learning 5.82% represent 4.24% graph 4.82% transformer 4.20% efficien*** 4.30% adversarial 3.14% generaliz*** 4.66% structur*** 3.59% unsupervised 3.86%
7 efficien*** 4.72% adapt 4.13% efficien*** 4.74% image 3.94% generaliz*** 4.30% efficien*** 3.14% efficien*** 3.35% efficien*** 3.59% deep neural network 2.97%
8 benchmark 4.38% transformer 3.81% generaliz*** 3.89% efficien*** 3.88% adversarial 3.57% image 3.03% classifi*** 2.77% adapt 3.39% adapt 2.97%
9 adapt 4.18% graph 3.70% transformer 3.72% adapt 3.24% predict 3.20% classifi*** 2.91% adapt 2.77% generaliz*** 2.99% hierarch 2.97%
10 multimodal 4.12% multimodal 3.48% adapt 3.10% diffus*** 3.18% feature 2.93% estimat*** 2.68% search 2.62% unsupervised 2.39% classifi*** 2.67%
11 agent 3.69% benchmark 3.35% image 3.10% language model 2.99% adapt 2.93% structur*** 2.56% structur*** 2.62% transfer 2.19% memor 2.67%
12 represent 3.63% reinforcement learning 3.24% predict 2.66% detect 2.86% pretrain 2.56% regulariz 2.56% estimat*** 2.48% estimat*** 2.19% synthe 2.37%
13 video 3.63% align 2.94% detect 2.52% pretrain 2.86% classifi*** 2.47% representation learning 2.56% representation learning 2.33% gan 2.19% translat 2.37%
14 evaluat 3.26% video 2.86% llm 2.39% contrastive 2.73% detect 2.29% predict 2.45% detect 2.33% embed*** 2.19% image 2.37%
15 align 2.92% image 2.86% pretrain 2.35% federat 2.61% transfer 2.10% contrastive 2.45% reason 2.04% regulariz 2.19% spars 2.37%
16 transformer 2.88% 3d 2.78% 3d 2.30% 3d 2.42% representation learning 2.10% adapt 2.45% embed*** 2.04% compress 1.99% compress 2.37%
17 graph 2.73% generaliz*** 2.76% federat 2.26% adversarial 2.42% contrastive 2.01% embed*** 2.10% unsupervised 2.04% synthe 1.79% regulariz 2.37%
18 image 2.64% evaluat 2.70% feature 2.17% classifi*** 2.35% image 2.01% expla*** 2.10% deep neural network 2.04% bayes 1.79% embed*** 2.37%
19 predict 2.38% predict 2.62% spars 2.08% estimat*** 2.35% offline 2.01% search 2.10% transfer 2.04% stochastic 1.79% efficien*** 2.08%
20 3d 2.34% reason 2.62% estimat*** 2.04% representation learning 2.29% unsupervised 1.92% unsupervised 2.10% memor 1.75% search 1.79% predict 2.08%
21 detect 2.32% pretrain 2.24% classifi*** 1.95% predict 2.23% stochastic 1.92% spars 1.98% spars 1.75% image 1.59% structur*** 2.08%
22 attent 2.12% detect 2.13% linear 1.95% feature 2.03% discover 1.83% stochastic 1.75% predict 1.60% probabilistic 1.59% generaliz*** 2.08%
23 reward 2.10% agent 2.05% prompt 1.95% offline 1.84% attent 1.83% transformer 1.75% feature 1.60% quantiz*** 1.59% latent 2.08%
24 generaliz*** 2.10% context 1.89% adversarial 1.90% unsupervised 1.78% language model 1.74% dynamics 1.75% latent 1.60% predict 1.59% stochastic 1.78%
25 structur*** 2.06% structur*** 1.89% evaluat 1.90% spars 1.78% structur*** 1.65% label 1.75% regulariz 1.60% deep neural network 1.59% language model 1.78%
26 context 1.80% preference 1.86% align 1.86% label 1.72% spars 1.65% memor 1.63% video 1.60% spars 1.59% graph 1.78%
27 spars 1.80% synthe 1.78% reason 1.86% reason 1.59% estimat*** 1.65% feature 1.63% stochastic 1.46% latent 1.59% attent 1.78%
28 memor 1.76% retriev 1.73% contrastive 1.86% attent 1.59% federat 1.65% evaluat 1.51% disentangl 1.46% condition 1.59% residual 1.78%
29 synthe 1.63% spars 1.67% attent 1.73% regulariz 1.59% diffus*** 1.46% condition 1.51% compress 1.46% detect 1.59% interact 1.48%
30 interact 1.63% dataset 1.54% label 1.68% prompt 1.59% memor 1.46% interpret*** 1.40% attent 1.46% translat 1.59% distill 1.48%
31 pretrain 1.61% feature 1.51% representation learning 1.68% memor 1.59% embed*** 1.37% attent 1.40% transformer 1.31% hierarch 1.59% estimat*** 1.48%
32 latent 1.59% distill 1.51% structur*** 1.68% transfer 1.53% label 1.37% distill 1.40% bayes 1.31% attent 1.39% answer 1.48%
33 match 1.55% prompt 1.51% video 1.64% distill 1.53% search 1.37% pretrain 1.40% prun 1.31% interpret*** 1.39% quantiz*** 1.48%
34 dynamics 1.52% dynamics 1.49% latent 1.59% latent 1.46% online 1.37% gan 1.28% composition 1.31% autoencoder 1.20% evaluat 1.48%
35 distill 1.50% attent 1.46% distill 1.59% constrain 1.46% compress 1.37% transfer 1.28% pretrain 1.31% cnn 1.20% rnn 1.19%
36 estimat*** 1.46% adversarial 1.40% constrain 1.55% structur*** 1.46% distill 1.37% disentangl 1.28% evaluat 1.31% feature 1.20% wasserstein 1.19%
37 retriev 1.40% compress 1.38% benchmark 1.55% linear 1.34% 3d 1.37% latent 1.28% scalab 1.16% domain adaptation 1.20% condition 1.19%
38 preference 1.40% classifi*** 1.38% time series 1.55% game 1.27% continual learning 1.28% deep neural network 1.28% discover 1.16% classifi*** 1.20% game 1.19%
39 scalab 1.37% reward 1.35% multimodal 1.50% dynamics 1.27% reward 1.28% 3d 1.16% continual learning 1.16% reward 1.20% intrinsic 1.19%
40 token 1.37% estimat*** 1.32% synthe 1.46% reward 1.21% game 1.28% federat 1.16% label 1.16% dynamics 1.00% policy optimiz 1.19%
41 foundation model 1.33% linear 1.30% context 1.46% condition 1.14% synthe 1.28% synthe 1.16% ensembl 1.16% linear 1.00% question answer 1.19%
42 time series 1.33% memor 1.30% interpret*** 1.42% synthe 1.14% kernel 1.28% detect 1.16% match 1.02% prior 1.00% detect 1.19%
43 decod*** 1.31% latent 1.27% bayes 1.24% expla*** 1.08% sgd 1.19% offline 1.16% condition 1.02% imitat*** 1.00% search 1.19%
44 edit 1.31% match 1.27% offline 1.24% align 1.08% regulariz 1.19% video 1.16% translat 1.02% simulat*** 0.80% composition 1.19%
45 feature 1.31% hierarch 1.27% memor 1.15% stochastic 1.08% dynamics 1.19% compress 1.16% hierarch 1.02% representation learning 0.80% online 1.19%
46 adversarial 1.27% safe 1.27% compress 1.15% interpret*** 1.02% time series 1.19% bayes 1.16% 3d 1.02% memor 0.80% lstm 0.89%
47 prompt 1.27% interpret*** 1.24% stochastic 1.15% evaluat 1.02% gan 1.19% recogni*** 1.05% linear 1.02% label 0.80% policy gradient 0.89%
48 hierarch 1.25% edit 1.22% transfer 1.15% discover 1.02% latent 1.19% continual learning 1.05% expla*** 1.02% attack 0.80% imitat*** 0.89%
49 compress 1.24% decod*** 1.19% feedback 1.15% equivariant 1.02% condition 1.19% equivariant 1.05% imitat*** 1.02% forget 0.80% disentangl 0.89%
50 dataset 1.22% foundation model 1.19% retriev 1.15% object detec 0.95% equivariant 1.10% linear 1.05% quantiz*** 1.02% 3d 0.80% linear 0.89%
51 safe 1.20% interact 1.16% reward 1.11% disentangl 0.95% context 1.10% reason 1.05% depth 1.02% benchmark 0.80% prun 0.89%
52 reconstruct 1.20% scalab 1.13% interact 1.06% segment*** 0.95% interpret*** 1.10% language model 1.05% image 1.02% interact 0.80% discover 0.89%
53 quantiz*** 1.18% federat 1.11% encod*** 1.06% retriev 0.95% evaluat 1.10% kernel 0.93% attack 1.02% answer 0.80% domain adaptation 0.89%
54 embed*** 1.16% offline 1.11% scalab 1.02% video 0.95% recogni*** 1.01% discover 0.93% synthe 0.87% evaluat 0.80% ground 0.89%
55 policy optimiz 1.12% stochastic 1.08% prun 1.02% hierarch 0.95% expla*** 1.01% benchmark 0.93% constrain 0.87% reason 0.80% boost 0.59%
56 classifi*** 1.11% embed*** 1.05% dynamics 0.97% bayes 0.89% reason 1.01% boost 0.93% probabilistic 0.87% posterior 0.80% context 0.59%
57 online 1.05% constrain 1.05% edit 0.97% markov 0.89% bayes 0.91% prun 0.93% dynamics 0.87% navigat 0.80% symbol 0.59%
58 verif 1.05% search 1.03% foundation model 0.93% benchmark 0.89% constrain 0.82% quantiz*** 0.93% speech 0.73% wasserstein 0.80% perturbat 0.59%
59 robot 1.03% discover 1.03% recogni*** 0.93% translat 0.89% disentangl 0.82% context 0.93% verif 0.73% sgd 0.80% interpret*** 0.59%
60 search 0.99% enhance 1.03% agent 0.93% interact 0.89% match 0.82% translat 0.82% mutual information 0.73% composition 0.80% optimal transport 0.59%
61 interpret*** 0.99% online 1.00% dataset 0.93% composition 0.89% hierarch 0.73% regress 0.82% counterfactual 0.73% speech 0.80% localiz 0.59%
62 linear 0.99% representation learning 1.00% expla*** 0.93% kernel 0.83% retriev 0.73% minimiz 0.82% interact 0.73% distill 0.80% ranking 0.59%
63 expla*** 0.96% contrastive 0.97% prior 0.89% embed*** 0.83% scalab 0.73% interact 0.82% language model 0.73% multimodal 0.80% active learning 0.59%
64 unlearn 0.94% time series 0.97% fair 0.89% domain adaptation 0.83% policy optimiz 0.73% cnn 0.82% federat 0.58% protein 0.60% bandit 0.59%
65 expert 0.90% feedback 0.95% hierarch 0.89% ensembl 0.83% regress 0.73% group 0.82% equivariant 0.58% scalab 0.60% feedback 0.59%
66 federat 0.90% condition 0.95% tuning 0.89% multimodal 0.83% object detec 0.73% online 0.82% policy gradient 0.58% music 0.60% continual learning 0.59%
67 flow match 0.86% bayes 0.89% online 0.84% online 0.76% quantiz*** 0.64% data augment 0.82% game 0.58% constrain 0.60% recogni*** 0.59%
68 bayes 0.86% composition 0.89% reconstruct 0.84% prun 0.76% geometry 0.64% ensembl 0.82% contrastive 0.58% statistic 0.60% boundary 0.59%
69 simulat*** 0.84% expert 0.89% condition 0.84% search 0.76% prun 0.64% fair 0.70% prior 0.58% deterministic 0.60% activation 0.59%
70 condition 0.84% reconstruct 0.89% incontext learning 0.80% context 0.76% optimal transport 0.64% reconstruct 0.70% dataset 0.58% verif 0.60% bayes 0.59%
71 discover 0.82% regress 0.86% equivariant 0.80% data augment 0.76% translat 0.64% object detec 0.70% symbol 0.58% prun 0.60% reason 0.59%
72 representation learning 0.82% label 0.86% robot 0.80% recogni*** 0.76% composition 0.64% calibrat 0.70% cnn 0.58% video 0.60% transfer 0.59%
73 offline 0.81% tuning 0.84% instruction 0.80% calibrat 0.76% linear 0.64% reward 0.70% gan 0.58% expla*** 0.60% scalab 0.59%
74 geometry 0.81% expla*** 0.84% regress 0.80% pde 0.76% bandit 0.64% segment*** 0.70% encod*** 0.58% question answer 0.60%
75 manipulat 0.81% transfer 0.84% discover 0.75% regress 0.76% encod*** 0.64% game 0.70% anomaly detection 0.58% deform 0.60%
76 encod*** 0.81% manipulat 0.81% segment*** 0.75% probabilistic 0.70% segment*** 0.64% convex 0.70% recover 0.58% nonconvex 0.60%
77 segment*** 0.81% unlearn 0.81% unsupervised 0.75% compress 0.70% backdoor 0.64% image classifi*** 0.70% minimiz 0.58% dictionar 0.60%
78 composition 0.79% token 0.81% search 0.75% time series 0.70% reconstruct 0.64% constrain 0.70% align 0.58% online 0.60%
79 constrain 0.77% segment*** 0.78% imitat*** 0.75% manipulat 0.70% domain adaptation 0.64% attack 0.70% demonstrat 0.58% transfer learning 0.60%
80 video generat*** 0.77% gaussian splat 0.76% match 0.71% scalab 0.70% topolog 0.64% answer 0.58% manifold 0.58% feedback 0.60%
81 prun 0.75% boost 0.76% game 0.71% protein 0.70% wasserstein 0.64% retriev 0.58% statistic 0.58% replay 0.60%
82 enhance 0.71% prun 0.76% heterogeneous 0.71% fair 0.70% imitat*** 0.64% statistic 0.58% reward 0.58% kernel 0.60%
83 transfer 0.71% unsupervised 0.70% enhance 0.71% bandit 0.70% group 0.64% intrinsic 0.58% sgd 0.58% reconstruct 0.60%
84 prior 0.71% regulariz 0.68% spik 0.71% match 0.64% benchmark 0.55% wasserstein 0.58% interpret*** 0.58% recogni*** 0.60%
85 gaussian splat 0.69% bandit 0.65% backdoor 0.71% backdoor 0.64% align 0.55% probabilistic 0.58% context 0.60%
86 disentangl 0.66% game 0.65% ground 0.66% group 0.64% manipulat 0.55% time series 0.58% encod*** 0.60%
87 protein 0.64% instruction 0.62% minimiz 0.66% optimal transport 0.64% probabilistic 0.55% composition 0.58% multilingual 0.60%
88 world model 0.64% quantiz*** 0.62% probabilistic 0.66% prior 0.64% simulat*** 0.55% encod*** 0.58% localiz 0.60%
89 group 0.64% robot 0.62% protein 0.62% domain generalization 0.57% correlat 0.55% transformation 0.58% optimal transport 0.60%
90 ground 0.64% simulat*** 0.62% speech 0.62% symbol 0.57% pde 0.55% knowledge distillat 0.58% signal 0.60%
91 medic 0.62% ground 0.59% group 0.62% policy optimiz 0.57% speech 0.55% manifold 0.58%
92 feedback 0.62% prior 0.59% embed*** 0.62% manifold 0.57% ensembl 0.55% hierarch 0.58%
93 spik 0.62% identifi*** 0.59% translat 0.62% collaborat 0.51% markov 0.55% spatiotemporal 0.58%
94 speech 0.60% incontext learning 0.57% ensembl 0.62% robot 0.51% cnn 0.55%
95 collaborat 0.60% ensembl 0.57% regulariz 0.62% identifi*** 0.51%
96 regress 0.58% speech 0.57% composition 0.58% expert 0.51%
97 answer 0.56% protein 0.54% quantiz*** 0.58% agent 0.51%
98 stochastic 0.56% probabilistic 0.54% continual learning 0.58% continual learning 0.51%
99 regulariz 0.56% world model 0.54% simulat*** 0.58% reconstruct 0.51%
100 heterogeneous 0.56% video generat*** 0.54% kernel 0.58% minimiz 0.51%
101 image generat*** 0.54% imitat*** 0.51% decod*** 0.58% mdp 0.51%
102 spatiotemporal 0.52% continual learning 0.51% boost 0.58% activation 0.51%
103 calibrat 0.52% equivariant 0.51% manipulat 0.53%
104 continual learning 0.51% bandit 0.53%
105 unsupervised 0.51% ood 0.53%
106 jailbreak 0.51%
107 game 0.51%

表3 論文出現キーワード推移(2018-2026年)

まとめ

以上のように、簡易的ですが重要指標からICLRを考察してまいりました。

ICLR 2026は、投稿数が約2万件に達するなど、研究コミュニティの拡大が顕著に現れたカンファレンスとなりました。俯瞰してみると、研究トピックの連続性を保ちながらも、コミュニティ規模・研究対象・評価基盤などといった複数の観点で変化が進んでいる段階にあると考えられます。

今週より開催されるICLR 2026に現地・オンラインで参加される方にとってプラスになる情報であることを願います。尚、本データは2026年3月30日時点で解析したものです。

ResearchPortでは今後も、トップカンファレンスの動向を定点観測しながら、AI研究コミュニティの変化を継続的に整理していきます。

データ解析・公開にあたっては細心の注意を払っておりますが、万が一、間違いなどございましたら遠慮なく弊社までご連絡ください。

 
記事作成・編集:ResearchPort事業部

■Contact

本記事に関する質問や、ご意見・ご要望などがございましたらResearchPortまでお問い合わせください。
https://research-p.com/contactform/

関連記事
メンバーシップ登録

Membership Registration

博士課程在籍中の方 ポスドクの方 大学教員の方 企業研究者/技術者

ResearchPortでは、研究者・技術者の研究活動とキャリアを個別にサポートしています。
ご興味のある方は、ResearchPortメンバーシップにご登録ください。