「NeurIPS 2024」ResearchPortトップカンファレンス定点観測 vol.18

2025年8月31日 08時00分 公開

本記事3行要約:

● 投稿論文数は15,671件、採択件数は4,037件に!
● 日本人からの研究は採択件数4,037件中 111件!過去4年で最小値2.75%!
● 出現キーワードではDiffusion、Language Model の2テーマで全体の15%近くを占める!


半年ほど前に開催されたNeurIPSですが、これまで毎年定点観測しておりましたので、[NeurIPS 2024]を振り返る意味でも統計など簡潔にまとめました。

過去の記事では、NeurIPSというカンファレンスの由来や始まりについてまとめておりますので、そちらも参考にしてみてください。なお、本記事についても前回同様、数値データを中心にコンパクトに統計などをまとめております。

*参照:
「NeurIPS」ResearchPortトップカンファレンス定点観測 vol.2
「NeurIPS 2022」ResearchPortトップカンファレンス定点観測 vol.8
「NeurIPS 2023」ResearchPortトップカンファレンス定点観測 vol.14

NeurIPS 2024 開催概要
▶ 開催期間: 10 – 15 Dec., 2024
▶ 開催都市: Vancouver, CANADA
▶ 公式HP: https://neurips.cc/Conferences/2024

■NeurIPS 2024総括

まず最初に投稿数・採択率の推移を見ていきます(表1・図1)。
論文投稿数は、前回会議と比較して3,000件以上増え、15,671件(メイン会議)となりました。採択率も25.76%で、量が増えても依然として高難易度な会議です。
NeurIPS公式の発表によると、登録者数も計19,756名(対面16,777名/オンライン2,978名)とあり、おそらくAI関連学会では最多となる規模ではないでしょうか。このあたりからも相変わらずの盛況感が伺えます。

conferences Year # submission # accepted papers acceptance rate Country Venue
NeurIPS 1987 300 90 30.00% USA Denver
NeurIPS 1988 313 94 30.03% USA Denver
NeurIPS 1989 337 101 29.97% USA Denver
NeurIPS 1990 477 143 29.98% USA Denver
NeurIPS 1991 480 144 30.00% USA Denver
NeurIPS 1992 423 127 30.02% USA Denver
NeurIPS 1993 527 158 29.98% USA Denver
NeurIPS 1994 467 140 29.98% USA Denver
NeurIPS 1995 507 152 29.98% USA Denver
NeurIPS 1996 507 152 29.98% USA Denver
NeurIPS 1997 500 150 30.00% USA Denver
NeurIPS 1998 487 151 31.01% USA Denver
NeurIPS 1999 467 150 32.12% USA Denver
NeurIPS 2000 507 152 29.98% USA Denver
NeurIPS 2001 650 197 30.31% Canada Vancouver
NeurIPS 2002 710 207 29.15% Canada Vancouver
NeurIPS 2003 717 198 27.62% Canada Vancouver
NeurIPS 2004 822 207 25.18% Canada Vancouver
NeurIPS 2005 822 207 25.18% Canada Vancouver
NeurIPS 2006 833 204 24.49% Canada Vancouver
NeurIPS 2007 975 217 22.26% Canada Vancouver
NeurIPS 2008 1,022 250 24.46% Canada Vancouver
NeurIPS 2009 1,105 262 23.71% Canada Vancouver
NeurIPS 2010 1,219 292 23.95% Canada Vancouver
NeurIPS 2011 1,400 306 21.86% Spain Granada
NeurIPS 2012 1,467 370 25.22% USA Lake Tahoe
NeurIPS 2013 1,420 360 25.35% USA Lake Tahoe
NeurIPS 2014 1,678 411 24.49% Canada Montreal
NeurIPS 2015 1,838 403 21.93% Canada Montreal
NeurIPS 2016 2,403 569 23.68% Spain Barcelona
NeurIPS 2017 3,240 679 20.96% USA Longbeach
NeurIPS 2018 4,856 1,009 20.78% Canada Montréal
NeurIPS 2019 6,743 1,428 21.18% USA Vancouver
NeurIPS 2020 9,454 1,893 20.02% Canada Vancouver
NeurIPS 2021 9,122 2,327 25.51% Online
NeurIPS 2022 10,411 2,672 25.67% USA New Orleans
NeurIPS 2023 12,343 3,218 26.07% USA New Orleans
NeurIPS 2024 15,671 4,037 25.76% Canada Vancouver

表1 NeurIPS論文投稿数および採択率

*補足*
赤地の部分は採択率を類推しています。黄地の部分は統計に情報にばらつきあり信頼性が低い可能性があります。論文集・その他を、プログラムを書きながら解析した部分もあるので、一部別のウェブサイトで報告されている件数などと多少の差がある可能性があります。

*補足2*
2021 の数値については、公式には2,327件および2,344件との報告がありますが、proceedingsのサイトおよびOpenReviewのサイトに収録されている件数に違いがあり、いずれが正しいのか分かりません。このため以降の記述においてはOpenReviewサイトを基準といたします。2022も同様です。

 

図 1 NeurIPS 1987-2024 統計推移

■日本人研究者別-論文採択数

本カンファレンスでも、日本人著者に限定してその活躍も調べておりますので、下記に示します。
まずは早速、NeurIPS 2024個人別採択件数ランキングをご覧ください。(図2)

NeurIPS 2024 個人別採択件数
著者 採択数
Taiji Suzuki
6
Masashi Sugiyama
5
Kenji Kawaguchi
4
Kazuki Irie
3
Shinji Ito
3
Tatsunori Hashimoto
3
Akifumi Wachi
2
Akiko Takeda
2
Atsushi Nitanda
2
Atsutoshi Kumagai
2
Hiroshi Kera
2
Kazusato Oko
2
Makoto Yamada
2
Masahiro Fujisawa
2
Masaki Adachi
2
Michihiro Yasunaga
2
Naoki Murata
2
Shinichi Nakajima
2
Shinsaku Sakaue
2
Taihei Oki
2
Taira Tsuchiya
2
Taisuke Yasuda
2
Tomoharu Iwata
2
Toshihiko Yamasaki
2
Yasuhiro Fujiwara
2
Yuki Mitsufuji
2
Akari Asai
1
Akiko Manada
1
Akio Kodaira
1
Akiyuki Anzai
1
Atsuki Yamaguchi
1
Daiki Kimura
1
Futoshi Futami
1
Gaku Morio
1
Genki Osada
1
Go Irie
1
Go Nagahara
1
Gouki Minegishi
1
Hidenori Tanaka
1
Hidetoshi Shimodaira
1
Hikaru Shindo
1
Hiroki Furuta
1
Hiroshi Takahashi
1
Hiroto Kurita
1
Hisashi Kashima
1
Kaito Ito
1
Kaoru Sezaki
1
Kashu Yamazaki
1
Kazuhiro Yokoyama
1
Kazuki Egashira
1
Kazuki Kozuka
1
Kazumi Fukuda
1
Kazumune Hashimoto
1
Kazushi Ikeda
1
Kazutoshi Yamazaki
1
Kenji Kashima
1
Keno Harada
1
Kenta Niwa
1
Kiyohiro Nakayama
1
Ko Nishino
1
Kohei Miyaguchi
1
Kohei Watabe
1
Koichiro Niinuma
1
Kosuke Nakatani
1
Makoto Onizuka
1
Makoto Takamoto
1
Manabu Okumura
1
Masahiro Suzuki
1
Masahiro Yoshida
1
Masahito Uwamichi
1
Masatoshi Uehara
1
Masayoshi Tomizuka
1
Maya Okawa
1
Naoki Hiratani
1
Noboru Koshizuka
1
Rei Sato
1
Ryoma Sato
1
Ryoma Yataka
1
Ryosuke Shibasaki
1
Ryuhei Takahashi
1
Ryumei Nakada
1
Satoshi Sawai
1
Seijin Kobayashi
1
Sekitoshi Kanai
1
Shinya Suzumura
1
Sho Yokoi
1
Shogo Iwazaki
1
Shohei Kato
1
Shohei Taniguchi
1
Shota Saito
1
Soichiro Kumano
1
Tadanobu Inoue
1
Tadashi Kozuno
1
Tai Nakamaki
1
Taiki Miyagawa
1
Taishi Nishiyama
1
Takanori Maehara
1
Takashi Furuya
1
Takashi Maruyama
1
Takashi Nishide
1
Takashi Shibata
1
Takashi Shibuya
1
Takayuki Katsuki
1
Takayuki Osogami
1
Takeo Watanabe
1
Takeru Yokota
1
Takeshi Koshizuka
1
Takeshi Noda
1
Takumi Tanabe
1
Takuo Matsubara
1
Takuya Ito
1
Takuya Narihira
1
Taro Makino
1
Taro Toyoizumi
1
Tatsuya Harada
1
Terufumi Morishita
1
Tomoshi Iiyama
1
Tomoya Sakai
1
Tomoyoshi Kimura
1
Toshimitsu Uesaka
1
Yasuhiro Sogawa
1
Yasuhisa Fujii
1
Yasutoshi Ida
1
Youhei Akimoto
1
Yuki Kawamura
1
Yuki Minai
1
Yuki Takezawa
1
Yuko Kuroki
1
Yuma Ichikawa
1
Yuma Takeda
1
Yusuke Iwasawa
1
Yusuke Kato
1
Yusuke Kuwana
1
Yusuke Tanaka
1
Yuta Goto
1
Yuta Oshima
1

図2 NeurIPS 2024 個人別採択件数ランキング

*OpenReview、Proceedingsで掲載されている論文数に違いがありますので、ここではOpenReviewに掲載されている論文を基に集計しています。

2024年の論文内で日本人らしい著者(海外で活躍する研究者も含む)が含まれる論文タイトルの件数は、2022年:81件 → 2023年:104件 → 2024年:111件と微増という結果でした。採択論文全体に占める件数割合は2.75%と3%を下回る結果となっております。

累積ランキングは、2021-2024年(OpenReviewに論文掲載がある)をまとめております。(図3)
本年度も、2件以上の採択実績を持つ方のみを掲載しております。
昨年のデータに今年度分が上乗せされておりますので、大きなランキング変動などは見受けられません。

NeurIPS 2021-2024
日本人著者ランキング
著者 採択数
Masashi Sugiyama
23
Kenji Kawaguchi
19
Taiji Suzuki
17
Shinji Ito
11
Tatsunori Hashimoto
10
Atsushi Nitanda
8
Tomoharu Iwata
7
Seijin Kobayashi
7
Atsutoshi Kumagai
7
Shinsaku Sakaue
7
Kazuki Irie
6
Taihei Oki
6
Makoto Yamada
6
Yasuhiro Fujiwara
5
Tadashi Kozuno
5
Hidenori Tanaka
5
Masayoshi Tomizuka
5
Taira Tsuchiya
5
Masatoshi Uehara
5
Yasutoshi Ida
4
Yusuke Iwasawa
4
Shinichi Nakajima
4
Akiko Takeda
4
Akifumi Wachi
4
Toshihiko Yamasaki
4
Michihiro Yasunaga
4
Masaki Adachi
3
Daiki Chijiwa
3
Masahiro Fujisawa
3
Kenji Fukumizu
3
Yasutaka Furukawa
3
Futoshi Futami
3
Tatsuya Harada
3
Junya Honda
3
Shogo Iwazaki
3
Hiroshi Kera
3
Kohei Miyaguchi
3
Kazusato Oko
3
Naoya Takeishi
3
Naonori Ueda
3
Shin’ya Yamaguchi
3
Taisuke Yasuda
3
Youhei Akimoto
2
Akari Asai
2
Hajime Asama
2
Yuki Asano
2
Kazuto Fukuchi
2
Hiroki Furuta
2
Takashi Furuya
2
Kazumune Hashimoto
2
Satoshi Hayakawa
2
Naoki Hiratani
2
Masahiro Ikeda
2
Go Irie
2
Takuya Ito
2
Heishiro Kanagawa
2
Sekitoshi Kanai
2
Hisashi Kashima
2
Yusuke Kato
2
Takayuki Katsuki
2
Koki Kawabata
2
Yoshinobu Kawahara
2
Tomoyoshi Kimura
2
Sadamori Kojaku
2
Kazuki Kozuka
2
Soichiro Kumano
2
Yuko Kuroki
2
Takanori Maehara
2
Taro Makino
2
Takashi Maruyama
2
Takashi Matsubara
2
Yuki Mitsufuji
2
Taiki Miyagawa
2
Naoki Murata
2
Kengo Nakamura
2
Kiyohiro Nakayama
2
Naoki Nishikawa
2
Kenta Niwa
2
Maya Okawa
2
Manabu Okumura
2
Jun Sakuma
2
Rei Sato
2
Ryoma Sato
2
Yoichi Sato
2
Takuma Seno
2
Hikaru Shindo
2
Sho Sonoda
2
Mahito Sugiyama
2
Kei Takemura
2
Yuki Takezawa
2
Takumi Tanabe
2
Yusuke Tanaka
2
Shohei Taniguchi
2
Hiroyuki Toda
2
Ryota Tomioka
2
Daisuke Urano
2
Takaharu Yaguchi
2
Kenji Yamanishi
2
Atsushi Yamashita
2
Ryoma Yataka
2
Yuichi Yoshida
2

図3 NeurIPS 2021-2024 日本人著者ランキング

■トレンドキーワードの推移

今回もキーワードトレンドについてまとめてみました(表2)。

これまで同様“Diffusion(拡散モデル)”の強さが際立っていることと、”Large Language Model(LLM)”も双璧を成す存在です。マルチモーダル化の進展も見られるキーワードランキングになっております。

昨年NeurIPS 2023では、生成AIを象徴する“Diffusion”が大きく数字を伸ばしました。今年はさらに“Diffusion”の出現率が上がり7.41%です。引き続き生成AIの深化はトレンドと言えるのではないでしょうか。また、大規模言語モデル(Large Language Model;LLM)も昨年同様、全体トップをキープしており、この2つのキーワードだけで、全体の15%近くを占めています。

NeurIPS 2024では、生成AIの研究において、LLMがスタンダードなツールになっていることが読み取れます。テキストを入力とするDiffusion Modelや、マルチモーダルモデルと言語モデルの融合など実応用を意識したテーマが顕著になっています。
これまでのDiffusion優勢のトレンドから、LLM関連がさらに存在感を強くしていくことが予想されます。また大規模な生成モデルを扱うため、モデルの効率化・高速化の必要性も高まっています。

生成AIのトレンドは変わらず、効率性・省リソース化、マルチモーダルの進展、社会実装を見据えたエージェントAIへの進化、このあたりがNeurIPS 2024のトレンドとして挙げられるのではないでしょうか。

Year 2024 2023 2022 2021
#Papers 4,037 3,218 2,671 2,630
Ranking Term Frequency Term Frequency Term Frequency Term Frequency
1 language model 7.93% language model 8.55% graph 5.80% graph 5.93%
2 diffusion 7.41% diffusion 5.98% reinforcement learning 5.73% reinforcement learning 5.89%
3 efficien** 6.09% generat 5.13% efficien 5.39% represent 4.87%
4 generat** 6.02% online 5.13% generaliz 4.27% efficien 4.56%
5 graph 5.50% graph 4.27% generat 4.08% transformer 3.92%
6 adapt** 4.41% linear 3.42% represent 4.01% generaliz 3.73%
7 transformer 4.31% bias 3.42% transformer 4.01% adversarial 3.61%
8 represent** 4.14% predict 3.42% adversarial 3.07% generat 3.19%
9 reinforcement learning 4.09% transformer 3.42% estimat 3.00% adapt 3.16%
10 image 4.04% generaliz 3.42% linear 2.96% predict 3.08%
11 generaliz** 3.15% context 3.42% adapt 2.92% linear 3.08%
12 predict 2.92% adversarial 2.56% image 2.84% bayes 3.00%
13 align 2.85% policy gradient 2.56% stochastic 2.73% spars 2.97%
14 linear 2.68% represent 2.56% predict 2.62% stochastic 2.89%
15 structur 2.30% causal 2.56% spars 2.62% bandit 2.74%
16 estimat 2.30% embedding 2.56% bandit 2.25% structur 2.66%
17 video 2.25% discover 2.56% structur 2.21% online 2.43%
18 detect 2.13% feature 2.56% online 2.21% estimat 2.43%
19 adversarial 2.03% bayes 2.56% bayes 2.13% classifi 2.13%
20 context 2.01% constrain 2.56% pre train 2.02% feature 2.02%
21 prompt 1.98% ensembl 2.56% constrain 2.02% causal 1.94%
22 causal 1.96% stochastic 1.71% feature 1.95% constrain 1.94%
23 spars 1.96% depth 1.71% label 1.84% image 1.86%
24 attention 1.88% estimat 1.71% classifi 1.80% label 1.83%
25 feature 1.81% reward 1.71% kernel 1.76% regress 1.75%
26 online 1.73% nonlinear 1.71% regress 1.76% self supervis 1.64%
27 pre train 1.68% spars 1.71% causal 1.76% video 1.64%
28 stochastic 1.61% tuning 1.71% video 1.72% latent 1.60%
29 constrain 1.61% efficien 1.71% regulariz 1.57% attention 1.60%
30 reasoning 1.56% differential privacy 1.71% language model 1.50% regulariz 1.60%
31 bayes 1.54% reasoning 1.71% search 1.46% kernel 1.56%
32 agent 1.54% brain 1.71% unsupervised 1.46% detect 1.56%
33 consisten 1.54% latent 1.71% game 1.42% offline 1.41%
34 dynamics 1.51% world model 1.71% self supervis 1.42% search 1.37%
35 time series 1.49% posterior 1.71% detect 1.39% synthe 1.33%
36 regress 1.46% minimiz 1.71% diffusion 1.39% composition 1.29%
37 latent 1.46% video 1.71% hierarch 1.35% bias 1.26%
38 bandit 1.46% statistical 1.71% offline 1.35% transfer 1.22%
39 label 1.44% explanation 1.71% latent 1.31% evaluat 1.18%
40 synthe 1.44% edit 1.71% dynamics 1.31% game 1.14%
41 evaluat 1.36% pre train 1.71% few shot 1.31% meta learning 1.14%
42 segment 1.31% instruction 1.71% federated learning 1.20% convex 1.14%
43 reconstruct 1.29% chain of thought 1.71% bias 1.20% consisten 1.10%
44 classifi 1.29% interpret 1.71% attention 1.20% probabilistic 1.10%
45 prior 1.26% classifi 1.71% cluster 1.16% unsupervised 1.07%
46 memor 1.26% convex 1.71% context 1.09% cluster 1.07%
47 tuning 1.24% synthe 1.71% match 1.09% memor 1.03%
48 fine tun 1.24% deep neural network 1.71% multi agent 1.09% contrastive 0.99%
49 interact 1.24% data augment 0.86% scalab 1.09% compress 0.99%
50 offline 1.24% bandit 0.86% attack 1.09% scalab 0.95%
51 multimodal 1.21% frequency 0.86% embedding 1.01% multi agent 0.95%
52 regulariz** 1.21% attention 0.86% evaluat 1.01% dynamics 0.95%
53 preference 1.19% align 0.86% consisten 1.01% few shot 0.95%
54 bias 1.16% preference 0.86% guarantee 1.01% explanation 0.95%
55 match 1.14% combinatorial 0.86% compress 1.01% federated learning 0.91%
56 attack 1.14% group 0.86% composition 0.97% gaussian process 0.91%
57 composition 1.09% equivariant 0.86% synthe 0.97% reward 0.88%
58 hierarch 1.09% interven 0.86% probabilistic 0.94% match 0.88%
59 transfer 1.09% activation 0.86% discover 0.94% embedding 0.88%
60 zero shot 1.09% robot 0.86% contrastive 0.94% attack 0.88%
61 scalab 1.07% physics 0.86% distill 0.94% context 0.88%
62 reward 1.07% quadratic 0.86% prior 0.90% contrastive learning 0.88%
63 edit 1.04% quantiz 0.86% transfer 0.90% imitation 0.84%
64 federated learning 1.02% identifi 0.86% segment 0.90% reasoning 0.84%
65 foundation model 1.02% decod 0.86% memor 0.90% distill 0.84%
66 enhance 0.94% fine tun 0.86% out of distribution 0.90% conditional 0.84%
67 heterogeneous 0.94% regress 0.86% reward 0.86% identifi 0.80%
68 text to image 0.94% ood 0.86% fairness 0.86% guarantee 0.80%
69 gaussian splat** 0.94% offline 0.86% interact 0.86% minimiz 0.80%
70 unsupervised 0.92% reinforcement learning 0.86% reconstruct 0.86% prior 0.80%
71 cluster 0.92% demonstration 0.86% agent 0.82% interpret 0.80%
72 search 0.92% horizon 0.86% conditional 0.82% object detec 0.80%
73 distill 0.92% distill 0.86% reasoning 0.82% domain adaptation 0.80%
74 interpret 0.92% student 0.86% collaborat 0.79% align 0.76%
75 safe 0.92% few shot 0.86% object detec 0.79% out of distribution 0.76%
76 fusion 0.89% autoencoder 0.86% feedback 0.79% feedback 0.72%
77 embedding 0.89% siamese 0.86% identifi 0.79% calibration 0.72%
78 object detec 0.89% gaussian process 0.86% group 0.75% combinatorial 0.72%
79 compress 0.87% caption 0.86% knowledge distillation 0.75% agent 0.68%
80 token 0.87% image 0.86% ensembl 0.75% diffusion 0.68%
81 conditional 0.87% scalab 0.86% point cloud 0.75% active learning 0.68%
82 collaborat 0.84% normalizing flow 0.86% align 0.71% reconstruct 0.68%
83 discover 0.84% boost 0.86% convex 0.71% encod 0.68%
84 identifi 0.82% reconstruct 0.86% ood 0.71% discover 0.68%
85 encod** 0.82% massive 0.86% autoencoder 0.71% hierarch 0.68%
86 expert 0.79% evaluat 0.86% contrastive learning 0.71% statistical 0.65%
87 feedback 0.79% probabilistic 0.86% manifold 0.71% semi supervised 0.65%
88 game 0.77% optimal transport 0.86% optimal transport 0.67% autoencoder 0.65%
89 ood 0.77% in context learning 0.86% zero shot 0.67% ood 0.65%
90 kernel 0.77% safe 0.86% active learning 0.67% continual learning 0.65%
91 retriev** 0.77% structur 0.86% deep neural network 0.64% disentangl 0.61%
92 prun 0.74% memor 0.86% imitation 0.64% off policy 0.61%
93 recogni** 0.72% face recogni 0.86% explanation 0.64% low rank 0.61%
94 mamba 0.72% match 0.86% dataset 0.64% manifold 0.57%
95 multi agent 0.72% feedback 0.86% spiking 0.64% equivariant 0.57%
96 convex 0.69% compress 0.86% recogni 0.64% recogni 0.57%
97 low rank 0.69% policy optimization 0.86% domain adaptation 0.64% depth 0.57%
98 multi modal 0.69% geometry 0.86% semantic segmentation 0.64% segment 0.57%
99 quantiz** 0.67% self supervis 0.86% equivariant 0.60% ensembl 0.57%
100 few shot 0.67% non convex 0.86% safe 0.60% decision making 0.57%
101 group 0.67% adam 0.86% prun 0.60% interact 0.57%
102 state space model 0.67% label 0.86% disentangl 0.60% deep neural network 0.53%
103 dataset 0.67% quantum 0.86% correlation 0.60% language model 0.53%
104 disentangl 0.64% semi supervised 0.86% heterogeneous 0.60% recover 0.53%
105 point cloud 0.64% consisten 0.86% decentraliz 0.60% point cloud 0.53%
106 out of distribution 0.64% dataset 0.86% gaussian process 0.60% decentraliz 0.53%
107 boosting 0.62% mutual information 0.86% meta learning 0.60%
108 self supervis** 0.62% cluster 0.86% statistical 0.56%
109 depth 0.62% adapt 0.86% quantiz 0.56%
110 in context learning 0.60% conditional 0.86% interpret 0.56%
111 decod 0.60% imitation 0.86% semi supervised 0.56%
112 fairness 0.60% boosting 0.86% retriev 0.52%
113 semantic segmentation 0.60% expert 0.86% boosting 0.52%
114 statistical 0.57% transfer 0.86% time series 0.52%
115 equivariant 0.57% composition 0.86% encod 0.52%
116 imitation 0.57% dynamics 0.86% combinatorial 0.52%
117 probabilistic 0.57% phase 0.86% depth 0.52%
118 guarantee 0.57% spatio temporal 0.86% policy optimization 0.52%
119 test time 0.57% time series 0.86%
120 minimiz 0.57% encod 0.86%
121 contrastive 0.55% game 0.86%
122 end to end 0.52% embod 0.86%
123 simulation 0.52% enhance 0.86%
124 physics 0.52%

表2 論文出現キーワード推移(2024-2021年)

* 前回より、出現キーワードの抽出方法を変更いたしました。
  過去に公開したコラム内の出現キーワードとの順位相違や、新たなキーワードが追加されております。

まとめ

以上のように、簡易的に重要指標から考察してまいりました。
NeurIPS 2024終了後、本記事公開までお時間要してしまいましたが、振り返り的な位置付けでご覧いただければありがたいです。
データ解析・公開にあたっては細心の注意を払っておりますが、万が一、間違いなどございましたら遠慮なく弊社までご連絡ください。

 
編集:ResearchPort事業部

■Contact

本記事に関する質問や、ご意見・ご要望などがございましたらResearchPortまでお問い合わせください。
https://research-p.com/contactform/

関連記事
メンバーシップ登録

Membership Registration

博士課程在籍中の方 ポスドクの方 大学教員の方 企業研究者/技術者

ResearchPortでは、研究者・技術者の皆さま一人ひとりのご希望に寄り添い、キャリア相談や副業案件、技術顧問依頼、研究プロジェクトのご紹介を個別に行っています。また、研究成果の技術広報支援や研究パートナー探しなど、キャリアと研究活動の両面をサポートいたします。
ご興味のある方は、ぜひResearchPortメンバーシップにご登録ください。