「ICCV2025」ResearchPortトップカンファレンス定点観測 vol.19

2025年10月20日 07時53分 公開

本記事3行要約:

● 投稿数 11,239・採択数 2,702(採択率 24.04%)ともに最多更新
● 日本人著者は前年比約170%増で存在感拡大(68件/のべ149名)、国産CV研究の勢いが鮮明
● 生成(diffusion)+video/3D表現(Gaussian Splat)が手法論の軸


トップカンファレンス定点観測シリーズ vol.19、「ICCV」です。

ResearchPortでは、これまでコンピュータビジョン分野のトップティアのカンファレンスとして、CVPRやECCVの盛況感について記事にしてまいりました。CV分野の最高峰会議であるECCVとICCVは隔年開催で、今年はICCV2025がハワイ ホノルルにて開催されます。

いよいよICCVでも投稿数が10,000件を超え、今年も多くの参加者が想定される注目カンファレンスです。現地参加される方や、関連研究をされている方々のお役に立てばと思い、開催に合わせて速報記事として統計情報をまとめております。
 

ICCV2025 開催概要
▶ 開催期間: Oct 19 – 23th, 2025
▶ 開催都市: Honolulu, Hawai’i
▶ 公式HP:  https://iccv.thecvf.com/

■ICCV2025総括

相変わらずコンピュータビジョン分野の盛り上がりはすごいもので、CVPR2025に続きICCV2025でも投稿数・論文採択数(poster)は過去最高を更新しております。
これまでの推移とともに、今年の成果を以下の[表1] / [図1]でご確認ください。

Year #papers #orals #submissions acceptance rate oral
acceptance rate
venue
2013 454 41 1,629 27.87% 2.52% Sydney, Australia
2015 525 56 1,698 30.92% 3.30% Santiago, Chille
2017 621 56 2,143 28.98% 2.61% Venice, Italy
2019 1,075 200 4,323 24.87% 4.63% Seoul, Korea
2021 1,612 210 6,152 26.20% 3.41% Virtual
2023 2,161 195 8,088 26.72% 2.41% Paris, France
2025 2,702 64 11,239 24.04% 0.57% Hawaii, USA

表1 ICCV論文投稿数および採択率

*出展: https://openaccess.thecvf.com/menu

 

図1 ICCV統計推移

今年は11,239件の論文が投稿され、2,702件のposter論文が採択されました。採択率は24.04%です。2013年から計測して最も採択率が低くなっております。oral発表論文は64件と昨年の1/3以下となりました。oral採択率は0.57%です。
oral採択数が大きく減ったことに関しては、おそらく会場の都合上、従来までのパラレルからシングルセッションになっため受入可能枠が大きく減少したことによるものと思われます。

■日本人研究者の活躍

ICCV2025でも、日本人著者の比率も調べておりますので、結果は以下参照ください。[表2・図2・図3]。こちらは昨年比約170%増と大きく躍進し、日本人研究者の皆さまの研鑽が垣間見れる結果となっています。
このように、引き続き国内コンピュータビジョン研究の盛り上がりを感じられる数字ではないでしょうか。

開催年 採択
論文数
日本人著者
のべ人数
2013 454 1,541 22 1.43% 14 3.08%
2015 525 1,997 46 2.30% 20 3.81%
2017 621 2,550 34 1.33% 16 2.58%
2019 1,075 4,837 60 1.24% 25 2.33%
2021 1,612 8,044 67 0.83% 33 2.05%
2023 2,161 11,562 87 0.75% 45 2.08%
2025 2,702 16,034 149 0.93% 68 2.52%

表2 ICCV投稿論文全体の著者数に占める日本人比率の推移

ICCV2025 個人別採択件数
著者 採択数
Nakamasa Inoue
5
Shunsuke Saito
4
Yuki Asano
3
Daisuke Iso
3
Shuhei Kurita
3
Yuta Nakashima
3
Masayoshi Tomizuka
3
Daichi Azuma
2
Takeo Igarashi
2
Hirokatsu Kataoka
2
Taku Komura
2
Kazuki Kozuka
2
Yasuyuki Matsushita
2
Yuki Mitsufuji
2
Taiki Miyanishi
2
Fumio Okura
2
Ryusuke Sagawa
2
Koya Sakamoto
2
Hiroaki Santo
2
Imari Sato
2
Yoichi Sato
2
Risa Shinoda
2
Takaaki Shiratori
2
Yoshitaka Ushiku
2
Naoto Yokoya
2
Jiro Abe
1
HIroyasu Akada
1
Yoshimitsu Aoki
1
Shusaku Egami
1
Kent Fujiwara
1
Ken Fukuda
1
Ryosuke Furuta
1
Kanoko Goto
1
Ryo Hachiuma
1
Kensho Hara
1
Atsushi Hashimoto
1
Akio Hayakawa
1
Toshiki Hazama
1
Takumi Hirose
1
Yusuke Hirota
1
Yuki Ikebe
1
Satoshi Ikehata
1
Koki Inoue
1
Naoto Inoue
1
Shu Ishida
1
Masato Ishii
1
Atsuya Ishikawa
1
Ryo Kamoi
1
Naoshi Kaneko
1
Asako Kanezaki
1
Yusuke Kato
1
Takayuki Kawabuchi
1
Yasutomo Kawanishi
1
Itaru Kitahara
1
Takumi Kobayashi
1
Norimasa Kobori
1
Akio Kodaira
1
Michihiro Kuroki
1
Takahiro Kushida
1
Yuta Kyuragi
1
Ryo Masumura
1
Ryota Mimura
1
Shogo Mitsuhori
1
Shotaro Miwa
1
Natsuki Miyata
1
Naoki Murata
1
Koki Nagano
1
Shunya Nagashima
1
Kazuma Nagata
1
Hiroki Nakamura
1
Gaku Nakano
1
Chihiro Nakatani
1
Ko Nishino
1
Kazumine Ogura
1
Kohei Ohno
1
Masaki Onishi
1
Shota Orihashi
1
Sakuya Ota
1
Kuniaki Saito
1
Jun Sakuma
1
Ikuro Sato
1
Shintaro Shiba
1
Takashi Shibuya
1
Kota Shimomura
1
Hikaru Shindo
1
Motoharu Sonogashira
1
Soichi Sugano
1
Komei Sugiura
1
Masashi Sugiyama
1
Yasuaki Susumu
1
Satoshi Suzuki
1
Tomoyuki Suzuki
1
Shusuke Takahashi
1
Takafumi Taketomi
1
Masato Taki
1
Hideki Tanaka
1
Kenichiro Tanaka
1
Manabu Tsukada
1
Mahiro Ukai
1
Norimichi Ukita
1
Yuki Urakawa
1
Masao Utiyama
1
Takuma Yagi
1
Kota Yamaguchi
1
Taiga Yamane
1
Toshihiko Yamasaki
1
Takayoshi Yamashita
1
Shunsuke Yasuki
1
Kaname Yokoyama
1
Ryo Yonetani
1
Takanori Yoshimoto
1
Masakazu Yoshimura
1
Kentaro Yoshioka
1
Yusuke Yoshiyasu
1

図2 ICCV2025 日本人研究者個人別採択件数

ICCV2013-2025
累積採択数 日本人著者ランキング
著者 採択数
Tatsuya Harada
9
Shunsuke Saito
9
Nakamasa Inoue
8
Imari Sato
8
Masayoshi Tomizuka
8
Yoichi Sato
7
Yasutaka Furukawa
6
Hirokatsu Kataoka
6
Taku Komura
6
Yasuyuki Matsushita
6
Kuniaki Saito
6
Yuta Nakashima
5
Ko Nishino
5
Shohei Nobuhara
5
Masatoshi Okutomi
5
Yoshitaka Ushiku
5
Kent Fujiwara
4
Daisuke Iso
4
Shuhei Kurita
4
Takayuki Okatani
4
Fumio Okura
4
Kota Yamaguchi
4
Kiyoharu Aizawa
3
Yuki Asano
3
Ryo Furukawa
3
Shinsaku Hiura
3
Hiroshi Kawasaki
3
Takumi Kobayashi
3
Koki Nagano
3
Ryusuke Sagawa
3
Risa Shinoda
3
Takaaki Shiratori
3
Masashi Sugiyama
3
Takafumi Taketomi
3
Norimichi Ukita
3
Masataka Yamaguchi
3
Toshihiko Yamasaki
3
Rio Yokota
3
Daichi Azuma
2
Kenji Hata
2
Takeo Igarashi
2
Satoshi Ikehata
2
Go Irie
2
Shun Iwase
2
Takeo Kanade
2
Sekitoshi Kanai
2
Kunio Kashino
2
Yasutomo Kawanishi
2
Kazuki Kozuka
2
Takahiro Kushida
2
Ryo Masumura
2
Yuki Mitsufuji
2
Taiki Miyanishi
2
Yusuke Mukuta
2
Hajime Nagahara
2
Hiroki Nakamura
2
Gaku Nakano
2
Kodai Nakashima
2
Chihiro Nakatani
2
Atsuhiro Noguchi
2
Satoshi Ono
2
Jun Saito
2
Koya Sakamoto
2
Hiroaki Santo
2
Ikuro Sato
2
Takami Sato
2
Shin’ichi Satoh
2
Yuki Shiba
2
Wataru Shimoda
2
Komei Sugiura
2
Satoshi Suzuki
2
Towaki Takikawa
2
Mikihiro Tanaka
2
Shin’ya Yamaguchi
2
Takayoshi Yamashita
2
Naoto Yokoya
2
Ryo Yonetani
2
Masakazu Yoshimura
2

図3 ICCV2013-2025 累積採択数 日本人著者ランキング

■論文出現キーワードの推移

最後に、論文タイトルに含まれるキーワード出現比率も調べております[表3]。

ICCV2025でも、“image (14.62%)” “generation [generat***] (13.81%)” “video (12.03%)” “diffusion (11.73%)” が5位以下を大きく引き離し上位を独占しております。CVPR2025と同様に、生成系×画像・動画が大きなトレンドであると言えそうです。微増ではありますが、CVPRとの比較で、videoの出現頻度が上がっており、生成→動画編集/生成→評価という流れが加速した印象です。

“gaussian splat (3.48%)”reconstruct (4.66%)”scene/3d reconstruction (〜1%台)” “pose estimat*** (0.92%)” から、CVPRでも見えた NeRF継承→リアルタイム/即応指向がさらに可視化されたのではないでしょうか。生成×3D×動画のクロス領域(動画合成・再構築・表現学習など)は、ロボティクス、AR/VR、デジタルツインへの橋渡しを強めています。

* CVPR2025記事より、出現キーワードの抽出方法を大きく変更いたしました。
  過去に公開したコラム内の出現キーワードとの順位相違や、新たなキーワードが追加されております。

*「***」がついている単語は、品詞の変化などを含めて解析しております。
 例)generat*** ⇒ generative, generation, etc…

Year 2025 2023 2021 2019
#Papers 2,702 2,161 1,612 1,075
Ranking Term Frequency Term Frequency Term Frequency Term Frequency
1 image 14.62% image 12.94% image 10.73% image 13.40%
2 generat*** 13.81% video 9.18% video 10.05% detect*** 10.51%
3 video 12.03% detect*** 8.40% detect*** 9.49% video 8.56%
4 diffusion 11.73% segment*** 7.75% segment*** 8.07% segment*** 7.16%
5 detect*** 6.59% generat*** 7.28% transformer 6.27% attent 5.67%
6 adapt 6.29% adapt 6.73% adapt 6.02% estimat*** 5.67%
7 segment*** 5.63% transformer 6.68% represent 6.02% object detec*** 5.58%
8 efficien*** 5.51% diffusion 6.03% estimat*** 5.71% adversarial 5.49%
9 reconstruct 4.66% efficien*** 5.24% generat*** 5.46% generat*** 5.40%
10 multimodal 4.26% represent 4.92% recogni*** 4.96% feature 5.12%
11 represent 3.48% estimat*** 4.55% unsupervised 4.28% adapt 4.84%
12 gaussian splat 3.48% object detec*** 4.04% graph 4.22% recogni*** 4.84%
13 align 3.48% recogni*** 3.99% feature 4.16% unsupervised 4.09%
14 generaliz*** 3.26% synthe 3.85% self supervis*** 4.09% represent 3.91%
15 synthe 3.03% generaliz*** 3.48% attent 4.03% identifi*** 3.54%
16 transformer 2.96% reconstruct 3.39% object detec*** 3.91% re identification 3.26%
17 predict 2.89% feature 3.34% adversarial 3.91% localiz*** 2.98%
18 estimat*** 2.81% unsupervised 3.15% semantic segmentation 3.54% graph 2.79%
19 feature 2.81% attent 3.06% reconstruct 3.10% depth 2.79%
20 benchmark 2.74% distill 2.97% predict 3.04% predict 2.70%
21 distill 2.67% self supervis*** 2.83% contrastive 2.85% reconstruct 2.61%
22 prompt 2.59% label 2.64% synthe 2.73% align 2.51%
23 object detec*** 2.55% transfer 2.51% few shot 2.73% match 2.42%
24 interact 2.44% dataset 2.41% generaliz*** 2.67% semantic segmentation 2.42%
25 dataset 2.37% align 2.41% domain adaptation 2.54% embed*** 2.33%
26 reasoning 2.33% semantic segmentation 2.37% point cloud 2.48% structur*** 2.23%
27 edit 2.33% pre train 2.32% efficien*** 2.42% weakly supervised 2.23%
28 zero shot 2.26% predict 2.27% localiz*** 2.42% dataset 2.14%
29 image generat*** 2.07% interact 2.23% classifi*** 2.36% pose estimat*** 2.14%
30 consistent 2.07% point cloud 2.23% weakly supervised 2.36% synthe 2.05%
31 tuning 2.04% adversarial 1.99% distill 2.17% transfer 2.05%
32 attent 2.00% depth 1.99% pose estimat*** 2.17% camera 1.86%
33 match 1.93% prompt 1.99% label 2.17% efficien*** 1.86%
34 ground 1.85% localiz*** 1.90% depth 2.11% caption 1.86%
35 text to image 1.85% track 1.86% search 2.05% domain adaptation 1.77%
36 context 1.81% classifi*** 1.86% representation learning 1.92% few shot 1.77%
37 fusion 1.78% semi supervis*** 1.81% structur*** 1.92% classifi*** 1.77%
38 adversarial 1.78% few shot 1.81% condition 1.86% label 1.67%
39 latent 1.74% benchmark 1.81% interact 1.80% retriev*** 1.67%
40 recogni*** 1.74% condition 1.72% align 1.68% track 1.67%
41 condition 1.67% contrastive 1.72% identifi*** 1.61% point cloud 1.58%
42 spars 1.67% graph 1.67% context 1.61% condition 1.58%
43 video generat*** 1.67% pose estimat*** 1.67% re identification 1.55% distill 1.49%
44 depth 1.67% domain adaptation 1.62% semi supervis*** 1.55% search 1.49%
45 multi modal 1.63% tuning 1.53% dataset 1.55% salien 1.49%
46 unsupervised 1.63% hierarch 1.53% transfer 1.49% end to end 1.40%
47 transfer 1.59% structur*** 1.48% track 1.49% compress 1.40%
48 hierarch 1.48% spars 1.44% match 1.43% fusion 1.40%
49 few shot 1.48% zero shot 1.44% disentangl 1.43% semi supervis*** 1.40%
50 track 1.44% federat 1.39% hierarch 1.43% zero shot 1.40%
51 point cloud 1.41% text to image 1.39% retriev*** 1.37% self supervis*** 1.30%
52 token 1.37% camera 1.39% super resolution 1.37% context 1.30%
53 self supervis*** 1.37% edit 1.39% embed*** 1.30% disentangl 1.30%
54 localiz*** 1.37% match 1.30% end to end 1.30% translat 1.21%
55 camera 1.33% fusion 1.30% camera 1.24% inpaint 1.21%
56 evaluat 1.33% retriev*** 1.30% fusion 1.18% super resolution 1.21%
57 disentangl 1.33% weakly supervised 1.25% cross modal 1.12% interact 1.21%
58 structur*** 1.30% online 1.21% compress 1.12% memor 1.12%
59 prior 1.30% super resolution 1.21% benchmark 1.12% representation learning 1.12%
60 retriev*** 1.30% quantiz*** 1.16% memor 1.12% vehicle 1.02%
61 federat 1.26% cross modal 1.11% spars 1.06% constrain 1.02%
62 semantic segmentation 1.22% consistent 1.11% navigat*** 0.99% hierarch 0.93%
63 autonomous 1.18% compress 1.11% regulariz 0.99% recover 0.93%
64 label 1.15% representation learning 1.11% attack 0.99% in the wild 0.93%
65 memor 1.07% prior 1.11% salien 0.93% action recognition 0.93%
66 collaborat 1.07% deform 1.07% expla*** 0.93% bayes 0.93%
67 super resolution 1.07% continual learning 1.07% zero shot 0.93% transformation 0.93%
68 medic 1.07% image generat*** 1.07% online 0.93% cluster 0.93%
69 quantiz*** 1.04% regulariz 1.02% translat 0.93% latent 0.84%
70 embed*** 1.04% latent 1.02% prior 0.93% parsing 0.84%
71 encod*** 1.04% geometry 1.02% action recognition 0.87% benchmark 0.84%
72 robot 1.04% render*** 1.02% ground 0.87% group 0.84%
73 restor*** 1.00% multi modal 1.02% encod*** 0.87% spars 0.84%
74 compress 1.00% multimodal 0.97% discover 0.87% instance segmentation 0.74%
75 graph 1.00% memor 0.97% reasoning 0.87% attack 0.74%
76 foundation model 0.96% context 0.93% instance segmentation 0.87% regulariz 0.74%
77 render*** 0.96% cluster 0.93% render*** 0.81% encod*** 0.74%
78 simulat*** 0.96% instance segmentation 0.93% knowledge distillat*** 0.81% geometry 0.74%
79 manipulat*** 0.96% object tracking 0.93% answer 0.81% ground 0.74%
80 language model 0.96% composition 0.93% cluster 0.81% metric learning 0.74%
81 test time 0.92% discover 0.93% question answer 0.74% regress 0.65%
82 geometry 0.92% boost 0.93% latent 0.74% render*** 0.65%
83 pose estimat*** 0.92% ground 0.93% interpret*** 0.74% descript 0.65%
84 mamba 0.92% navigat*** 0.88% multimodal 0.74% autonomous 0.65%
85 classifi*** 0.92% knowledge distillat*** 0.88% quantiz*** 0.74% face recogni*** 0.65%
86 boost 0.92% attack 0.84% in the wild 0.74% generaliz*** 0.65%
87 pre train 0.92% action recognition 0.84% calibrat*** 0.74% online 0.65%
88 instruction 0.89% manipulat*** 0.84% inpaint 0.74% object tracking 0.65%
89 in the wild 0.89% domain generalization 0.84% frequency 0.74% reasoning 0.65%
90 online 0.85% lidar 0.84% geometry 0.68% style transfer 0.65%
91 navigat*** 0.85% evaluat 0.79% group 0.68% boundary 0.65%
92 expert 0.81% frequency 0.79% transformation 0.68% manipulat*** 0.56%
93 animat*** 0.81% test time 0.79% lidar 0.68% probabilistic 0.56%
94 cross modal 0.81% translat 0.79% edit 0.68% color 0.56%
95 composition 0.78% calibrat*** 0.74% pre train 0.62% evaluat 0.56%
96 pretrain 0.78% identifi*** 0.74% metric learning 0.62% spatio temporal 0.56%
97 constrain 0.78% embed*** 0.70% boundary 0.62% deform 0.56%
98 scalab 0.74% disentangl 0.70% autonomous 0.56% navigat*** 0.56%
99 decod 0.74% anomaly detection 0.70% deform 0.56% 3d reconstruction 0.56%
100 identifi*** 0.74% restor*** 0.70% consistent 0.56% mining 0.56%
101 anomaly detection 0.74% recover 0.70% descript 0.56% cross modal 0.56%
102 scene reconstruction 0.74% end to end 0.65% regress 0.56% composition 0.56%
103 fine tun*** 0.74% one shot 0.65% image classifi*** 0.56%
104 end to end 0.70% vision and language 0.65% image generat*** 0.56%
105 contrastive 0.70% animat*** 0.65%
106 representation learning 0.70% encod*** 0.65%
107 lidar 0.67% group 0.65%
108 group 0.67% out of distribution 0.65%
109 semi supervis*** 0.67% caption 0.65%
110 attack 0.67% search 0.65%
111 calibrat*** 0.59% probabilistic 0.65%
112 interpret*** 0.59% autonomous 0.60%
113 embod*** 0.56% collaborat 0.60%
114 image segment*** 0.56% image classifi*** 0.60%
115 discover 0.56% speech 0.60%
116 knowledge distillat*** 0.52% re identification 0.60%
117 3d reconstruction 0.52% inpaint 0.60%
118 weakly supervised 0.52% pretrain 0.60%
119 physics 0.52% image segment*** 0.56%
120 reward 0.52% reasoning 0.56%
121 frequency 0.52% spatio temporal 0.56%
122 annotat*** 0.52% fine tun*** 0.56%
123 descript 0.56%
124 medic 0.56%
125 answer 0.56%
126 color 0.56%
127 expla*** 0.51%
128 mining 0.51%
129 open set 0.51%
130 reinforcement learning 0.51%
131 constrain 0.51%

表3 論文出現キーワード推移(2025-2019年)

まとめ

今回は、ICCV2025スタート直前に、予習的な意味合いで統計情報を公開させていただきました(2025年6月4日情報解析)。19日から始まるICCVに現地・オンラインで参加される方にとって、少しでも参考になれば嬉しい限りです。
 

● ResearchPortメンバーシップ募集:
https://research-p.com/?memberpage=registration
ResearchPortでは、研究者・技術者の方の研究事業開発サポートやキャリアサポートサービスを提供しております。研究・技術の事業化や、就職/転職をご検討の方などご要望があればResearchPortメンバーシップへご登録下さい。

 
編集:ResearchPort事業部

■Contact

本記事に関する質問や、ご意見・ご要望などがございましたらResearchPortまでお問い合わせください。
https://research-p.com/contactform/

関連記事
メンバーシップ登録

Membership Registration

博士課程在籍中の方 ポスドクの方 大学教員の方 企業研究者/技術者

ResearchPortでは、研究者・技術者の皆さま一人ひとりのご希望に寄り添い、キャリア相談や副業案件、技術顧問依頼、研究プロジェクトのご紹介を個別に行っています。また、研究成果の技術広報支援や研究パートナー探しなど、キャリアと研究活動の両面をサポートいたします。
ご興味のある方は、ぜひResearchPortメンバーシップにご登録ください。