IOAI2026 シラバス(日本語版)
国際人工知能オリンピック(IOAI)は、高校生を対象とした世界有数の競技大会であり、人工知能における強固な理論的基盤と実践的な専門性の育成を目的としている。本シラバスは、選手が大会で優秀な成績を収めるために習得すべきトピックを示したものである。最新の研究成果や教育上の優先事項を反映させるため、公式シラバスは毎年IOAIの国際科学委員会(ISC)により更新される。
トピックの分類
IOAIにおける出題トピックは、選手が習得すべき知識のレベルと性質に応じて、以下の3つのカテゴリーに分類される。
- 理論(仕組み)
選手は、人工知能の根幹となる理論や概念、つまり、AIの背後にある「なぜ (why) 」を理解すべきである。理論トピックの習得のためには、教科書や講座などの教材を通じてAIのアルゴリズムを支える構造や機構を学習することが望ましい。関連するすべてのトピックをカバーする上で、深さよりも幅広さが優先されるべきである。
- 実践(機能、使用場面、実装方法)
選手は、AIの仕組みを実際に実装するためのスキルを身につける必要がある。具体的には、ライブラリ関数を適切に活用したり、特定のデータに合わせて処理方法を選択したり、得られた結果を正確に解釈したりする能力が求められる。例えば、Adam オプティマイザの内部構造を完全に理解する必要はないが、いつ、どのように使用すべきかを適切に判断できる能力が求められる。
- 両方(理論および実践)
一部のトピックでは、理論的原則と実践的応用の両方の知識が必要となる。
上記の構造的なアプローチにより、選手は多岐にわたるAIトピックについて、概念に関する理解と実践的な技能の両方をバランスよく習得することが推奨される。リストにないトピックは、シラバスから除外されると見なされる。質問は isc[at]ioai-official.org まで。
セクション1:基礎スキルと古典的機械学習
| トピック | サブトピック | 分類 |
| プログラミング基礎 | Python基礎 (ループ、関数、その他) | 実践 |
| データ処理のためのNumpy、Pandas | 実践 | |
| 可視化のためのMatplotlib、Seaborn | 実践 | |
| MLのためのScikit-learn | 実践 | |
| PyTorch基礎 | 実践 | |
| テンソルの取り扱い | 実践 | |
| CPUとGPUを使ったモデルの訓練 | 実践 | |
| 教師あり学習 | 線形回帰 | 両方 |
| ロジスティック回帰 | 両方 | |
| L1 & L2 正則化 | 両方 | |
| k近傍法 | 両方 | |
| 決定木 | 両方 | |
| モデルアンサンブル (勾配ブースティング、バギング、ランダムフォレスト) | 実践 | |
| サポートベクターマシン (SVM) | 両方 | |
| 教師なし学習 | k平均法 | 両方 |
| 主成分分析 (PCA) | 両方 | |
| t-SNE, UMAP | 実践 | |
| DBSCAN、階層的およびスペクトラルクラスタリング | 実践 | |
| データサイエンスの基礎 | モデル評価指標 (正解率、適合率、再現率、F値、その他) | 両方 |
| 過少学習、過学習 | 理論 | |
| ハイパーパラメータ調整 | 実践 | |
| 交差検証 | 実践 | |
| 混同行列とROC曲線 | 両方 | |
| 特徴量エンジニアリング* | 実践 | |
| データ処理 ** | 実践 |
* 特徴量エンジニアリングとは、生のデータ(高次元データ、カテゴリデータ、時系列データ、または不揃いなデータを含む)を、情報量の高いコンパクトな特徴量セットへと変換する作業を指します。手法としては、スライディングウィンドウ、プーリング操作、ワンホットエンコーディング、統計的モーメント(平均・標準偏差など)に基づく特徴量、PCA、ニューラルネットワークによる埋め込み(embedding)などがあります。
** データ処理とは、欠損データや不規則なデータの扱いを指し、シーケンスモデリングにおける設定も含まれます。手法としては、基本的な補完(平均値・中央値・シーケンスの前方埋めなど)や、可変長シーケンスに対するパディングがあります。また、正規化・標準化の技術、学習/検証/テストの分割手法、基本的なデータ拡張(反転・クロップ・ノイズ付加)、テキストおよび音声に対するトークナイゼーションと語彙構築、画像に対するパッチ化もここに含まれます。
セクション2:ニューラルネットワークと深層学習
| トピック | サブトピック | 分類 |
| ニューラルネットワーク | パーセプトロン基礎 | 両方 |
| 勾配降下法 | 両方 | |
| 誤差逆伝播法 | 両方 | |
| 活性化関数 (ReLU、シグモイド、Tanh) | 両方 | |
| 損失関数 (MSE、MAE、クロスエントロピー、その他) | 両方 | |
| 深層学習 | 多層パーセプトロン | 両方 |
| データ埋め込み (テキスト、画像、音声) | 両方 | |
| プーリング技術 (Max、Average) | 両方 | |
| Attention機構 | 両方 | |
| Transformers (理論はテキストと画像のみ必要) | 両方 | |
| オートエンコーダ | 実践 | |
| SGD、ミニバッチ勾配降下法 | 両方 | |
| モメンタム法 (Adam、AdamW) | 実践 | |
| 収束と学習率 | 実践 | |
| 正則化:ドロップアウト、早期終了、荷重減衰 | 実践 | |
| 重み初期化 | 実践 | |
| バッチ正規化 | 実践 | |
| モデルのファインチューニング (フルおよびパラメータ効率的) | 実践 |
セクション3:CV (コンピュータビジョン)
| トピック | サブトピック | 分類 |
| 基礎 | 畳み込み層 | 両方 |
| 画像分類 | 実践 | |
| 物体検知 (YOLO、SSD、DERT) | 実践 | |
| 画像セグメンテーション (U-Net) | 実践 | |
| 事前学習済み視覚エンコーダ (e.g. ResNet) | 実践 | |
| 画像拡張 | 実践 | |
| GANsによる画像生成 | 実践 | |
| 視覚のための自己教師あり学習 | 実践 | |
| 視覚―テキストエンコーダ (e.g. CLIP) | 実践 | |
| 拡散モデル | 実践 |
セクション4:NLP (自然言語処理)
| トピック | サブトピック | 分類 |
| NLP (自然言語処理) | テキスト分類 | 実践 |
| 事前学習済みテキストエンコーダ (e.g. BERT) | 両方 | |
| 言語モデリング | 両方 | |
| エンコーダ・デコーダモデル (e.g. 機械翻訳や視覚言語モデリング用) | 実践 | |
| 事前学習済み言語モデル (オープンソースおよびAPIベースのもの) | 実践 | |
| 音声処理 | 事前学習済み音声エンコーダ:HuBERT | 実践 |
| 音声モデル:Qwen-Audio、Whisper、Voxtral | 実践 |
注意:データはテキスト、表形式データ、画像、音声、動画、時系列などであり、上記の方法で処理されるべきです。
この日本語訳は JOAI 委員会により作成されたものです。
本ドキュメントに関して質問がある場合は、JOAI 委員会 (joai2026[at]joai.jp) までお問い合わせください。
更新履歴
- 2025 年 12 月 1 日:第 1 版公開
